Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Archivo de septiembre, 2011

Insomnio en el acceso: o como frenar el consumo energético de las redes de acceso

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Eduard Goma

 

En los últimos años el elevado consumo energético de los aparatos IT (ordenadores, servidores, redes) y la infraestructura de soporte (sistema de refrigeración, UPS, etc.) ha planteado graves inquietudes en relación con el medioambiente y con el control de costes. Se desperdicia una cantidad importante de la energía que se consume debido a la ausencia de una Proporcionalidad Energética en el perfil del consumo energético de los dispositivos IT, que suelen consumir casi la potencia máxima independientemente del verdadero volumen de trabajo. Ahora se está convirtiendo en una prioridad para los fabricantes de componentes y sistemas que los dispositivos consuman energía proporcionalmente al volumen de trabajo, pero se espera que este objetivo a largo plazo tarde varios años hasta que se desarrolle completamente. Una solución alternativa que se puede aplicar relativamente rápido es permitir que grupos de dispositivos (base de servidores, segmentos de red, etc.) se comporten colectivamente como un conjunto que consuma energía proporcional, a pesar de componerse de dispositivos de consumo de energía no proporcional. La clave para conseguir este objetivo es poner algunos de estos dispositivos en modo suspensión o de bajo consumo cuando la carga total de trabajo disminuya. Esto permite al conjunto encargarse de la carga ofrecida con pocos dispositivos conectados. En la entrada de este blog nos centraremos en las redes de acceso a Internet.

 

Las redes de acceso incluyen módems, home gateways, y multiplexores de acceso DSL (DSLAMs). Éstos son responsables del 70%-80% consumo energético total de la red. Por ejemplo, solo en Europa, se calcula que en 2015 los equipos de banda ancha consumirán anualmente  50 TWh apróx, comparado con los 61TWh que se consumen anualmente en Estados Unidos por los centros de datos.

Nosotros  hemos propuesto oportunidades de ahorro de energía en las redes de acceso de banda ancha, tanto por parte del cliente como de los ISP. Por parte del usuario, la combinación de un tráfico ligero y la falta de vías alternativas condenan a  los gateways a estar alimentados la mayor parte del tiempo a pesar de disponer de los modos de suspensión y reposo (SoI).

Para abordar este problema, introducimos “Broadband Hitch-Hiking (BHH) es decir, “Auto Stop en la Banda Ancha”, que se aprovecha de una superposición de redes inalámbricas para agregar al tráfico del usuario en el mínimo numero de gateways posible. En los actuales entornos urbanos, el BHH puede apagar entre el 65-90% de los gateways.  Apagar gateways permite al resto sincronizarse a una mayor velocidad  ya que se reducen las interferencias teniendo menos líneas activas. Nuestras pruebas demuestran el aumento de la velocidad en un 25%.

Por parte del ISP, dentro del marco de distribución  cada ADSL termina en uno de los módems pertenecientes a la tarjeta de línea DSLAM. La inflexibilidad de los despliegues actuales impide agrupar las líneas activas en un subconjunto de tarjetas dejando al resto en suspensión. Proponemos la introducción de  switches sencillos y económicos en la distribución para permitir la gestión flexible y de consumo proporcional de energía de los equipos ISP. En conjunto, nuestros resultados muestran un 80% de margen de ahorro energético en las redes de acceso. La combinación de BHH y switches permiten acercarse a este margen, ahorrando una media del 66%.

 

Investigadores: Eduard Goma, Alberto Lopez Toledo, Nikos Laoutaris, Pablo Rodriguez, Pablo Yague, Marco Canini (EPFL), Dejan Kostic (EPFL),  Rade Stanojevic (IMDEA)

 

Documentos:

 

  • Goma E, Canini M, Lopez Toledo A, Laoutaris N, Kostic D, Stanojevic R, Rodriguez P, Yague P. Insomnia in the Access or How to Curb Access Network Related Energy Consumption. In: Proceedings of ACM SIGCOMM ’11. Toronto, Canada: ACM New York, NY, USA; 2011

Patentes:

  • Número de solicitud de la patente 61/522,968: “INSOMNIA IN THE ACCESS OR HOW TO CURB ACCESS NETWORK RELATED ENERGY CONSUMPTION

 

 

¿Están blancos los Espacios Blancos?

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Luis Cucala

 

Siguiendo el hilo de entradas anteriores sobre los llamados White Spaces, el regulador americano, la FCC, ha publicado en pruebas una base de datos donde se muestra el uso actual de las bandas UHF y VHF de televisión, de modo que los operadores que deseen emplear alguna zona blanca del espectro puedan ver que canales hay disponibles.

Esta base de datos se puede encontrar en este enlace, y estará disponible en pruebas solo durante 45 días, contando desde el pasado día 19 de septiembre.

¡Oh, sorpresa! De acuerdo con las reglas actuales de la FCC, las zonas del territorio de EE.UU con disponibilidad de Espacios Blancos para uso en exteriores con potencias razonables (vatios) son escasas. El boletín del MIT publica un mapa donde es difícil ver algo en blanco, más bien hay muchas manchas negras de disponibilidad nula, que evidentemente coinciden con las zonas de mayor densidad de población.

Si buscamos la disponibilidad en Nueva York, el resultado es el esperado (disponibilidad nula)

 

Si buscamos algún lugar desolado, como el Gran Cañón, la disponibilidad es bastante buena (aunque no haya mucha gente, salvo turistas)

Pero si decidimos ir a la cercana Flagstaff, ya más poblada, pero tampoco gran cosa (68.000 haabitantes), la disponibilidad de canales para espacios blancos pasa a ser más bien pobre.

La conclusión que empieza a calar es que a no ser que la FCC relaje las reglas de uso del espectro para su uso como espacios blancos (a lo que se oponen los operadores de TV), las llamadas Super-WiFi en exteriores solo serán super en zonas poco pobladas, y el uso principal se restringirá a puntos de acceso en interiores tipo Wi-Fi, con potencia muy baja, 40 mW, bastante inferior a la de la Wi-Fi normal, que llega hasta 1.000 mW. Eso sí, la propagación en interiores en UHF/VHF es mejor que en 2,4/5 GHz.

UK sigue adelante con los espacios en blanco, con cautela

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Autor: Wolodyk

Con fecha de 1 de septiembre, el regulador de telecomunicaciones británico Ofcom ha hecho pública su decisión de seguir adelante con la promoción del uso comercial de los espacios blancos espectrales, los canales de televisión que están vacíos. La decisión se ha tomado después de analizar las respuestas recibidas a una solicitud pública de información sobre el tema.

De la lectura detallada del documento publicado por Ofcom se extraen las consideraciones siguientes:

- La gestión de los espacios en blanco, es decir, la determinación de qué canales están vacíos en un determinado lugar y periodo de tiempo, se apoya en el empleo de bases de datos de espectro georeferenciadas. En este aspecto se sigue el procedimiento ya elegido por el regulador de Estados Unidos (FCC).

- Prácticamente todo lo demás requiere estudios, pruebas de campo y consultas entre los posibles actores.

Ofcom también ha indicado que seguirá las normas que dicte la Unión Europea sobre espacios en blanco, pero como la Unión Europea todavía no se ha pronunciado sobre el tema, en ausencia de normativa europea seguirá adelante con normativa propia de U.K., que se adaptaría a la europea cuando esta última estuviese disponible.

El documento publicado por Ofcom está disponible aquí.

Full-disclosure vs responsible disclosure. Siguiente capítulo

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: David Barroso

La eterna discusión entre full-disclosure vs responsible disclosure tiene un nuevo área relativamente reciente: la protección de infraestructuras críticas (CIP). Es bastante común, que cada cierto tiempo se vuelva a discutir la mejor forma de reportar una vulnerabilidad a un fabricante, puesto que a día de hoy, todavía no se ha institucionalizado un procedimiento que pueda satisfacer a ambas partes (la persona que encuentra la vulnerabilidad, y el fabricante).

Existe todo tipo de alternativas, sin ser ninguna más exitosa que otra: agradecer al investigador su ayuda (como por ejemplo Microsoft), pagarle una determinada cantidad de dinero (Google), o simplemente, utilizar alguna compañía que funciona como broker para pagar las vulnerabilidades (iDefense VCP o Tippingpoint ZDI por ejemplo). Pero la realidad es que el sistema no funciona, y ejemplos como el del año pasado de la vulnerabilidad descubierta por Tavis Ormandy en Windows, es el ejemplo perfecto que demuestra que es necesario tener algún procedimiento que contente a todas las partes.

A día de hoy lamentablemente algunos fabricantes no consideran que la seguridad es un elemento crítico para no poner en riesgo a sus usuarios (la lista de ZDI sobre las vulnerabilidades aún no parcheadas es bastante ilustrativa), y por el otro lado, algunos investigadores también piensan que los fabricantes deben cumplir con sus exigencias de forma inmediata, llegando incluso a extorsionar al fabricante. Si bien han existido siempre intentos de procedimentar el reporte de vulnerabilidades (desde el famoso procedimiento de RFP, pasando por un intento del IETF, Responsible Vulnerability Disclosure Process, que acabo siendo la base de un procedimiento de la Organization for Internet Safety, hasta la iniciativa de No More Free Bugs promovida por varios investigadores).

Si nos movemos en el campo de la protección de las infraestructuras críticas, recientemente estamos viendo lo mismo que ocurrió hace ya varios años: después de intentar hacer las cosas bien, al ver que a menudo no se obtiene ningún resultado, nos encontramos con posiciones como la de Digital Bond, donde su política de reporte de vulnerabilidades es tan simple como: haremos lo que nos de la gana; cansados de ver cómo los grandes fabricantes industriales, después de todos los ríos de tinta que han provocado incidentes como Stuxnet o las vulnerabilidades encontradas por Dillon Beresford, parece que no reaccionan, ni siquiera cuando se involucra al ICS-CERT (puede que incluso el fabricante desee denunciarte).

Al final del día, lo que importa es cómo cada fabricante se preocupa de manejar y coordinar estas incidencias (la comunicación con los investigadores y empresas), puesto que, si por fin nos hemos dado cuenta que ninguna de las políticas de reporte de vulnerabilidades globales funciona, es trabajo de cada fabricante organizar su propia política que sea de gusto de ambas partes. Por poner un ejemplo, Mozilla, Barracuda, Google, FaceBook o Twitter ya lo han hecho, y no todas ellas pagan por vulnerabilidad encontrada, sino que algunas simplemente reconocen la ayuda.

En definitiva, más vale prevenir que curar, y es necesario que todas las grandes empresas tengan en marcha una política clara y publicada sobre las vulnerabilidades que terceras personas encuentren sobre sus productos, servicios, o simplemente, sobre sus portales web, y que se reconozca también la labor de las personas anónimas o no, que, positivamente, colaboran en la mejora de la seguridad en la red.

Sistemas de apoyo a la planificación, optimización y evolución de red de acceso móvil

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 4,67/5)
Loading ... Loading ...

Autor: Eduardo Yusta Padilla, Raquel García Pérez, Beatriz González Rodríguez

 

Las redes de acceso radio de los operadores móviles necesitan continuamente un proceso de planificación y optimización que les permita adaptarse a las situaciones de tráfico cambiante y creciente que se dan en los escenarios actuales. El despliegue de nuevos servicios de alta tasa binaria, así como la mayor penetración geográfica de los servicios móviles, hacen necesario que los operadores dispongan de sistemas y técnicas que, de una manera sencilla, rápida y precisa, sirvan como punto de apoyo a los distintos procesos de dimensionamiento, planificación,  optimización  y evolución de red.

 

¿Cómo está evolucionando el uso de los distintos recursos comunes de los diferentes elementos de la red de acceso? ¿Qué parámetros de la infraestructura desplegada deben ser modificados para sacar el máximo provecho a la misma? ¿Cuáles son las zonas críticas o más estratégicas a las que se debe dar prioridad en la evolución de la red? ¿Cuándo, y cómo debería llevarse a cabo la misma?

Éstas son sólo un pequeño ejemplo de las preguntas habituales a las que los diversos departamentos involucrados en la operación de la red móvil han de encontrar respuesta para garantizar que los diferentes servicios se prestan a los usuarios con la máxima calidad posible manteniendo una eficiencia de despliegue máxima, es decir, aprovechando al máximo la inversión realizada y minimizando los costes innecesarios derivados de un mala estrategia de operación y evolución de la red.

Encontrar respuesta a las preguntas que se planteaban con anterioridad no es una tarea sencilla, y requiere el análisis de una gran cantidad de información de naturaleza bastante dispar. En los diferentes sistemas de información del operador se almacenan grandes cantidades de datos, que incluyen desde información de nivel puramente técnico, como medidas realizadas en drive-tests, coberturas calculadas, estadísticos de tráfico, de utilización de recursos y de funcionamiento de los distintos elementos de red, parámetros de configuración de los mismos e inventarios de capacidad desplegada, hasta información de mucho más alto nivel, incluyendo datos de inteligencia de negocio,  planes estratégicos y aspectos económicos.

El principal problema a abordar no es por tanto la disponibilidad de datos, sino la extracción de significado útil de los mismos. Obtener y conjugar toda la información de manera que se puedan obtener resultados claros y precisos acerca de cuáles son las actuaciones necesarias en la red de acceso y cómo deben llevarse a cabo es muy complicado y poco abordable desde un punto de vista “manual”.

Es por ello que para el operador de red móvil han cobrado máxima importancia todas aquellas herramientas y sistemas que permiten automatizar al máximo todo el proceso de obtención y análisis de información, ya que generalmente permiten ampliar enormemente el alcance de los distintos procedimientos y su eficiencia, al proporcionar  información de máximo valor a los responsables de la toma de decisiones de cada uno de los procedimientos de gestión de la red.

Telefónica I+D trabaja activamente en desarrollar sistemas y soluciones innovadoras que permitan a Telefónica contar con todas las ventajas que ofrecen los mismos y mantener así su posición de liderazgo en la provisión de servicios móviles.

Un ejemplo de estos sistemas lo constituye RAND, desarrollado para detectar las necesidades de crecimiento y evolución de la red móvil 3G+ de Telefónica España, así como para la generación semiautomática de planes de actualización de la red. RAND está integrado en un sistema de información geográfica, lo que le dota de funcionalidades avanzadas de geoprocesamiento, tratamiento avanzado de datos georreferenciados y todas las ventajas de visualización (servidores de mapas, bases de datos cartográficas, etc.) que ofrecen estos sistemas. A su vez, está conectado a las distintas bases de datos de indicadores, inventario y coberturas, para poder disponer rápida y fácilmente de la información necesaria para el análisis.

Funcionalmente, el sistema tiene dos principales áreas de aplicación:

  • Por un lado, asegurar la provisión de cobertura para prestar los distintos servicios móviles en las poblaciones y zonas geográficas de interés: facilita la identificación de áreas sin servicio, y proporciona propuestas sobre el número, tipo y localización de nuevos emplazamientos necesarios para hacer evolucionar la red (teniendo en cuenta las localizaciones preferidas y posibles demarcaciones de edificios candidatos)
  • Por otro lado, garantizar la existencia de una capacidad suficiente en los elementos de la red móvil, de manera que los usuarios puedan obtener la calidad de experiencia necesaria: permite realizar el análisis conjunto del tráfico y capacidad de las celdas y nodos de la red para identificar de manera flexible situaciones de alta carga y proponer actualizaciones de elementos que permitan solucionarlas.

Otro ejemplo de la importancia de estos sistemas lo constituye la realización de predicciones precisas acerca de la posible evolución del tráfico y la utilización de la capacidad de la red. Ésta es una área de elevada importancia en la actualidad dado el rápido crecimiento de los servicios de banda ancha móvil y el dinamismo que esto impone a la configuración y evolución de la red.

 

Si bien existen procedimientos y técnicas de análisis (como las que incorpora RAND) que permiten identificar de acuerdo a criterios flexibles en qué elementos de la red se está teniendo un tráfico o una utilización de recursos superior al deseable con una cierta persistencia, éstas tienen el inconveniente de que su planteamiento es meramente reactivo: los problemas de capacidad se detectan una vez que se está experimentando niveles de carga superiores a los deseables. Por ello, para un operador es muy importante poder contar adicionalmente con sistemas que complementen estas técnicas de análisis y le permitan abordar el problema de manera más proactiva, anticipando de la manera más precisa posible futuros problemas de falta de capacidad.

 

Se trabajando actualmente en soluciones basadas en inteligencia artificial y minería de datos para abordar el problema de las predicciones. La principal idea detrás de estas soluciones es poder analizar de manera eficiente la información pasada y actual de comportamiento y configuración de la red, extraer de ella información útil acerca de la de evolución de los diferentes estadísticos de tráfico y uso de recursos y combinarla con variables de inteligencia de negocio para obtener una estimación lo más realista posible del futuro estado de la red de acceso.

 

Un buen criterio sobre dónde, cómo y, sobre todo, cuándo evolucionar se traduce en una gestión óptima de la inversión y una optimización de la calidad percibida por los usuarios de los servicios móviles, con el consecuente impacto económico para el operador. A la obtención de este buen criterio contribuyen firmemente los sistemas de apoyo a la planificación, optimización y evolución de red, pieza clave para los operadores de comunicaciones móviles.

 

Realidad Aumentada: una nueva lente para ver el mundo (II)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 5,00/5)
Loading ... Loading ...

Autora: Ruth Gamero

 

4. Áreas de aplicación de la Realidad Aumentada

En la actualidad, gran parte de las iniciativas de realidad aumentada, se han centrado en el ámbito del ocio y el marketing, pero es previsible que se extiendan a otras áreas a medida que la tecnología madure y se simplifique todavía más. Sectores como los del turismo, la educación y la salud también comienzan a tener un grupo considerable de aplicaciones, a los que hay que añadir los que tradicionalmente han venido utilizando más estas tecnologías (incluso en su acepción más amplia de realidad aumentada inmersiva) como son el militar, la manufactura y mantenimiento automovilístico y aeronáutico así como el entrenamiento de habilidades y destrezas. A continuación se enumeran algunos ejemplos:

En el ámbito de la educación en la actualidad, están apareciendo aplicaciones sociales, lúdicas y basadas en la ubicación que muestran un potencial importante, tanto para proporcionar experiencias de aprendizaje contextual como de exploración y descubrimiento fortuito de la información conectada en el mundo real. En este sentido, uno de los campos de aplicación de la realidad aumentada son los libros. Un ejemplo de esta aplicación es el de la alemana Metaio que desarrolla libros que incluyen elementos de este tipo utilizando realidad aumentada basada en el uso de códigos.


Aplicación de la realidad aumentada a la educación

En relación al marketing, área en la que captar la atención es un elemento fundamental, las empresas ven la realidad aumentada como una forma de diferenciarse con respecto a la competencia, ofreciendo al usuario la posibilidad de acceder a experiencias visuales llamativas; en el ámbito de la venta, la gran ventaja que ofrece la realidad aumentada es la opción de comprobar el resultado de su compra sin necesidad de probar físicamente el producto, lo cual es ideal en entornos de venta por Internet. Un ejemplo en el caso de la venta es el la tienda de ropa online Zugara, que utiliza esta tecnología para solventar el problema que tienen los clientes al no poder probarse la ropa. El sitio web de la tienda permite seleccionar la prenda de ropa que se desea comprar. Posteriormente es posible “probarse” la ropa utilizando realidad aumentada.

Realidad aumentada en una tienda online

Fuente: http://www.zugara.com/ y http://www.youtube.com/watch?v=NxQZuo6pFUw

Sin duda, el ámbito de los viajes y el turismo es muy adecuado para la explotación de la tecnología de realidad aumentada, tanto en el campo de las guías de viaje, como en el de la promoción de lugares. Un ejemplo de aplicación es Wikitude que permite, con su versión “Travel Guide” gracias a una aplicación instalada en un smartphone, detectar qué es lo que se está viendo en cada momento y mostrar la información más relevante sobre el lugar (información histórica, monumentos emblemáticos cercanos, puntos de interés, etc.). Wikitude, utiliza una combinación entre la cámara, la brújula, la conexión a internet y el GPS del teléfono móvil para activar la AR. Con ello, se identifica la posición del usuario y la orientación, después se reciben los datos pertenecientes al objeto enfocado y se muestra en la pantalla sobre la imagen capturada por la cámara. El contenido se extrae de Wikipedia, Qype y Wikitude, y los usuarios pueden añadir información propia.

                                 Wikitude Travel Guide

Otra aplicación relevante de la realidad aumentada tiene que ver con un uso social. Se trata de mezclar las redes sociales y las interfaces de AR de manera que se satisfaga la necesidad humana de encontrar gente y compartir experiencias e información con amigos y compañeros. Además, las aplicaciones bajo esta categoría facilitan la realización de anotaciones en diferentes lugares. Tagwhat es un servicio en esta línea que tiene las capacidades de redes sociales envuelto en un navegador de realidad aumentada. El resultado es una red de localización que se puede compartir con amigos. Sus funcionalidades permiten mostrar donde se está, así como acceder a resúmenes de bares y restaurantes, e información de ayuda sobre comercios. La red digital pretende situar a los usuarios dentro de su propio mundo personalizado en el que puedan descubrir, explorar y compartir lo que importa con amigos y seguidores.

Tagwhat

Fuente: http://www.youtube.com/watch?v=DNtpWm_6Dqk

5. El futuro de la Realidad Aumentada

La realidad aumentada es una tendencia tecnológica relativamente joven y que empieza a vivir cierta edad dorada debido al desarrollo de los smartphones. No obstante, este estadio debe considerarse como un primer paso en la evolución de la realidad aumentada, que irá avanzando al ritmo de maduración de las tecnologías de la información. Y esta evolución vendrá marcada según dos ejes: usabilidad y funcionalidad.

La tendencia de los sistemas de realidad virtual es a ser más portables, más cómodos y más transparentes para el usuario. En la actualidad, ordenadores y teléfonos móviles son los dos tipos de dispositivos utilizados, aunque se espera que con el tiempo, el desarrollo de nuevas tecnologías de display junto con la miniaturización de componentes permitan hacer realidad el sueño de unas gafas en las que se sobreimprima directamente sobre los cristales la información virtual. A pesar de que existen ya ciertos prototipos de gafas adaptadas a la realidad virtual, todavía será necesario que pase un número de años determinado para que existan modelos comerciales que ofrezcan estas capacidades con calidad aceptable.

En la actualidad, los servicios de realidad aumentada se configuran generalmente incrustando pequeños fragmentos de información digital en la realidad que observan los usuarios. Esta información suele consistir en etiquetas de texto describiendo un determinado objeto o imágenes. Esto debe considerarse como el principio de una tendencia de mezclar información real y virtual que todavía tiene un largo recorrido por delante. El avance de las tecnologías en las que se apoya la realidad virtual marcará el ritmo, tanto para el enriquecimiento de la información digital como de la mezcla de forma transparente con la información que los sentidos nos muestran, creando experiencias de usuario diferentes a las actuales.

La realidad aumentada como se entiende actualmente se puede considerar como una categoría de “mix reality”, o de mezcla entre información real e información virtual en el que predomina la información real.

Sin embargo, según se observa en la figura, existen diferentes grados de mezcla de información real y virtual. La realidad aumentada se trata de una aproximación desde la realidad, lo que viene a suponer que la información real predomina y la información virtual es complementaria. En el otro extremo la realidad virtual completa consiste en un mundo creado virtualmente como el que propone Second Life, y cuando en este entorno virtual se introducen componentes reales daría lugar al augmented virtuality que es la forma de realidad mixta en que lo virtual se constituye como el elemento fundamental. Por tanto, realidad aumentada y virtualidad aumentada son dos aproximaciones de la mezcla de información real y virtual que muestran puntos de convergencia y que con el tiempo pueden llegar a confundirse.

 Modelos de mezcla de entornos reales y virtuales

Según las tecnologías de sensores, procesamiento y display alcancen nuevas metas es de esperar que la información virtual que se muestra en las aplicaciones de realidad aumentada se enriquezca hasta dejar de ser algo complementario para convertirse en el núcleo de la información que recibe el usuario. Este proceso será un proceso paulatino en el que convivirán aplicaciones en las que el “mix”, virtual-real tendrá diversos pesos en función del objetivo que se persiga con las aplicaciones. En el caso más extremo el usuario podría llegar a encontrarse completamente inmerso en mundos virtuales. Se conseguiría así un objetivo vislumbrado por tecnólogos futuristas y por los creadores de ciencia ficción de que el hombre se libere de las limitaciones del entorno real para crear un entorno a su antojo con el que pueda interaccionar a su voluntad.

Realidad Aumentada: una nueva lente para ver el mundo (I)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 5,00/5)
Loading ... Loading ...

Autor: Ruth Gamero

Este artículo es una síntesis del Informe monográfico sobre tendencias perteneciente al proyecto del Informe “La Sociedad de la Información en España” elaborado por Fundación Telefónica en colaboración con el equipo de Estrategia Tecnológica de Telefónica I+D.

1. En qué consiste la Realidad Aumentada

Bajo el paraguas de realidad aumentada (en inglés Augmented Reality o AR) se agrupan aquellas tecnologías que permiten la superposición, en tiempo real, de imágenes, marcadores o información generados virtualmente, sobre imágenes del mundo físico. Se crea de esta manera un entorno en el que la información y los objetos virtuales se fusionan con los objetos reales, ofreciendo una experiencia tal para el usuario, que puede llegar a pensar que forma parte de su realidad cotidiana, olvidando incluso la tecnología que le da soporte. La realidad aumentada es pues una tecnología que ayuda a enriquecer nuestra percepción de la realidad con una nueva lente gracias a la cual la información del mundo real se complementa con la del digital.

La realidad aumentada es una nueva ventana a través de la cual se puede ver el mundo “enriquecido”

Si bien hace ya algunas décadas que existe la capacidad de entregar experiencias de realidad aumentada, no ha sido hasta hace poco que estas experiencias se han vuelto fáciles de usar y sobre todo portátiles. Los adelantos en dispositivos móviles, fundamentalmente en los smartphone, pero también en diferentes tecnologías que combinan el mundo real con la información virtual, han dado lugar a que hoy en día podamos disfrutar de estas aplicaciones y que la realidad aumentada esté ya posicionada para entrar en el sector de consumo de forma generalizada.

Otro elemento esencial en este mix que compone la realidad aumentada es la disponibilidad de conectividad permanente ya que precisamente la potencialidad de gran parte de estos servicios es poder acceder a la información digital complementaria a la del mundo físico actualizada en tiempo real y eso sólo es posible gracias a las infraestructuras de telecomunicación.

Una descripción de alto nivel del funcionamiento de la realidad aumentada es mostrada en la figura adjunta: la tecnología actúa como una lente a través de la cual vemos el mundo físico (básicamente gente, lugares y cosas¬). La gran capacidad de esta lente, que es el sistema de realidad aumentada, es la de superponer sobre el entorno físico información digital relevante con el contexto en el que se encuentra la persona que está “mirando”. Esta información generalmente se encuentra en la nube, es decir, en la red.

Esquema general del concepto de realidad aumentada

 

Fuente: elaboración propia

2. Componentes de un servicio de Realidad Aumentada

Bajo una aproximación pragmática, para componer un servicio de realidad aumentada son necesarios 4 ingredientes básicos:

Por un lado, un elemento que capture las imágenes de la realidad que están viendo los usuarios. Basta para ello una sencilla cámara de las que están presentes en los ordenadores o en los teléfonos móviles.

Por otro, un elemento sobre el que proyectar la mezcla de las imágenes reales con las imágenes sintetizadas. Para ello se puede utilizar la pantalla de un ordenador, de un teléfono móvil o de una consola de videojuegos.

En tercer lugar, es preciso tener un elemento de procesamiento, o varios de ellos que trabajan conjuntamente. Su cometido es el de interpretar la información del mundo real que recibe el usuario, generar la información virtual que cada servicio concreto necesite y mezclarla de forma adecuada. Nuevamente encontramos en los PCs, móviles o consolas estos elementos.

Finalmente se necesita un elemento al que podríamos denominar “activador de realidad aumentada”. En un mundo ideal el activador sería la imagen que están visualizando los usuarios, ya que a partir de ella el sistema debería reaccionar. Pero, dada la complejidad técnica que este proceso requiere, en la actualidad se utilizan otros elementos que los sustituyen. Se trata entonces de elementos de localización como los GPS que en la actualidad van integrados en gran parte de los smartphone, así como las brújulas y acelerómetros que permiten identificar la posición y orientación de dichos dispositivos, así como las etiquetas o marcadores del tipo RFID o códigos bidimensionales, o en general cualquier otro elemento que sea capaz de suministrar una información equivalente a la que proporcionaría lo que ve el usuario, como por ejemplo sensores. En un caso ideal, algunos de estos elementos podrían llegar a eliminarse. Esto ocurriría si se consigue, por ejemplo, proyectar la información sintetizada de forma que el ojo sea capaz de verla, bien sobre unas gafas, directamente sobre la retina, o con alguna técnica holográfica avanzada. Pero, por el momento, esto deberíamos considerarlo todavía futurista.

En la siguiente figura se representan estos ingredientes en los dos ejemplos de realidad aumentada más comunes en la actualidad: por un lado el de un smartphone que incorpora una aplicación de realidad aumentada y por otro, el caso de un PC con una aplicación de realidad aumentada en el que la activación se produce por un código impreso.

En uno de los casos, el del PC, la aplicación de realidad aumentada está basada en el uso de marcadores (pueden ser códigos de barras, QR o Bidi), que se fundamenta en la utilización de una cámara para percibir un punto visual específico (en este caso un dibujo en una revista impresa) para que el software haga aparecer una información concreta. El software que activa la realidad virtual está pre-cargado en el ordenador y generalmente se trata de una aplicación que se ha descargado de Internet o de un plug-in del navegador web. Con estas aplicaciones es posible ver imágenes 3D sobre-impresionadas. En el ejemplo se muestra el diseño en 3D del automóvil de BMW “Mini” pudiendo visualizarlo desde todos los ángulos con sólo mover el marcador, en este caso, la revista en el que está impreso. Dicha imagen en 3D se ve en la pantalla del PC. Existen otros muchos ejemplos de esta acepción de AR, sobretodo en el campo del marketing, es el caso de la productora Paramount que hace unos meses lanzó una campaña para que las personas pudieran verse como “Autobots” durante la campaña de promoción de su última película “Transformers” o de los desarrolladores software que han comenzado a imprimir sus tarjetas de visita de manera que se incorpore esta funcionalidad.

En el caso del smartphone, la aplicación no usa marcadores sino datos posicionales, en concreto los que provienen del GPS, de la brújula y el acelerómetro . La ventaja de este tipo de aplicaciones es que funciona en todas partes sin necesidad de hacer un etiquetado especial. En el ejemplo se trata de una aplicación que superpone datos sobre los edificios que se están visualizando a través de la cámara del móvil. El hecho de que cada vez dispongamos de mejores dispositivos, con mejor hardware y mejores herramientas de desarrollo, combinado con una calidad de video aceptable de la cámara de dichos teléfonos, así como de capacidad de procesamiento suficiente, está haciendo posible que se desarrollen aplicaciones con gran potencial y que podrían llegar a grandes audiencias. A esto hay que sumar el hecho de que las aplicaciones que dan soporte a la AR se puedan distribuir a través de las plataformas de aplicaciones de los móviles (como la AppStore de iPhone o el Android Market en el caso de los móviles que tienen el sistema operativo Android) hace que la distribución sea más eficiente.

Ingredientes básicos de la realidad aumentada. Ejemplos de uso en Smartphone y en PC con códigos Bidi

Fuente: elaboración propia

Ya es posible disfrutar de la realidad aumentada con los dispositivos actuales: smartphones, consolas y PCs con webcam.

Otra acepción de AR es la que permiten las consolas con cámaras. En este sentido la pionera es Sony, cuando lanzó en 2003 una primera versión de realidad aumentada en su PlayStation; EyeToy. Se trataba de un juego que venía con una cámara pequeña de vídeo que permitía a los jugadores aparecer en la pantalla e interactuar con los elementos del juego. Más recientemente otros juegos como “Eye of Judgement” han incorporado mecanismos de tarjetas y el juego EyePet extiende este concepto significativamente a un animal virtual bastante sofisticado. Por otro lado, Microsoft con su Xbox 360 también está trabajando en este espacio con su propia cámara y títulos como “You´re in the Movies”.

Finalmente, habría otro grupo de aplicaciones de AR sofisticadas que podrían denominarse como aplicaciones de realidad aumentada inmersiva y no aplicables al consumo, que incorporarían tecnologías muy avanzadas y caras. Se trata de utilidades de aplicación militar o académica que recrean mundos virtuales que permiten, por ejemplo, entrenar ciertas habilidades. En lugar de usar PC o Tv como displays utilizan gafas o displays que van sujetos a la cabeza y que son capaces de reproducir imágenes en 3D. Un ejemplo de este tipo de aplicaciones son las de mantenimiento, como la de la firma BMW que ofrece una aplicación basada en AR para operaciones de mantenimiento y reparación de sus vehículos con gafas y auriculares para dar instrucciones de reparación directamente en ellas. Otro ámbito de aplicación es el militar: en el ejército americano los soldados usan un casco integrado con un ordenador, con un display y sensores que les permiten ver datos, mapas, información del terreno, y conectar con el campo de batalla.

Factores que potencian y dificultan la adopción de las aplicaciones de realidad aumentada

Fuente: Gartner

3. Agentes relevantes en la provisión de servicios de Realidad Aumentada

Para que los servicios de Realidad Aumentada sean posibles es necesaria la intervención de varios agentes: los fabricantes de los dispositivos, los desarrolladores del software de realidad aumentada, los datos (y por lo tanto los proveedores de contenidos y los propios usuarios que los generan) y finalmente la red proporcionada por los operadores de telecomunicación.

Los fabricantes de dispositivos: se trata de los fabricantes de smartphones, de PC, tablets y consolas y, en el caso de la realidad aumentada inmersiva, de los fabricantes de gafas especiales o cascos que incorporan pantallas, proyectores y en un futuro de las lentillas que nos permitirán ver directamente la información digital superpuesta.

Los desarrolladores del software de realidad aumentada: se trata de los agentes que desarrollan las aplicaciones que “dotan de vida” a los datos que complementan la visión del entorno físico y gracias a las cuales es posible disponer de una “forma aumentada” de ver el mundo y así enriquecer los objetos de la vida real (personas, lugares o cosas) o realizar un seguimiento e interactuar con ellos de una manera radicalmente diferente. Estos agentes son los encargados, por un lado, de ofrecer las herramientas adecuadas para, por ejemplo, activar la realidad aumentada (en este sentido estarían las aplicaciones que facilitan el reconocimiento visual o el procesamiento de imágenes, o las basadas en marcadores); por otro, de adaptar la información digital almacenada sobre el mundo de manera que pueda usarse por la lente de la realidad aumentada, así como de ofrecer la posibilidad a las personas de interactuar con el mundo desde diferentes dimensiones al mismo tiempo que se permite “contribuir” con datos propios a la construcción de este mundo digital paralelo que complementa la información del mundo real.

Dentro de este grupo hay empresas que ofrecen aplicaciones que se cargan directamente en los dispositivos (ya sean móviles, PCs o consolas) y otras que ofrecen aplicaciones que pueden ser ejecutadas directamente desde un navegador web.

Agentes relevantes en la provisión de realidad aumentada

Fuente: elaboración propia

Mundo digital y digitalizado: un agente especialmente relevante son en sí los datos, es decir, el mundo digital y el digitalizado. En los últimos años se ha capturado mucha información sobre el mundo real, por ejemplo datos sobre la localización, descripciones, imágenes, etc. tanto de lugares como de cosas y personas y toda esa información se ha ido almacenando en “el cloud” o en “la nube” , lo que ha ido configurando un mundo digital paralelo. Ejemplos concretos de esto podrían ser, la wikipedia, que recoge ingentes cantidades de información de diferentes temas constituyendo así la mayor enciclopedia del mundo, Google Earth, que permite ver el mundo a través de imágenes satelitales, mapas, relieves o edificios 3D o las redes sociales Facebook o LinkedIn (esta profesional), que albergan gran cantidad de información de sus usuarios, así como otros ejemplos de herramientas 2.0 como la de microblogging twitter o la de imágenes flickr. Pero también hay otros ejemplos en ámbitos concretos, como en el de los viajes, con guías como Lonely Plantets o portales como TripAdvisor, con información ”construida” directamente por los propios usuarios en relación a los viajes que han ido realizado.

Los datos digitales pueden ser creados bien por empresas proveedoras de contenidos (especializadas en diferentes áreas, tales como entretenimiento, e-learning, mundos virtuales, etc) o por los propios usuarios, siguiendo la tendencia de UGC (user generated content) tan popular en la red desde la llegada del término 2.0 hace apenas unos años.

Las operadoras de telecomunicación: el otro elemento de esencial importancia para que estas aplicaciones puedan llegar al público es la red, precisamente porque la potencia de la realidad aumentada radica en poder acceder a la información digital complementaria a la del mundo físico actualizada en tiempo real. El acceso a esta información debe poder realizarse en muchos casos como en las aplicaciones georeferenciadas desde cualquier lugar y en cualquier momento. Por ello, las operadoras de telecomunicación desempeñan un papel especialmente relevante en este ecosistema, debiendo suministrar conexiones de datos de forma ubicua para que este tipo de aplicaciones puedan utilizarse. Tal y como se ha comentado, el cloud, “la nube”, almacena los datos y proporciona sobre ellos los servicios finales de AR y para acceder a ellos es preciso que alguien facilite los servicios de conectividad precisos.

Apple y los certificados falsos

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 4,50/5)
Loading ... Loading ...

Autor: Erik Miguel Fernández

 

El martes salió la noticia de que se había detectado en Irán un ataque de suplantación SSL contra los usuarios que querían conectarse a la web de Gmail.

Se trata de un ataque man-in-the-middle en el que se emplea un certificado falso. Cuando el usuario intenta conectarse a Google de forma segura, en realidad se conecta al atacante, que para establecer la conexión le envía un certificado falso diciendo que es Google. La autoridad certificadora es legítima (DigiNotar), pero DigiNotar no tiene autoridad para expedir certificados de Google.

El problema es que en algunos sistemas y navegadores se chequea que la autoridad certificadora es legítima, pero no se chequea que además de ser legítima tenga autoridad para emitir ese certificado en particular.

El resultado en esos navegadores es que el usuario no percibe absolutamente nada y cree estar en una conexión segura con Google, cuando en realidad está en una conexión segura con el atacante (que a su vez establece una conexión segura con Google para redirigirle el tráfico y que el usuario no perciba nada). Con ello, el atacante tiene acceso a todo lo que circule por la conexión (usuario, contraseña, correos enviados o leídos, destinatarios, etc.). También podría manipular la conexión para enviar información falsa al usuario, ocultarle información, suplantar al usuario para enviar información en su nombre, etc.

 Si el navegador está programado correctamente, en estos casos debe generar una alerta de seguridad para avisar al usuario (otra cosa es que el usuario decida ignorar la alerta y conectarse de todos modos…)

Ayer jueves nos enteramos que además de Gmail y otros servicios de Google, también han sido atacadas por el mismo sistema las conexiones de usuarios iraníes a Yahoo, Mozilla y WordPress, entre otras. Se sospecha que puede estar un Gobierno (presumiblemente el iraní) detrás del ataque.

 La entidad certificadora (DigiNotar, de Holanda) ha reconocido que le han robado una docena de certificados en un ataque que sufrió en julio de hackers iraníes. Mientras se resuelve el problema, tanto Google (Chrome), como Microsoft (Internet Explorer) como Mozilla han retirado a DigiNotar del listado de autoridades de certificación de confianza.

El problema aparece con Mac OS X, ya que a raíz del problema anterior se ha descubierto un bug por el cual Mac OS X no es capaz de desconfiar de certificados emitidos por una Entidad revocada por el usuario. Esto significa que, hasta que se resuelva el problema, se recomienda a los usuarios que no se fíen de los sitios web firmados por DigiNotar cuando se navegue con Apple Safari…

Por otra parte, Apple también ha tenido este mismo problema con el iOS, ya que no chequeaba en las conexiones que la autoridad certificadora realmente tuviera autoridad para emitir los certificados que enviaba al terminal. Esto afecta tanto a iPad como a iPhone en las versiones anteriores al iOS 4.3.5

Así que si el iPhone (o la iPad) tiene una versión de SO anterior a la 4.3.5, cuidado…

Por cierto, el jailbraking más sencillo del iPhone se hace hasta la versión 4.3.3, con lo que el que quiera hacer jailbraking en su iPhone debe saber que va a tener este bonito agujero de seguridad en sus conexiones SSL…