Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Archivo para la categoría 'Innovación'

Full-disclosure vs responsible disclosure. Siguiente capítulo

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: David Barroso

La eterna discusión entre full-disclosure vs responsible disclosure tiene un nuevo área relativamente reciente: la protección de infraestructuras críticas (CIP). Es bastante común, que cada cierto tiempo se vuelva a discutir la mejor forma de reportar una vulnerabilidad a un fabricante, puesto que a día de hoy, todavía no se ha institucionalizado un procedimiento que pueda satisfacer a ambas partes (la persona que encuentra la vulnerabilidad, y el fabricante).

Existe todo tipo de alternativas, sin ser ninguna más exitosa que otra: agradecer al investigador su ayuda (como por ejemplo Microsoft), pagarle una determinada cantidad de dinero (Google), o simplemente, utilizar alguna compañía que funciona como broker para pagar las vulnerabilidades (iDefense VCP o Tippingpoint ZDI por ejemplo). Pero la realidad es que el sistema no funciona, y ejemplos como el del año pasado de la vulnerabilidad descubierta por Tavis Ormandy en Windows, es el ejemplo perfecto que demuestra que es necesario tener algún procedimiento que contente a todas las partes.

A día de hoy lamentablemente algunos fabricantes no consideran que la seguridad es un elemento crítico para no poner en riesgo a sus usuarios (la lista de ZDI sobre las vulnerabilidades aún no parcheadas es bastante ilustrativa), y por el otro lado, algunos investigadores también piensan que los fabricantes deben cumplir con sus exigencias de forma inmediata, llegando incluso a extorsionar al fabricante. Si bien han existido siempre intentos de procedimentar el reporte de vulnerabilidades (desde el famoso procedimiento de RFP, pasando por un intento del IETF, Responsible Vulnerability Disclosure Process, que acabo siendo la base de un procedimiento de la Organization for Internet Safety, hasta la iniciativa de No More Free Bugs promovida por varios investigadores).

Si nos movemos en el campo de la protección de las infraestructuras críticas, recientemente estamos viendo lo mismo que ocurrió hace ya varios años: después de intentar hacer las cosas bien, al ver que a menudo no se obtiene ningún resultado, nos encontramos con posiciones como la de Digital Bond, donde su política de reporte de vulnerabilidades es tan simple como: haremos lo que nos de la gana; cansados de ver cómo los grandes fabricantes industriales, después de todos los ríos de tinta que han provocado incidentes como Stuxnet o las vulnerabilidades encontradas por Dillon Beresford, parece que no reaccionan, ni siquiera cuando se involucra al ICS-CERT (puede que incluso el fabricante desee denunciarte).

Al final del día, lo que importa es cómo cada fabricante se preocupa de manejar y coordinar estas incidencias (la comunicación con los investigadores y empresas), puesto que, si por fin nos hemos dado cuenta que ninguna de las políticas de reporte de vulnerabilidades globales funciona, es trabajo de cada fabricante organizar su propia política que sea de gusto de ambas partes. Por poner un ejemplo, Mozilla, Barracuda, Google, FaceBook o Twitter ya lo han hecho, y no todas ellas pagan por vulnerabilidad encontrada, sino que algunas simplemente reconocen la ayuda.

En definitiva, más vale prevenir que curar, y es necesario que todas las grandes empresas tengan en marcha una política clara y publicada sobre las vulnerabilidades que terceras personas encuentren sobre sus productos, servicios, o simplemente, sobre sus portales web, y que se reconozca también la labor de las personas anónimas o no, que, positivamente, colaboran en la mejora de la seguridad en la red.

Realidad Aumentada: una nueva lente para ver el mundo (II)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 5,00/5)
Loading ... Loading ...

Autora: Ruth Gamero

 

4. Áreas de aplicación de la Realidad Aumentada

En la actualidad, gran parte de las iniciativas de realidad aumentada, se han centrado en el ámbito del ocio y el marketing, pero es previsible que se extiendan a otras áreas a medida que la tecnología madure y se simplifique todavía más. Sectores como los del turismo, la educación y la salud también comienzan a tener un grupo considerable de aplicaciones, a los que hay que añadir los que tradicionalmente han venido utilizando más estas tecnologías (incluso en su acepción más amplia de realidad aumentada inmersiva) como son el militar, la manufactura y mantenimiento automovilístico y aeronáutico así como el entrenamiento de habilidades y destrezas. A continuación se enumeran algunos ejemplos:

En el ámbito de la educación en la actualidad, están apareciendo aplicaciones sociales, lúdicas y basadas en la ubicación que muestran un potencial importante, tanto para proporcionar experiencias de aprendizaje contextual como de exploración y descubrimiento fortuito de la información conectada en el mundo real. En este sentido, uno de los campos de aplicación de la realidad aumentada son los libros. Un ejemplo de esta aplicación es el de la alemana Metaio que desarrolla libros que incluyen elementos de este tipo utilizando realidad aumentada basada en el uso de códigos.


Aplicación de la realidad aumentada a la educación

En relación al marketing, área en la que captar la atención es un elemento fundamental, las empresas ven la realidad aumentada como una forma de diferenciarse con respecto a la competencia, ofreciendo al usuario la posibilidad de acceder a experiencias visuales llamativas; en el ámbito de la venta, la gran ventaja que ofrece la realidad aumentada es la opción de comprobar el resultado de su compra sin necesidad de probar físicamente el producto, lo cual es ideal en entornos de venta por Internet. Un ejemplo en el caso de la venta es el la tienda de ropa online Zugara, que utiliza esta tecnología para solventar el problema que tienen los clientes al no poder probarse la ropa. El sitio web de la tienda permite seleccionar la prenda de ropa que se desea comprar. Posteriormente es posible “probarse” la ropa utilizando realidad aumentada.

Realidad aumentada en una tienda online

Fuente: http://www.zugara.com/ y http://www.youtube.com/watch?v=NxQZuo6pFUw

Sin duda, el ámbito de los viajes y el turismo es muy adecuado para la explotación de la tecnología de realidad aumentada, tanto en el campo de las guías de viaje, como en el de la promoción de lugares. Un ejemplo de aplicación es Wikitude que permite, con su versión “Travel Guide” gracias a una aplicación instalada en un smartphone, detectar qué es lo que se está viendo en cada momento y mostrar la información más relevante sobre el lugar (información histórica, monumentos emblemáticos cercanos, puntos de interés, etc.). Wikitude, utiliza una combinación entre la cámara, la brújula, la conexión a internet y el GPS del teléfono móvil para activar la AR. Con ello, se identifica la posición del usuario y la orientación, después se reciben los datos pertenecientes al objeto enfocado y se muestra en la pantalla sobre la imagen capturada por la cámara. El contenido se extrae de Wikipedia, Qype y Wikitude, y los usuarios pueden añadir información propia.

                                 Wikitude Travel Guide

Otra aplicación relevante de la realidad aumentada tiene que ver con un uso social. Se trata de mezclar las redes sociales y las interfaces de AR de manera que se satisfaga la necesidad humana de encontrar gente y compartir experiencias e información con amigos y compañeros. Además, las aplicaciones bajo esta categoría facilitan la realización de anotaciones en diferentes lugares. Tagwhat es un servicio en esta línea que tiene las capacidades de redes sociales envuelto en un navegador de realidad aumentada. El resultado es una red de localización que se puede compartir con amigos. Sus funcionalidades permiten mostrar donde se está, así como acceder a resúmenes de bares y restaurantes, e información de ayuda sobre comercios. La red digital pretende situar a los usuarios dentro de su propio mundo personalizado en el que puedan descubrir, explorar y compartir lo que importa con amigos y seguidores.

Tagwhat

Fuente: http://www.youtube.com/watch?v=DNtpWm_6Dqk

5. El futuro de la Realidad Aumentada

La realidad aumentada es una tendencia tecnológica relativamente joven y que empieza a vivir cierta edad dorada debido al desarrollo de los smartphones. No obstante, este estadio debe considerarse como un primer paso en la evolución de la realidad aumentada, que irá avanzando al ritmo de maduración de las tecnologías de la información. Y esta evolución vendrá marcada según dos ejes: usabilidad y funcionalidad.

La tendencia de los sistemas de realidad virtual es a ser más portables, más cómodos y más transparentes para el usuario. En la actualidad, ordenadores y teléfonos móviles son los dos tipos de dispositivos utilizados, aunque se espera que con el tiempo, el desarrollo de nuevas tecnologías de display junto con la miniaturización de componentes permitan hacer realidad el sueño de unas gafas en las que se sobreimprima directamente sobre los cristales la información virtual. A pesar de que existen ya ciertos prototipos de gafas adaptadas a la realidad virtual, todavía será necesario que pase un número de años determinado para que existan modelos comerciales que ofrezcan estas capacidades con calidad aceptable.

En la actualidad, los servicios de realidad aumentada se configuran generalmente incrustando pequeños fragmentos de información digital en la realidad que observan los usuarios. Esta información suele consistir en etiquetas de texto describiendo un determinado objeto o imágenes. Esto debe considerarse como el principio de una tendencia de mezclar información real y virtual que todavía tiene un largo recorrido por delante. El avance de las tecnologías en las que se apoya la realidad virtual marcará el ritmo, tanto para el enriquecimiento de la información digital como de la mezcla de forma transparente con la información que los sentidos nos muestran, creando experiencias de usuario diferentes a las actuales.

La realidad aumentada como se entiende actualmente se puede considerar como una categoría de “mix reality”, o de mezcla entre información real e información virtual en el que predomina la información real.

Sin embargo, según se observa en la figura, existen diferentes grados de mezcla de información real y virtual. La realidad aumentada se trata de una aproximación desde la realidad, lo que viene a suponer que la información real predomina y la información virtual es complementaria. En el otro extremo la realidad virtual completa consiste en un mundo creado virtualmente como el que propone Second Life, y cuando en este entorno virtual se introducen componentes reales daría lugar al augmented virtuality que es la forma de realidad mixta en que lo virtual se constituye como el elemento fundamental. Por tanto, realidad aumentada y virtualidad aumentada son dos aproximaciones de la mezcla de información real y virtual que muestran puntos de convergencia y que con el tiempo pueden llegar a confundirse.

 Modelos de mezcla de entornos reales y virtuales

Según las tecnologías de sensores, procesamiento y display alcancen nuevas metas es de esperar que la información virtual que se muestra en las aplicaciones de realidad aumentada se enriquezca hasta dejar de ser algo complementario para convertirse en el núcleo de la información que recibe el usuario. Este proceso será un proceso paulatino en el que convivirán aplicaciones en las que el “mix”, virtual-real tendrá diversos pesos en función del objetivo que se persiga con las aplicaciones. En el caso más extremo el usuario podría llegar a encontrarse completamente inmerso en mundos virtuales. Se conseguiría así un objetivo vislumbrado por tecnólogos futuristas y por los creadores de ciencia ficción de que el hombre se libere de las limitaciones del entorno real para crear un entorno a su antojo con el que pueda interaccionar a su voluntad.

Sé dónde has estado…

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Carlos Plaza

En Internet muchos de los dispositivos diseñados para hacer el “bien” se utilizan para hacer el “mal” cuando hablamos de seguridad y privacidad.

Por ejemplo, el hecho de que la petición http incluya información sobre el tamaño de pantalla,  versión e idioma del navegador o las fuentes disponibles, etc., se realizaba para que los sitios web pudieran personalizar la distribución y localización del contenido ofrecido.

Sin embargo, esta información también se utiliza para obtener la huella digital de dispositivos con el fin de rastrear a los usuarios.

De la misma manera, la característica que se suele utilizar, mostrando mediante distintos colores un enlace visitado y no visitado ha sido empleado para “robar historiales”, por ejemplo una página web sospechosa contiene una lista de enlaces, y con JavaScript se revisa el color de los enlaces para saber si has visitado una de esas webs.

De esta manera, esa web puede aprender “cosas interesantes” como bancos (de datos)  visitados para identificar ataques “phising”

 Existen incluso empresas que venden productos o servicios que son utilizados por programadores de la Web para “robar historiales” o empresas que quieren saber si un usuario que visita su web ha visitado antes otras webs con información acerca de la empresa (Tealium).

Este dispositivo se ha extendido por comprometer la privacidad del usuario de una forma sofisticada, según han publicado   investigadores de la Universidad de Stanford  recientemente: un profundo estudio de una empresa rastreadora online la cual comprueba si el usuario ha visitado alguna página web de una lista de más de 15000 enlaces, divididos cuidadosamente en categorías como compras de grupo, aplicaciones para casa ,coches, o incluso información delicada como la salud o asuntos financieros…

¿Cuál es la protección de usuario disponible?

Navegadores como Firefox incorporan en sus últimas versiones un seguro para protegerse del “robo de historiales”, aunque nunca se garantiza al 100%  que los asaltantes no sean capaces de burlar la seguridad( por ejemplo, en vez de utilizar JavaScript utilizan máscaras de pantalla para los enlaces visitados)… De hecho, en la comunidad Mozilla han tardado unos años en elegir un mecanismo, ya que no había una opción clara para eliminar el ataque sin afectar a otras funcionalidades.

Así que no es una mala idea utilizar algunos complementos gratis- como Ghostery  u otras herramientas que previenen el rastreamiento y evitan la ejecución de comandos por parte de rastreadores bloqueados- o NoScript para bloquear /permitir comandos de forma selectiva. Y por supuesto, configurar tu navegador para eliminar el historial una vez terminado.

La FCC quiere planificar la muerte de la PSTN

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Ignacio Berberana

Buscando información sobre otros temas (en concreto, sobre ‘células pequeñas’) en la presentación de la última sesión del Technological Advisory Council (TAC) del regulador de telecomunicaciones norteamericano FCC (disponible aquí), me he topado con que una de las recomendaciones del mismo es que la FCC fije una fecha concreta para la desaparición de la red conmutada telefónica. Probablemente, esto desencadenará una consulta para permitir un proceso de ‘defunción’ ordenado, que tenga en cuenta aspectos como la provisión de servicios a aquellos usuarios para los que la PSTN es la única alternativa disponible actualmente, el soporte a las llamadas de emergencia o el impacto en la competencia (algunos operadores, como AT&T, han estado promoviendo el fin de la PSTN desde hace varios años).

Cómo es la nube de Apple

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Autor: Salvador Pérez

 

Hace unos años, cuando empezaba la telefonía móvil, era habitual ver como los operadores de telecomunicaciones regalaban terminales o los ofrecían a un precio muy bajo con el objetivo de que los usuarios utilizaran sus servicios de telecomunicaciones. Ahora parece que ocurre lo contrario, que los fabricantes de terminales son capaces de ofrecer servicios gratuitos, y no solo de comunicación, con el fin de vender más terminales. Parece el mundo al revés.

Un claro ejemplo es el servicio iCloud que Apple presentó el pasado día 6 de Junio en una de sus clásicas keynotes. Bueno, y el servicio iMessage de mensajería presentado el mismo día. O el servicio facetime de videoconferencia presentado hace unos meses. Todo ello gratis y sin salir de Apple. O dicho de otra manera, precisamente por no salir de Apple, ya que todos estos servicios solo podrían ser utilizados por dispositivos de esta marca.

 

La nube de Apple

La nube de Apple se parece a la nube de Dropbox, por poner un ejemplo no del todo desconocido. En este concepto, la información se almacena en la nube para que pueda ser accesible desde cualquier lugar con conectividad. Pero además, la información se duplica en todos y cada uno de los dispositivos que tienen permiso para acceder al servicio.

 

 

De esta forma el acceso a los contenidos es siempre local, lo que hace que la experiencia de uso sea mejor que cuando los contenidos se almacenan en la red. No existen tiempos de espera al inicio y son altamente improbables las interrupciones durante su uso. A cambio, se exige que el terminal disponga de cantidad suficiente de almacenamiento local y capacidad de proceso adecuada.

Pero la cosa va más allá. Apple, además, elimina la necesidad de disponer de un ordenador personal desde el que gestionar la información de los dispositivos portátiles. Hasta ahora, muchas de las funciones de gestión de los dispositivos se realizaban desde el programa iTunes que se ejecutaba en un ordenador personal. Desde él se compraba música y se organizaba la biblioteca musical. O se actualizaba el software que utilizaba el dispositivo portátil. O se gestionaba que contenidos se metían y cuales no en el dispositivo portátil. A partir de iCloud todas estas funciones será posible hacerlas SIN la necesidad de un ordenador que actúe de intermediario. De esta manera el hub de contenidos pasa del ordenador a la nube.

Con este modelo sería posible comprarse un terminal nuevo, de Apple claro, identificarse como usuario de Apple y descargarse el contenido compartido en la nube directamente a través de la red. El proceso se explica en el siguiente video

Y es que a Apple ya se le consideró revolucionario el día que hizo desaparecer las disqueteras de sus ordenadores personales. Y levantó muchos comentarios cuando eliminó el CD de sus Macbook Air. Ahora elimina la necesidad de tener un ordenador personal como lugar central que almacena y cohesiona toda la información digital del hogar.

 

Con qué tipo de contenidos funciona

Por supuesto con los archivos incluidos música y videos. Mucho se había rumoreado en las últimas semanas con que Apple iba a presentar un servicio de música en streaming del estilo de Spotify. Máxime cuando se habían filtrado informaciones de acuerdos con compañías discográficas. Sin embargo, el tratamiento que se hace a la música no es más que una evolución a la nube de la gestión que iTunes hacía en el ordenador.

El funcionamiento es el siguiente. Por 25 dólares al año, iTunes escanea la librería, reconoce aquellas canciones que tiene en la Store, y las ofrece con una calidad de 256kbps para tenerlas siempre accesibles desde iCloud. Las que no reconoce las sube el resto de la biblioteca musical a la nube como temas desconocidos. A partir de ese momento las compras que se efectúen se descargarán automáticamente en el resto de dispositivos (Apple, por si no queda claro) que posea el usuario. El límite máximo será el de 10 dispositivos.

Este procedimiento de disfusión de las compras funcionaría para otro tipo de adquisiciones. Si se compra algo desde el iPhone (o cualquier equipo iOS), este aparece en el resto de dispositivo sin necesidad de ningún tipo de sincronización o tarea manual. Así de simple.

Mención aparte merece el uso que harían de iCloud las aplicaciones de Apple. Así Safari incluiría un nuevo servicio para el almacenamiento offline de páginas web para su posterior lectura. Información que se alamacenaría en la nube y que estaría disponible en cualquier dispositivo. Algo similar ocurriría con las aplicaciones ofimáticas de Apple (Keynote, Numbers y Pages) que almacenarían los ficheros en la nube y en todos los dispositivos disponibles.

¿Gratis?

Buena parte de estos servicios serán gratis. Así lo ha anunciado a bombo y platillo Steve Jobs. Y añade que no incluirá publicidad porque a los usuarios no les gusta. Bueno, esto no es del todo exacto.

Apple ofrece has 5 gigas para almacenamiento en red. En este espacio se almacenaría principalmente el correo electrónico, el calendario, los ficheros de las aplicaciones y los backups de los dispositivos. En general se trata de información que antes se almacenaba en un ordenador personal y era gestionado por el software iTunes.

Se dispondrá de almacenamiento gratuito ilimitado para todos las compras. Esto incluye la música, las publicaciones y las aplicaciones. En el caso de las música solo se almacenaría un pequeño identificador por cada pieza ya que se reaprovecha el espacio de almacenamiento del tema entre todos los usuarios. Además, para los usuarios estadounidenses, se crea un servicio de escaneado de música para ser almacenada en la nube cuyo coste para el usuario será de 24,99 dólares al año.

Inicialmente, se cree que la sincronización de esta información en el caso de dispositivos portátiles se permitirá sólamente a través de redes WiFi y no se activaría inicialmente la conectividad 3G.

De este modo, iCloud se subvencionaría en parte como un servicio freemium y en parte debido al efecto de compras múltiples de dispositivos de la marca que se podría generar.

 

Cómo podría afectar al tráfico en la red

 

En el concepto de nube presentado hasta el momento se descartan los mecanismos de streaming. Eso quiere decir que la mayoría del tráfico sería de tipo “best effort” debido a las actualizaciones de contenidos, que necesitarían de requisitos de prestaciones de la red menores.

Los flujos serán de tipo multicast, “de un dispositivo a la nube y de ahí al resto de dispositivos”. Pero con la particularidad de que se trataría de flujos únicos en su mayor parte, con lo que su cacheado en red aportaría más complicaciones que ventajas. De hecho los dispositivos actúan de caches de los contenidos en red.

En cualquier caso esta estructura genera la necesidad de disponer con conectividad en todos los dispositivos aunque no necesariamente exige una obligación de hacerlo a través de tecnologías móviles. De hecho, como veíamos antes, este proceso de sincronización se hará inicialmente sobre redes WiFi.

 

Cómo se ven afectados otros servicios / aplicaciones

De entre todos los servicios asociados a la presentación de iCloud, el que más podría afectar a otros agentes sería el servicio de mensajería iMessage. Competiría directamente con soluciones como el popular WhatsApp aunque, a diferencia de este, el servicio e Apple solo podría usarse desde terminales de la compañía. Al igual que WhatsApp, iMessage compite con los servicios de mensajería de los operadores de telecomunicaciones. Para estos últimos, más que la amenaza que es mayor en el caso de WhatsApp, el riesgo es el poder prescriptor que suelen tener las aplicaciones de Apple.

Pero este no es el único caso ya que muchos servicios populares en la actualidad serían reemplazados por soluciones de Apple. Hablaríamos de servicios de “lectura diferida” como Instapaper o ReadItLater que son muy populares en la actualidad. O servicios de gestión de tareas online donde empresas como Remember The Milk están triunfando. Solo por mencionar algunos ejemplos de servicios populares.

Y por supuesto los servicios de almacenamiento de datos en la nube con Dropbox a la cabeza. La desventaja de Apple es su falta de universalidad en un mundo de soluciones multifabricante.

 

El fin del ordenador

Lo que queda después de todo esto es la pérdida de importancia del ordenador que hasta ahora constituye el centro neurálgico de nuestra vida digital. Como este proceso siga así, en 2020 igual el desuso hace que se nos olvide la palabra “ordenador”

 

¿Y dice usted que esto de los femtos tiene futuro?

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Autor: Luis Miguel Campoy



Pues sí, parece que todavía queda mucha gente que se  pregunta por la viabilidad y las posibilidades de esta “nueva” tecnología de los femtonodos, como si fuera algo por descubrir.

Lo cierto es que, tal como se están comercializando, sí que quedan todavía numerosos campos de mejora.  Pero de lo que no cabe duda es de que no es una tecnología del futuro, sino más bien del presente, ya que según cuenta  informa telecom and media  actualmente hay instalados a nivel mundial más femtonodos  (más de 2.3 millones) que estaciones base macro (1.6 millones).

En  todo caso, el despliegue de femtos actual no está exento de algún que otro problema. Básicamente hay dos tipos de femtos, unos abiertos a todos los terminales de la operadora, y otros de grupo cerrado (denominados CSG), siendo estos últimos los usados típicamente en despliegues en clientes empresariales, en los que interesa garantizar el servicio del cliente por encima de otras consideraciones. Ambos tipos de femtos producen “agujeros” de cobertura no utilizable por la estación macro,  siendo en el caso de femtos CSG todavía más importante ese agujero de cobertura, porque los usuarios no pertenecientes al grupo no pueden acceder tampoco al femto. Estos problemas normalmente están siendo resueltos a base de sacrificar parte del espectro asignado a la operadora, para el uso exclusivo de este tipo de dispositivos, ya que la coordinación del uso de los recursos radio entre macros y femtos todavía está en debate dentro del 3GPP

Por tanto, urge implementar en la práctica las innovaciones necesarias para la coordinación de estaciones base y femtonodos, antes de que se produzca el inevitable desembarco masivo de estos dispositivos en las distintas redes móviles de los operadores .

Reunión de GSMA OneAPI

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 4,33/5)
Loading ... Loading ...

Autor: Diego González

 

Los días 8 y 9 de Junio se celebró una reunión de OneAPI, un estándar de referencia en la apertura de capacidades del operador a terceros, en la sede de Telefónica I+D en Madrid. En ella se trataron interesantes temas sobre la exposición de capacidades del operador a terceros mediante APIs de red, un aspecto en auge y que está siendo estudiado bajo diferentes perspectivas en diversos grupos industriales y de estandarización.

En primer lugar, OMA (Open Mobile Alliance). Este organismo de estandarización por excelencia de la capa de aplicación es el encargado de definir APIs REST genéricos (OMA Parlay REST), que son reutilizados por la GSMA (GSM Association). Esta última se encarga de definir perfiles mínimos de interoperabilidad (GSMA OneAPI). Por otra parte, WAC es la iniciativa empresarial a través de la cual los operadores van a ofrecer a los desarrolladores un punto de acceso único a los APIs de red y tiendas de aplicaciones de los operadores.

 

La definición de APIs estándar para el entorno telco se ha constituido en una actividad clave en el panorama de estandarización actual, como forma de atraer al área de influencia del operador al cada vez más relevante ecosistema de desarrolladores y también como forma de agilizar el ciclo de creación de aplicaciones y servicios.

 

Estas APIs son expuestas por BlueVia, iniciativa pionera en la apertura de capacidades del operador a terceros. En BlueVia, cualquier desarrollador puede darse de alta y fácilmente, usando las herramientas que se facilitan, crear aplicaciones que utilicen capacidades del operador como Mensajería (SMS y MMS), Localización u obtención de información de contexto de usuario. Y lo más importante de todo, el desarrollador recibe una parte de los ingresos generados por el tráfico de red (revenue share).

 

¿Cuál fue el objetivo de la reunión?

En la reunión celebrada en Madrid, se realizó una comparativa entre las APIs de BlueVia y las APIs de OneAPI, buscando similitudes y diferencias, para poder así concluir cuales son las mejores prácticas a la hora de exponer capacidades telco a desarrolladores mediante APIs abiertas..

 

También se aprovechó la reunión para que los diversos operadores y vendors que asistieron a la misma pudieran debatir sobre el futuro de la exposición de capacidades de red, sobre los siguientes pasos a dar. Se debatió acerca de cuestiones cómo: ¿Qué capacidades tiene el operador?, ¿cuales son más interesantes para los desarrolladores y, por tanto, se deben exponer?, ¿qué tecnologías y protocolos deben usarse? ¿qué herramientas y facilidades deben darse a los desarrolladores?

Para resolver todas estas preguntas, lo más importante es el feedback de los propios desarrolladores.

Respecto a los formatos y protocolos la industria lo tiene claro, puesto que así lo hacen ver los desarrolladores, la exposición de capacidades debe basarse en interfaces REST y, sin descartar otros formatos, lo que más demandan los desarrolladores es JSON como formato de intercambio de datos. Tanto las APIs de OneAPI como las APIs expuestas en BlueVia cumplen estos puntos.

 

En resumen, con iniciativas como BlueVia, basada en ofrecer un mismo set de APIs para acceder a las capacidades telco de todos los operadores del grupo Telefónica, se pretende conseguir que los desarrolladores accedan a dichas capacidades sin tener que lidiar con interfaces telco (desconocidos para los desarrolladores y menos ‘amigables’) y pudiendo usar el mismo interfaz para acceder a diferentes operadores en todo el mundo. Es el ‘write once, run everywhere’. Y, claro, con un beneficio económico para el desarrollador, ya sea al vender sus aplicaciones o al recibir revenue por el tráfico que éstas generan.

Walqa se convierte en el primer centro de trabajo de Telefónica, con pleno acceso a la Internet IPV6

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Autor: Carlos Ralli

 

La reserva mundial de direcciones de Internet del protocolo IP versión 4 (IPv4) se ha agotado durante el último mes de abril, tras la asignación por parte del ICANN (Internet Corporation for Assigned Names and Numbers) de los últimos 5 bloques de direcciones de la Internet actual.

Aunque algunas compañías, como Microsoft, están intentando recurrir transitoriamente a la compra de bloques de direcciones IPv4 a otras empresas, esto no es una solución efectiva; a partir de este momento, se deberá migrar progresivamente al Protocolo de Internet versión 6 (IPv6). La nueva Internet IPv6 permitirá acceder a 340 sixtillones de direcciones públicas, frente a los 4.200 millones de direcciones que permite la IPv4.

Para llevar a cabo esta migración, se están desarrollando diferentes iniciativas en todo el mundo, entre las que destaca el World IPv6 Day, organizado por la ISOC (Internet SOCiety), que se celebrará el próximo 8 de junio

En esta iniciativa participarán los principales protagonistas de internet (Google, Facebook, Yahoo, Akamai, Limelight Networks,  operadoras de red… como Telefónica, entre otras), que proporcionarán contenidos IPv6 durante 24 horas, en sus dominios web genéricos.

Telefónica I+D se suma a esta iniciativa mundial. Para ello, aportará su experiencia derivada de implantar IPv6 para sus servicios y empleados. Este conocimiento deberá servir de modelo para otras corporaciones y clientes, en cuanto a fiabilidad, escalabilidad y seguridad.

Como primera acción, se ha completado una experiencia piloto en el centro de Telefonica I+D del Parque Tecnológico de Walqa. Su objetivo es valorar el impacto en la migración a IPv6.

Para llevar a cabo el piloto en Walqa, a partir del día 1 de abril se habilitaron en el centro los elementos de red, para poder ofrecer IPv6 a los puestos de red y servidores del centro. Desde entonces se monitoriza el tráfico de datos, para anticiparse a posibles problemas y para recoger estadísticas, que posibiliten evaluar el impacto que podrá tener el World IPv6 Day del próximo 8 de junio.

Todo esto se hizo de manera transparente a los usuarios, que no percibieron el cambio. Se observó que el 75% de los puestos de trabajo pasaron automáticamente a trabajar en IPv6 (fundamentalmente los puestos con sistemas operativos de última generación, como Windows 7, MACOS, Linux…). El 25% restante de los puestos de trabajo siguieron trabajando únicamente con IPv4. La experiencia está siendo muy satisfactoria, sin ningún problema reseñable hasta el momento.

El desarrollo del piloto realizado en el centro de Walqa servirá como punto de partida para realizar la migración a IPv6 en el resto de sedes de TI+D y, por extensión, de todo el grupo Telefónica.

 

Reflections: Llévate el estado de tus aplicaciones contigo

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 5. Media: 5,00/5)
Loading ... Loading ...

Autor: Javier García Puga

Una de las iniciativas en la que estamos trabajando en Telefónica I+D es Reflections. Esta herramienta nos permite capturar el estado concreto de las aplicaciones que estamos utilizando en nuestro equipo (p.ej. PC – en trabajo) y reflejarlo  en cualquier otro (ej. portátil, tablet, móvil, PC de casa, etc.) de una manera muy sencilla y casi inmediata. Todo ello con un simple click, sin necesidad de guardar archivos o  enviarlos; y manteniendo la posición de cada documento, el histórico de cambios, etc.

Por ejemplo, si estoy  en el trabajo haciendo una presentación PPT, copiando gráficas de un Excel y buscando imágenes con 3 pestañas del navegador abiertas y me tengo que ir a casa, Reflections me permitiría “reflejar”  este estado concreto para poder acceder desde el ordenador de mi casa.  De esta forma podría recuperar el mismo estado de las aplicaciones y seguir trabajando a partir de él.  Es decir, los documentos se abrirían en la misma página que los dejé, las páginas web mantendrían la posición del scroll, etc.

Reflections también podría funcionar entre equipos diferentes (PC- móvil), o incluso enviar el estado de mis aplicaciones a otro usuario.

Hace unas semanas hemos publicado en los TID Labs una versión preliminar de Reflections, con el fin de que gente externa a TID pueda descargarse la aplicación y probarla. Podéis  hacerlo desde aquí.

Nos gustaría conocer vuestro feedback sobre el producto, cómo por ejemplo qué tipo de aplicaciones os gustaría que estuvieran disponibles para reflejar, qué funcionalidades veis más útiles, etc.

Redes de sensores y contaminación en las ciudades

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Marta Molina

La contaminación producida por los vehículos preocupa mucho, por su efecto sobre el cambio climático y su repercusión sobre la salud.

A nivel local es especialmente preocupante en las ciudades, donde vive actualmente más de la mitad de la población mundial. Conocer los niveles de contaminación de cada fuente emisora, para una actividad concreta (como puede ser el tráfico rodado) o la concentración total de contaminantes para una zona (inmisión), es importante en la toma de decisiones. La medición directa con sensores viene a cubrir parte de esta demanda de información.

La teledetección y el uso de sensores ambientales es ya un tema recurrente en el Congreso nacional de medio ambiente (CONAMA). De hecho es el tema principal de uno de sus grupos de trabajo.

Entre las múltiples aplicaciones analizadas en la última cita del Conama está una orientada a medir la contaminación de los vehículos en movimiento mediante tecnología RSD (Remote Sensing Device). Su uso permite caracterizar, a bajo coste, gran cantidad de vehículos e identificar los más contaminantes.

Este caso, junto con otros analizados, se describe en el documento final del grupo de trabajo. De acuerdo con este documento, los sistemas RSD permiten captar en menos de medio segundo y de manera no intrusiva, sin parar el vehículo, las emisiones de los contaminantes principales de cada vehículo en las condiciones reales de circulación. Lo que permite completar la información obtenida por otros sistemas de seguimiento de contaminantes. Esta tecnología se ha usado ya en España por parte de algunas administraciones, para caracterizar el parque automovilístico de algunas ciudades, y por parte de algunas empresas, para caracterizar sus flotas de vehículos.

Este sistema se basa en sensores que funcionan en continuo, proyectando una luz invisible (infrarroja y ultravioleta) sobre la carretera. El haz es detectado por un receptor colocado al otro lado de la vía, que en función del nivel de absorción de luz al paso del vehículo, da una medida de los gases emitidos.

Recientemente se ha comunicado la puesta en marcha de un sistema de este tipo en la ciudad de Sevilla, basado en una unidad móvil que puede medir las emisiones de miles de automóviles al día e identificarlos. Para ello, la unidad cuenta con un sistema RSD, que mide a su paso las emisiones de cada uno de los vehículos y una estación que ajusta las mediciones en función de las condiciones meteorológicas. La aplicación se completa con sensores que permiten detectar la velocidad y la aceleración del vehículo, y con una cámara que identifica el modelo y antigüedad del mismo.

Las caracterización de las emisiones del tráfico rodado es también el objetivo de otros sistemas, como el anunciado recientemente por la Universidad de Valladolid, que se basa en aprovechar los ordenadores para el control de flotas, ya instalados en algunos vehículos, para estimar sus emisiones instantáneas, en base al régimen de vueltas del motor y otros parámetros de conducción.

Si la información obtenida por estos sistemas es facilitada al conductor, puede ayudar a mejorar la eficiencia de su conducción. También puede ser usada por las administraciones para orientar el tráfico hacia zonas menos contaminadas (evitando puntos negros), para concienciar a los conductores o para actuar sobre los vehículos más contaminantes (por ejemplo con revisiones, tarificaciones diferenciadas, multas o limitaciones de circulación en algunas zonas).