Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Archivo de mayo, 2011

Uk aconseja proteger las infraestructuras

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 4,50/5)
Loading ... Loading ...

Autor: Marta Molina

El Defra (UK Department for Environment, Food and Rural Affairs) aconseja a las compañías de telecomunicaciones (también a las de energía, transporte y sistemas de agua) adaptar sus infraestructuras y diseñar las nuevas teniendo en cuenta los futuros cambios en el clima (incremento de la temperatura, de las olas de calor, las inundaciones, las tormentas…)

Un estudio independiente, encargado por el Defra, considera que las infraestructuras TIC (Tecnologías de la Información y las Comunicaciones) pueden ser vulnerables a los futuros riesgos del cambio climático, lo que puede reducir la calidad del servicio y tener implicaciones en otros muchos sectores y negocios. Por una parte, hay que tener en cuenta que los usuarios demandan un servicio de mayor calidad y por otra, que los fenómenos climáticos extremos son cada vez más frecuentes.

Los cambios en el clima se prevé que incrementen la degradación de las infraestructuras, aumenten con ello los costes de operación, y puedan afectar a la disponibilidad y a la calidad del servicio.

De acuerdo con el estudio, el ritmo de cambio tecnológico del sector y la naturaleza modular de sus infraestructuras hace que sea más fácil su adaptación frente a los riesgos del cambio del clima, que para otros sectores. Las líneas de cables, tanto de cobre como de fibra óptica y los inmuebles que forman parte de la planta de telecomunicación son las infraestructuras con mayor periodo de vida útil.

Otras ideas interesantes:

  • Muchos dispositivos actuales tienen tolerancias de funcionamiento que hacen posible su adaptación a las condiciones de humedad y temperatura previstas para el futuro, aunque es probable que necesiten ser reemplazados con mayor frecuencia.
  • Las infraestructuras de telecomunicación (postes, antenas, cables aéreos…) pueden reducir su tiempo de vida útil y pueden verse también afectadas por el fallo de otras infraestructuras (de transporte, energía, etc.)
  • La localización óptima de algunas infraestructuras pueda cambiar con el cambio de las condiciones climáticas.
  • La interdependencia de los sistemas, a veces a nivel internacional, puede ser también un riesgo a tener en cuenta.
  • Compartir infraestructuras, externalizar centros de procesos de datos e implantar el “cloud computing” mejora la eficiencia del sistema pero puede hacerlo más vulnerable a la hora de poder funcionar independientemente en caso de fallo en alguna de sus partes.
  • La virtualización permite mejorar la resistencia ante fallos transfiriendo los servicios a áreas con menores riesgos climáticos.

 

Más información:

Adapting the ICT Sector to the Impacts of Climate Change – Summary Report

Adapting the ICT Sector to the Impacts of Climate Change – Final Report (septiembre 2010)

Climate Resilient Infrastructure: Preparing for a Changing Climate (9 de mayo de 2011)

 

Consecuencias del creciente valor económico del grafo social

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 5,00/5)
Loading ... Loading ...

Artículo escrito por Paulo Villegas

Conociendo el grafo a nuestro alrededor

En el contexto actual en el que la publicidad personalizada parece ser el único (o el principal) modelo de negocio que sostiene los servicios de Internet, los datos de personalización que pueden extraerse de grafos sociales (es decir, las conexiones entre usuarios) y su información asociada se han convertido en un elemento con un valor económico considerable.

Los elementos de alto valor atraen la atención inmediata de negocios, tanto legales como ilegales. Por eso hemos visto ya la aparición de empresas dedicadas al negocio de vender (legalmente) datos recolectados de fuentes públicas. Internamente, las organizaciones con la suerte de tener acceso a interacciones sociales ricas han empezado ya también a hacer uso de ellas, dentro de los límites impuestos por el marco legal correspondiente

Es por tanto una cuestión de tiempo que el cosechado de datos sociales pase a ser también un asunto de los "malos" de Internet (por ejemplo, sería información valiosísima para los generadores de correo basura). Software maligno especialmente dedicado a esa tarea podría estar ya propagándose subrepticiamente [1]. Más aún, se ha argumentado que este tipo de datos no sólo tiene gran valor económico ahora, sino también larga duración, ya que al modelar patrones de interacción entre personas en la vida real está poco sujeto a cambios (es rápido cambiar de nombre de usuario, o incluso de tarjeta de crédito, pero los amigos cambian más despacio). La gran sensibilidad de estos datos debería por tanto llevar a mayor preocupación (su comercio ilegal ha sido denominado como "robo de realidad" [2]).

¿Privacidad? ¿Qué privacidad?

Durante un tiempo esto ha parecido no ser un problema: la opinión general era que a los usuarios de las redes sociales (especialmente a las generaciones de “nativos digitales”) no les preocupaba la privacidad. Pero la realidad empieza a mostrar lo contrario. Espoleada en parte por casos publicados de mala gestión de datos, la preocupación en la opinión pública ha crecido y (probablemente como consecuencia) también en las autoridades [3, 4]. Y las compañías han empezado a tomar nota. Facebook, previamente conocida por ignorar cualquier preocupación con respecto a la privacidad e insistir en que todos los datos deben ser públicos, ha experimentado un cambio recientemente. Ha reconocido públicamente no haber prestado suficiente atención a este aspecto, y durante el último año desplegó nuevas opciones de seguridad, que aunque todavía son complicadas de entender y gestionar, permiten un control mucho mayor de la información publicada [5]. Foursquare también ha sido muy firme en su política sobre control de la privacidad y las medidas que están tomando al respecto [6]. Y Google accedió (en Alemania) a borrar bajo demanda las casas capturadas por su sistema Street View [7] (y prometió destruir todos los datos WiFi recogidos de forma “involuntaria” en el proceso de captura).

Puede que por esta razón, o puede que como un medio para abordar la excesiva oferta de información, parece existir una (todavía naciente) tendencia hacia una mayor fragmentación del grafo social. Podemos observar un incremento de los grupos privados (también Facebook los ha activado hace no demasiado tiempo [8]), al igual que en la vida real la gente tiene distintos círculos de relaciones y no los mezcla necesariamente.

En resumen, habrá siempre gente a la que no le preocupe en absoluto la privacidad. Pero el hecho de que la mayoría de los usuarios actualmente no la considere podría deberse más bien a que no se han parado a pensar sobre el tema [9]. Si algunos empiezan a alarmarse, y se crea una masa crítica que comience a propagar esa inquietud, entonces la situación podría darse la vuelta.

La búsqueda del anonimato

Existe una buena tradición de investigación en el área de seguridad y privacidad sobre procedimientos para controlar los efectos de la publicación de bases de datos de gran tamaño. Es una tarea difícil, como han demostrado acontecimientos como la ruptura del anonimato del conjunto de datos del Netflix prize [10]: como parte de una competición abierta para mejorar su motor de recomendación de películas, Netflix publicó una tabla con datos de alquileres de películas y puntuaciones de un conjunto de sus usuarios. Era completamente anónimo, pero investigadores la cruzaron con otras tablas de datos públicas para demostrar la capacidad de revelar identidades de los usuarios.

Principios tales como k-anonymity [11] buscan asegurar que la identificación permanece imposible mientras al mismo tiempo se permiten servicios que dependen de la disponibilidad de datos personales. El k-anonimato estudia garantizar que en cualquier base de datos pública de múltiples registros, cualquier combinación de información podrá acotar la identidad de los usuarios a no menos de k individuos. Las mismas ideas subyacentes han producido un número de términos y técnicas relacionadas: l-diversity, t-closeness. Tratan de trabajar a través de procedimientos tales como limitaciones estrictas de qué puede hacerse público y perturbaciones de las tablas (añadiendo ruido) previamente a su publicación. En la misma línea, la privacidad diferencial [12] es un concepto que trata de definir las reglas formales a través de las cuales es posible asegurar la preservación de la privacidad.

Pero los datos contenidos en grafos sociales hacen este objetivo especialmente difícil, porque anonimizar grafos de verdad sin destruirlos es un desafío. Además, la minería de grafos y el aprovechamiento de mecanismos conocidos de cohesión social hacen posible descubrir información sobre nodos privados simplemente inspeccionando nodos conectados a ellos que no son tan privados. No es suficiente mantener tus datos personales privados, debes convencer a todos tus amigos que lo hagan también: se pueden inferir hechos sobre personas (algunos de ellos realmente sensibles [13]) simplemente mirando a sus amigos.

Algunos resultados publicados a nivel de investigación muestran la dificultad de lograr anonimato en redes sociales de gran dimensión [14]. Ataques pasivos permiten, simplemente por inspección, usar las conexiones entre unos pocos nodos conocidos de antemano para identificarlos dentro en un grafo con un millón de nodos teóricamente anónimos, y desde ahí descubrir conexiones de nodos adicionales. Con sólo 5 nodos que colaboren puede valer para empezar a comprometer la privacidad del grafo social. Los ataques activos, en los cuales se permite al adversario crear nuevos nodos y conexiones en la red (algo fácil en la mayoría de redes sociales) son incluso más poderosos, ya que pueden dirigirse directamente a voluntad contra los objetivos deseados. Esto hace realmente complicado llegar a un buen compromiso entre privacidad y rendimiento para los algoritmos que explotan información social.

Recompensas potenciales

El beneficio de conseguir este anonimato, sin embargo, puede ser formidable. No solamente para mitigar la preocupación sobre el mal uso de los datos sociales, sino también para permitir nuevos servicios. La recomendación social está creciendo como la siguiente gran alternativa a las recomendaciones basadas en uso de algoritmos masivos, y para que pueda funcionar se necesita que los datos sociales estén disponibles. Métodos para compartir grafos sociales de forma anónima podrían tener enorme valor, y podrían permitir la clase de acuerdos entre propietarios de los datos sociales y proveedores de servicios de terceros que ahora no son posibles debido a restricciones legales.

La teoría de utilidad esperada afirma que la gente usará un servicio (como los que posibilitan los datos de redes sociales), si la utilidad total que obtienen es superior cuando se usa que cuando se descarta. Esta utilidad global debe considerar la pérdida de utilidad generada por los inconvenientes del servicio, modulada por la probabilidad de que ocurran estos inconvenientes. Dado que las personas, en general, tenemos aversión al riesgo, el peso de esa pérdida de utilidad en la decisión final es grande.

Podemos mencionar aquí dos inconvenientes principales:

  • La sobrecarga de información ofrecida por aplicaciones sociales (hay tantos ítems pidiendo nuestra atención que nos desbordan), y
  • las consecuencias percibidas de la amenaza a la privacidad.

La sobrecarga de información podría ser aliviada mediante cierta disminución de la exposición social (como se ha comentado arriba); la pérdida de utilidad debida a amenazas de privacidad ha sido descartada tradicionalmente, en parte porque las probabilidades estimadas de que ocurra son bajas. Pero esto podría cambiar si los fallos de seguridad empiezan a ser explotados (y la teoría económica básica nos dice que si es posible y rentable hacerlo, se hará). Lo que significa que deberíamos estar preparados y tener soluciones listas.

¿Qué hacer?

Cualquier empresa que posea información de grafos sociales y desee explotarla debería empezar a buscar cuanto antes maneras de permitir una explotación apropiada sin impacto en la privacidad. Así, cuando se materialicen las oportunidades de explotación (como se menciona arriba, directamente o mediante acuerdos con terceros), estas no serán bloqueadas por organismos regulatorios o protestas de opinión pública. Durante todo este proceso, es esencial respetar la premisa fundamental de que las personas deberían ser informadas de lo que se está haciendo con sus datos, y mantener la capacidad de rechazar ese tratamiento (tanto mediante consentimiento activo como pasivo, dependiendo del entorno).

En términos prácticos, esto podría resolverse buscando soluciones, tecnologías y algoritmos que puedan al mismo tiempo explotar el grafo para extraer información útil y preservar la privacidad al nivel requerido. Haciendo esto en secuencia (las técnicas de minería de datos son implementadas primero, y sólo entonces buscamos maneras de usarlas sin comprometer la privacidad) puede permitir inicialmente tiempos de desarrollo, pruebas y despliegue más cortos, pero a largo plazo no será óptimo. Ya que el proceso posterior de anonimizar empeorará el rendimiento de la minería de datos más que si estuviera integrado en la solución (y podría incluso hacer el cumplimiento de la privacidad más difícil).

La conclusión es que las restricciones esperadas de privacidad deberían integrase en el diseño tan pronto como sea posible

Un experimento conceptual con pistachos

Supongamos que, tras un gran esfuerzo de investigación, hemos desarrollado un algoritmo capaz de identificar con gran precisión a cualquier persona adicta a los pistachos simplemente por el grado de preferencia por los pistachos de un número de sus contactos (es bien conocido en círculos de investigación que la adicción a los pistachos crea fuertes lazos). Esto son buenas noticias para las heladerías, ya que podrán hacer ahora ofertas especiales a los clientes potenciales basados en sus gustos auténticos (y los pistacho-adictos constituyen una base de clientes especialmente leales). Son también buenas noticias para los adictos a los pistachos, ya que ahora conseguirán ofertas especiales que les ayuden a paliar su adicción a precios ventajosos.

Pero cuando tratamos de desplegar nuestro servicio en Sylvania (como todo el mundo sabe, uno de los mercados de pistachos más grandes del mundo), nos encontramos con un problema: las estrictas políticas sobre la preservación de la privacidad en Sylvania prohíben la identificación de preferencias al nivel de frutos secos específicos. Así que no seremos capaces de distinguir entre las preferencias por pistachos, almendras o avellanas. Lo que echa por tierra la precisión de nuestro gran algoritmo.

Si lo hubiéramos tenido en cuenta desde el principio, podríamos haber desarrollado una técnica alternativa que, trabajando solamente al nivel agregado de frutos secos, pudiera ofrecer un comportamiento mucho mejor que nuestro algoritmo, muy específico pero altamente sensible a la precisión de los datos.

Todo este razonamiento no implica olvidarse acerca de las técnicas actuales de minería de grafos (las cuales funcionan bien, y se pueden mantener cuando la privacidad no es un problema), pero deben seguir buscándose también procedimientos que funcionen mejor cuando existan directivas de cumplimiento de la privacidad más estrictas. Y existirán.

Nota: mi agradecimiento a José Enrique López por sus comentarios al borrador inicial de este texto.

Referencias

  1. Darlene Storm, Malware Aimed at Social Networks May Steal Your Reality, Computerworld, Oct 13, 2010
  2. Y. Altshuler, N. Aharony, Y. Elovici, A. Pentland, and M. Cebrian, Stealing Reality, arXiv:1010.1028v1, Oct 2010
  3. Justyna Pawlak, Google and Facebook to face tougher EU privacy rules, Reuters, Nov 4, 2010
  4. Wyatt Buchanan, Social-networking sites face new privacy battle, San Francisco Chronicle, May 15th, 2011
  5. Derek Thomson, Facebook’s New Privacy Rules Are Simple and Smart, The Atlantic, May 26 2010
  6. Foursquare blog, On foursquare, location & privacy…, Feb 19th, 2010
  7. BBC News, German Street View goes live with enhanced privacy, Nov 2nd, 2010
  8. Mark Zuckerberg, Giving You More Control, Facebook blog, October 6th, 2010
  9. Robert W. Lucky, Zero Privacy, IEEE Spectrum, July 2008
  10. Arvind Narayanan and Vitaly Shmatikov, "Robust De-anonymization of Large Datasets" (How to Break Anonymity of the Netflix Prize Dataset), Feb 5th, arXiv:cs/0610105v2
  11. L. Sweeney, "k-anonymity: a model for protecting privacy," Int. J. Uncertain. Fuzziness Knowl.-Based Syst., vol. 10, no. 5, pp. 557-570, October 2002.
  12. Cynthia Dwork, A Firm Foundation for Private Data Analysis, Communications of the ACM, January 2011
  13. Carter Jernigan, Behram F.T. Mistree, “Gaydar: Facebook friendships expose sexual orientation”, First Monday, Volume 14, Number 10, 5 October 2009
  14. L. Backstrom, C. Dwork, and J. Kleinberg, "Wherefore art thou r3579x?: anonymized social networks, hidden patterns, and structural steganography&quot, in WWW ’07: Proceedings of the 16th international conference on World Wide Web. New York, NY, USA: ACM, 2007, pp. 181-190.

Walqa se convierte en el primer centro de trabajo de Telefónica, con pleno acceso a la Internet IPV6

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Autor: Carlos Ralli

 

La reserva mundial de direcciones de Internet del protocolo IP versión 4 (IPv4) se ha agotado durante el último mes de abril, tras la asignación por parte del ICANN (Internet Corporation for Assigned Names and Numbers) de los últimos 5 bloques de direcciones de la Internet actual.

Aunque algunas compañías, como Microsoft, están intentando recurrir transitoriamente a la compra de bloques de direcciones IPv4 a otras empresas, esto no es una solución efectiva; a partir de este momento, se deberá migrar progresivamente al Protocolo de Internet versión 6 (IPv6). La nueva Internet IPv6 permitirá acceder a 340 sixtillones de direcciones públicas, frente a los 4.200 millones de direcciones que permite la IPv4.

Para llevar a cabo esta migración, se están desarrollando diferentes iniciativas en todo el mundo, entre las que destaca el World IPv6 Day, organizado por la ISOC (Internet SOCiety), que se celebrará el próximo 8 de junio

En esta iniciativa participarán los principales protagonistas de internet (Google, Facebook, Yahoo, Akamai, Limelight Networks,  operadoras de red… como Telefónica, entre otras), que proporcionarán contenidos IPv6 durante 24 horas, en sus dominios web genéricos.

Telefónica I+D se suma a esta iniciativa mundial. Para ello, aportará su experiencia derivada de implantar IPv6 para sus servicios y empleados. Este conocimiento deberá servir de modelo para otras corporaciones y clientes, en cuanto a fiabilidad, escalabilidad y seguridad.

Como primera acción, se ha completado una experiencia piloto en el centro de Telefonica I+D del Parque Tecnológico de Walqa. Su objetivo es valorar el impacto en la migración a IPv6.

Para llevar a cabo el piloto en Walqa, a partir del día 1 de abril se habilitaron en el centro los elementos de red, para poder ofrecer IPv6 a los puestos de red y servidores del centro. Desde entonces se monitoriza el tráfico de datos, para anticiparse a posibles problemas y para recoger estadísticas, que posibiliten evaluar el impacto que podrá tener el World IPv6 Day del próximo 8 de junio.

Todo esto se hizo de manera transparente a los usuarios, que no percibieron el cambio. Se observó que el 75% de los puestos de trabajo pasaron automáticamente a trabajar en IPv6 (fundamentalmente los puestos con sistemas operativos de última generación, como Windows 7, MACOS, Linux…). El 25% restante de los puestos de trabajo siguieron trabajando únicamente con IPv4. La experiencia está siendo muy satisfactoria, sin ningún problema reseñable hasta el momento.

El desarrollo del piloto realizado en el centro de Walqa servirá como punto de partida para realizar la migración a IPv6 en el resto de sedes de TI+D y, por extensión, de todo el grupo Telefónica.

 

Reflections: Llévate el estado de tus aplicaciones contigo

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 5. Media: 5,00/5)
Loading ... Loading ...

Autor: Javier García Puga

Una de las iniciativas en la que estamos trabajando en Telefónica I+D es Reflections. Esta herramienta nos permite capturar el estado concreto de las aplicaciones que estamos utilizando en nuestro equipo (p.ej. PC – en trabajo) y reflejarlo  en cualquier otro (ej. portátil, tablet, móvil, PC de casa, etc.) de una manera muy sencilla y casi inmediata. Todo ello con un simple click, sin necesidad de guardar archivos o  enviarlos; y manteniendo la posición de cada documento, el histórico de cambios, etc.

Por ejemplo, si estoy  en el trabajo haciendo una presentación PPT, copiando gráficas de un Excel y buscando imágenes con 3 pestañas del navegador abiertas y me tengo que ir a casa, Reflections me permitiría “reflejar”  este estado concreto para poder acceder desde el ordenador de mi casa.  De esta forma podría recuperar el mismo estado de las aplicaciones y seguir trabajando a partir de él.  Es decir, los documentos se abrirían en la misma página que los dejé, las páginas web mantendrían la posición del scroll, etc.

Reflections también podría funcionar entre equipos diferentes (PC- móvil), o incluso enviar el estado de mis aplicaciones a otro usuario.

Hace unas semanas hemos publicado en los TID Labs una versión preliminar de Reflections, con el fin de que gente externa a TID pueda descargarse la aplicación y probarla. Podéis  hacerlo desde aquí.

Nos gustaría conocer vuestro feedback sobre el producto, cómo por ejemplo qué tipo de aplicaciones os gustaría que estuvieran disponibles para reflejar, qué funcionalidades veis más útiles, etc.

¿Quién necesita una cartera móvil?

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 4,33/5)
Loading ... Loading ...

Antes de responder a esta pregunta es importante saber a qué nos referimos cuando hablamos de “cartera móvil”, traducción del término inglés “mobile wallet” (mWallet). Para ello, basta con imaginar la fusión de nuestra cartera con nuestro teléfono móvil, de forma que éste contendría – virtualmente – dinero electrónico (eMoney), tarjetas de crédito, tarjetas de puntos, bonos de transportes, cupones de descuento, etc.

Si analizamos las características de los servicios y pilotos que han surgido en los diferentes lugares del planeta a lo largo de los últimos años se puede distinguir claramente dos tipos de cartera móvil: monedero y tarjetero.

El monedero electrónico permite tener un medio de pago y cobro asociado al número de teléfono móvil. Este tipo de servicios se han expandido con éxito en determinados países con economías emergentes como Filipinas – son los casos de G-Cash y SmartMoney –, Sudáfrica – MTN Mobile Money y Wizzit –, Kenia –con el exitoso M-PESA –, o Paraguay – Tigo Cash, que ya se ha extendido a otros países latinoamericanos.

Los anteriores ejemplos comparten varias características en común, la más importante, que cubren el mismo conjunto de necesidades para un gran segmento de la población que no tiene la posibilidad de acceder a los productos bancarios tradicionales. Entre estas necesidades cabría destacar el envío de dinero, tanto a nivel nacional – por ejemplo, enviando dinero a un hijo que se ha desplazado para estudiar – como internacional – envíos que realizan los emigrantes a sus hogares –, el pago de facturas de electricidad o agua, el cobro de salarios, e incluso la percepción de fondos sociales enviados por el Gobierno. Y es que en regiones en las que existe una baja penetración de oficinas bancarias, cada una de las anteriores operaciones exigía largos desplazamientos – incluso de días de duración – y costes que muchas personas no se pueden permitir. Gracias a los servicios de monedero electrónico estas transferencias de dinero se pueden realizar de forma rápida, sencilla y económica, sin desplazamientos más allá de a la tienda de la esquina y con unos precios por operación suficientemente bajos.

Sin embargo en regiones “bancarizadas”, en las que la gran mayoría de los habitantes está acostumbrado a tener cuentas bancarias y/o tarjetas de crédito, se tiene otro tipo de necesidades, como tener un medio de pago adecuado para pequeñas compras – por ejemplo, para pagar el parquímetro o un refresco en una máquina expendedora –, realizar pagos en comercios de una forma más segura y flexible – por ejemplo, contra una de nuestras tarjetas de crédito, nuestra cuenta bancaria o incluso nuestra factura telefónica –, o utilizar automáticamente nuestras tarjetas de puntos y bonos de descuento – acumulando puntos y aplicando los descuentos.

En estos casos se busca que el teléfono móvil funcione más bien como un tarjetero electrónico que sea fácil de utilizar, e igual o más seguro que los actuales medios de pago. En esta línea, la SIM del móvil – entorno seguro en el que se pueden almacenar datos sensibles como los de una tarjeta de crédito – y la tecnología de comunicación inalámbrica NFC están siendo los máximos protagonistas en gran parte de los pilotos que se están desplegando en Europa. En concreto Telefónica, junto con La Caixa y VISA, desarrolló un piloto de pagos NFC en Sitges durante 6 meses, en el que participaron más de 1500 clientes de Movistar que realizaban pagos con móviles Samsung S5230 en más de 500 comercios.

Una misma solución, el uso del móvil como cartera electrónica, para cubrir necesidades que son bien diferentes. A la vista del gran número de servicios y pilotos que están desplegándose con mayor o menor éxito la respuesta a nuestra pregunta inicial parece clara: la “cartera móvil” es necesaria tanto en economías emergentes, con el objetivo de “bancarizar a las personas que no lo están”, como en economías más desarrolladas, utilizando las nuevas tecnologías de comunicaciones inalámbricas para crea una nueva experiencia de pago a través del móvil.

Do Not Track Me

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 4,25/5)
Loading ... Loading ...

Autor: Carlos Plaza

Existe una creciente debate sobre las prácticas poco transparentes de seguimiento que se hace de los usuarios en Internet para conocer sus gustos y perfil demográfico, y así poder mostrar en las páginas web unos anuncios basados en el comportamiento de los usuarios. Para ello, se emplean cookies, web bugs (imágenes invisibles que envían diversos parámetros sobre el equipo del usuario en la petición), perfilado de equipos de usuario…

Por ejemplo, la siguiente imagen muestra cómo en el popular sitio de noticias tecnológicas TechCrunch aparecen 19 rastreadores o “trackers” de terceras empresas (redes de anuncios, herramientas analíticas, redes sociales…).

Esta situación ha llevado a que:

* Se estén desarrollando modificaciones legislativas -nueva propuesta de ley de privacidad en EE.UU presentada en abril de 2011, trasposición de la directiva de privacidad del 2009 en la UE y próxima modificación de la directiva de Protección de Datos- para que los usuarios dispongan de información más clara y puedan ejercer el derecho a no ser monitorizados por las empresas de marketing y publicidad online.

* Estas empresas hayan presentado prácticas y mecanismos de autorregulación para convencer a los legisladores de que no hacen falta imponer métodos que llevarían probablemente a que más usuarios optasen por no ser rastreados.

* Los navegadores estén introduciendo mecanismos para que los usuarios puedan gestionar su privacidad para adaptarse a la legislación que viene.

Dado que los usuarios no tienen asignada permanentemente una dirección IP, a diferencia del número de teléfono, no puede usarse un mecanismo de listas de exclusión como en el caso del telemárketing.

Así, se han propuesto diversas soluciones; a continuación se repasan las iniciativas más importantes.

Los mecanismos propuestos se pueden agrupar en:

* Unos, en la línea de la propuesta DoNotTrack de la Comisión Federal de Comercio de EE.UU (FTC – Federal Trade Commission encargada de velar por los derechos de los consumidores y la competencia): el usuario elige en su navegador si quiere o no ser rastreado, y esta decisión se comunica a los sitios web que visita.

* Otros, se basan en listas de empresas en las que el usuario puede elegir a qué sitios permite el seguimiento.

Navegadores

Internet Explorer (Microsoft)

En la versión IE9, Microsoft introduce un mecanismo basado en listas: Tracking Protection List (TPL). Una lista contiene direcciones web “do not call” y “OK to call”; a las primeras, el navegador solo accederá si el usuario pincha explícitamente en un enlace a dicha dirección o la teclea (por tanto, si vienen como un “rastreador” insertado en la página visitada, se bloquean). A las segundas, se podrá acceder en cualquier caso –esto es, tanto si lo pide el usuario explícitamente como si se invocan desde otro dominio-.

El usuario debe activar el mecanismo, y puede habilitar varias listas simultáneamente; en caso de conflicto, la regla “OK” predomina. Las TPL pueden ser creadas por cualquiera, y Microsoft no asume ninguna responsabilidad sobre su uso, aunque ofrece información sobre listas recomendadas.

Y aquí comienza la polémica: entre las primeras listas publicadas, se observa una enorme disparidad entre los sitios que bloquean y los que permiten, según la lista haya sido elaborada por grupos activistas de la privacidad o empresas comerciales.

Firefox (Mozilla)

Como organización sin ánimo de lucro que desarrolla el navegador Firefox con voluntarios, Mozilla sí ha incorporado en Firefox 4 el mecanismo DoNotTrack; cuando el usuario habilita la opción, se incluye una cabecera HTTP (DNT=1 ) indicando al sitio web visitado que el usuario no desea recibir publicidad basada en su comportamiento.

No existe obligación legal actualmente de implementar este mecanismo por parte de los sitios web.

Adicionalmente, existen numerosos complementos para Firefox que permiten conocer qué rastreadores actúan en un sitio web y bloquearlos, bloquear anuncios, cookies, scripts..

Chrome (Google)

Google facilita una extensión para su navegador Chrome “Keep my opt-outs” que permite escoger al usuario la opción de no recibir publicidad basada en su comportamiento. Esta opción se guarda permanentemente –no le afecta el borrado de cookies- y funciona con las empresas que adoptan las prácticas del programa de autorregulación de la publicidad online basada en el comportamiento, que se describe seguidamente.

Hay que destacar que Google, cuyos ingresos provienen casi exclusivamente de la publicidad, se opone fuertemente al mecanismo Do Not Track. Así, si bien la propuesta de  la nueva ley de privacidad que acaba de ser presentado en abril de 2011 en el Senado de EE.UU para su tramitación (“Commercial Privacy Bill of Rights Act”) no recoge explícitamente este mecanismo  ( sí nombra la obligación de proporcionar a los consumidores una forma “clara y visible” para elegir no ser monitorizados por terceros con propósitos de marketing), el Estado de California sí está considerando su introducción, y Google apoya al lobby contrario a esta medida.

Anunciantes y empresas de marketing

Self-Regulatory Program for Online Behavioral Advertising

Es un programa de autorregulación en el que participan varias asociaciones estadounidenses de publicidad online y marketing directo.

Ofrece una web (actualmente en fase beta) por el que un usuario pueda elegir a qué compañías permite trazar su comportamiento para mostrarle publicidad personalizada.

Se requiere que el usuario permita las cookies de terceros en su navegador, ya que consiste en borrar las cookies que las empresas del programa hubiesen guardado en el ordenador del usuario y fijar una única cookie indicando el deseo del usuario, que será consultada en el futuro por esas empresas.

Evidentemente, si se borran posteriormente las cookies, el opt-out desaparece (salvo que se use Chrome con el complemento descrito anteriormente).

Actualmente, son 70 las compañías acogidas a este programa.

NAI –Network Advertisement Initiative

Es una iniciativa de redes de anunciantes que emplea los mismos principios y mecanismos que el programa descrito anteriormente –de hecho, se ha unido a él-.

European IAB

La European Interactive Advertising Bureau es la asociación que engloba a las asociaciones nacionales de publicidad y marketing interactivo de distintos países europeos.

En abril de 2011 ha presentado una propuesta similar a la de sus equivalentes de EE.UU para que los usuarios puedan elegir sus preferencias sobre publicidad personalizada.

Conclusiones

Por un lado, resulta positivo que tanto los legisladores como la industria estén moviéndose para ofrecer a los usuarios mecanismos de información y control de la privacidad .

Pero el hecho de que el método para el usuario de manifestar su elección sea diferente según el navegador o compañía de marketing y publicidad, o de que no existan métodos claros para aplicaciones de smartphones o televisión – que son un mercado creciente-, hacen pensar que aún queda un largo camino que recorrer para resolver el dilema de un equilibrio justo entre privacidad-negocio online.

Algunas lecciones de seguridad a propósito del caso Sony

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Antonio Manuel Amaya

Este está siendo un año particularmente… interesante para Sony. Interesante en el sentido de la maldición china. Primero se hizo público que quien quiera que implementase la función de firma electrónica de los archivos que la PS3 podía ejecutar, evidentemente no se había molestado en leerse las molestas notas al pie del algoritmo que usaron, con el resultado de que la clave de firma se hizo pública. Después, decidieron solucionar el problema técnico denunciando al hacker que había publicado la susodicha clave.

Pero la denuncia tal vez sirva para que el próximo hacker no haga público escarnio de la compañía y en su lugar distribuya la clave de forma más discreta, pero no sirve para evitar que se use. Es difícil hacer desaparecer la información de la red una vez se ha publicado, particularmente si los propios directivos ficticios de la compañía se dedican a re-twittearla:

Así, de forma independiente al trasiego judicial empezaron a aparecer firmwares cocinados para la PS3. ¿Qué es un firmware cocinado, además de uno que se graba en un DVD y se mete en el microondas, con efectos perjudiciales para el DVD, el microondas y el mobiliario cercano? Pues es una versión del firmware de un aparato, en este caso la PS3, que ha sido retocado por alguien distinto del fabricante del aparato para alterar alguna función del mismo. Por ejemplo, para que el firmware ejecute alegremente cualquier cosa que el usuario le pida, sin verificar que el ejecutable está aprobado por el fabricante del aparato.

Evidentemente, un firmware que permite la ejecución de cualquier aplicación, además de permitir la ejecución de código homebrew (aplicaciones desarrolladas por aficionados, no aprobadas por el fabricante de la consola) permite la ejecución de copias de respaldo de juegos legítimos. O copias piratas, para entendernos. Lo cual no es bueno para los desarrolladores de juegos, y no es bueno para Sony. Y ese es el principal motivo por el que a Sony no le gusta que su consola ejecute cualquier aplicación, de forma lógica por otra parte.

El modelo de negocio de Sony con la PS3 (en versión Supercoco, y sin entrar en el papel de la PS3 en la guerra Blueray-HDDVD) podemos decir que tiene tres patas:

  • Por una parte está la venta de la consola en si… si es que ya han conseguido fabricarla con un coste por debajo del precio de venta.
  • Por otra parte está la venta de juegos de terceros. Para ejecutar los juegos en la consola, Sony tiene que firmar el ejecutable, y de esta forma Sony se asegura cobrar una parte de cada copia de cada juego que se vende para la PS3.
  • Y la tercera pata es la red: PSN (Playstation Network). PSN es por una parte una tienda online donde los propietarios de PS3 pueden comprar juegos y servicios (juegos para descargar directamente a la consola, y servicios digitales), y por otra parte es un servicio que se ofrece a desarrolladores y usuarios de juegos multijugador. Digamos que ofrece un punto de registro y punto de encuentro para los jugadores, de forma que, para un juego concreto, puedan encontrar de forma sencilla a otros jugadores del mismo juego e iniciar partidas en red.

La primera pata del modelo de negocio es, o directamenente ruinosa, o en el mejor de los casos no muy rentable. Con el hardware o pierden dinero o ganan muy poco, y además se cobra solo una vez. La segunda pata está tocada por la publicación de la clave de firma, como comentaba antes.

¿Y la tercera pata? Pues para acabar un año redondo (y solo estamos en abril), hace una semana PSN (Playstation Network) sufrió un ataque y, de forma preventiva, Sony decidió cortar el ataque por lo sano, cortando el servicio mientras evaluaban el alcance del ataque y le ponían un tapón al agujero usado por los hackers. Para entender la importancia de cerrar el servicio, recordemos que cerrar PSN es igual a no poder comprar juegos online (y posiblemente no poder acceder a aquellos que ya hubieses comprado) y es igual a no poder jugar en red.

Y eso no tiene muy contentos a los usuarios, claro:

The store, your friends list, these aren’t perks. By 2011, they’re bedrock assertions of the medium. The deal they made with users – one which, for years, was the justification for a gruesome price disparity – was “free Xbox Live,” not “shit happens.”

Ahora, una semana después de cortar el servicio, Sony ha ‘descubierto’ que durante el ataque se ha producido una fuga de datos de sus usuarios. De todos los datos, de todos sus usuarios. Datos que, puesto que PSN además de un punto de contacto es también una tienda, incluyen números de tarjetas de crédito.

Ni Sony ni los atacantes han dado detalles de cómo se ha producido el ataque, pero los rumores apuntan a que en la base del ataque hay un fallo en la cadena de confianza en la arquitectura de seguridad de Sony. ¿Que es la cadena de confianza de la arquitectura de seguridad? Pues es un término que, hasta donde sé, me acabo de inventar, y cuya explicación da para otro artículo.

En este, más que el medio, me parece más interesante destacar que lecciones se puede aprender de esta fuga de datos masiva, porque creo que ninguno queremos el papel de Sony en esta historia. Lecciones que, para cualquier servicio que trate con datos personales, o económicos, podríamos resumir en algunas nociones que no por obvias dejan de ser válidas:

  1. El modelo de uso de datos no es opcional. Es imprescindible definir, al mismo tiempo que definimos el servicio, un modelo de uso de datos. Es decir, al mismo tiempo que definimos la función que un componente va a realizar definimos que datos necesita ese componente. Los datos imprescindibles que necesita.
  2. Los datos que se usan en sitios distintos, se almacenan en sitios distintos. El modelo de uso de datos nos debe servir para particionar los datos. Si por motivos de arquitectura, o porque en realidad es más práctico queremos tener todos los datos juntos en una tabla, para que no se nos constipen, entonces es necesario que el acceso a la tabla esté particionado. De forma que, por ejemplo, si para una parte del servicio sólo nos hace falta el nombre del usuario, entonces desde esa parte sólo se pueda extraer el nombre del usuario.
  3. El que almacena los datos impone las normas. Es decir, no vale con que sepamos que el módulo A, que por diseño solo necesita el nombre, por implementación solo va a pedir el nombre y ya hemos cumplido. Debemos dar por hecho que todos los componentes del servicio (y particularmente los expuestos hacia el exterior) pueden y van a ser comprometidos. Y que nuestro módulo A, totalmente confiable y al que tenemos un gran cariño va a ser suplantado por un módulo A’ al que no conocen ni en su casa a la hora de comer.
  4. El sentido importa. No todos los módulos que pueden escribir un dato tienen derecho a leerlo. Y hay datos que pueden (y deben) ser de ’solo escritura’ por lo que respecta a los componentes del servicio. Un ejemplo fácil de este tipo de datos son los datos bancarios. Los clientes del servicio introducirán sus datos bancarios a través de un componente que tendrá permiso de escritura de ese dato. Pero ese componente no tiene que tener permiso de lectura de los datos bancarios. Los clientes ya saben su número de tarjeta o de cuenta corriente, no tenemos que recordárselo.
  5. La contraseña no se le dice a nadie. Ningún módulo con el que los clientes interactúen necesita acceso de lectura a la contraseña. ¿Cómo hacemos entonces la validación de contraseñas? Implementando un módulo interno de autenticación que recibe una contraseña en claro, o un hash, y devuelve sí (es válida) o no (es válida).
  6. Usa la criptografía con juicio. Hay algoritmos bastante eficientes y seguros de cifrado de datos. Aquellos datos que son particularmente sensibles y que, además, no van a ser objeto de búsquedas (ejemplo sencillo, de nuevo los datos bancarios) pueden ser almacenados cifrados, de forma que aunque alguien se lleve un volcado en bruto de la base de datos no le valgan de nada.

Con estos puntos sigue siendo probable que alguien pueda robar algunos datos de algunos usuarios. O incluso algunos datos de todos los usuarios. ¿Pero robar todos los datos de todos los usuarios, como ha pasado en el caso de Sony? Eso exigiría el compromiso del módulo de almacenamiento y el módulo de cifrado, y en nuestro diseño estos módulos no están accesibles desde el exterior… ¿verdad?

Redes de sensores y contaminación en las ciudades

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Autor: Marta Molina

La contaminación producida por los vehículos preocupa mucho, por su efecto sobre el cambio climático y su repercusión sobre la salud.

A nivel local es especialmente preocupante en las ciudades, donde vive actualmente más de la mitad de la población mundial. Conocer los niveles de contaminación de cada fuente emisora, para una actividad concreta (como puede ser el tráfico rodado) o la concentración total de contaminantes para una zona (inmisión), es importante en la toma de decisiones. La medición directa con sensores viene a cubrir parte de esta demanda de información.

La teledetección y el uso de sensores ambientales es ya un tema recurrente en el Congreso nacional de medio ambiente (CONAMA). De hecho es el tema principal de uno de sus grupos de trabajo.

Entre las múltiples aplicaciones analizadas en la última cita del Conama está una orientada a medir la contaminación de los vehículos en movimiento mediante tecnología RSD (Remote Sensing Device). Su uso permite caracterizar, a bajo coste, gran cantidad de vehículos e identificar los más contaminantes.

Este caso, junto con otros analizados, se describe en el documento final del grupo de trabajo. De acuerdo con este documento, los sistemas RSD permiten captar en menos de medio segundo y de manera no intrusiva, sin parar el vehículo, las emisiones de los contaminantes principales de cada vehículo en las condiciones reales de circulación. Lo que permite completar la información obtenida por otros sistemas de seguimiento de contaminantes. Esta tecnología se ha usado ya en España por parte de algunas administraciones, para caracterizar el parque automovilístico de algunas ciudades, y por parte de algunas empresas, para caracterizar sus flotas de vehículos.

Este sistema se basa en sensores que funcionan en continuo, proyectando una luz invisible (infrarroja y ultravioleta) sobre la carretera. El haz es detectado por un receptor colocado al otro lado de la vía, que en función del nivel de absorción de luz al paso del vehículo, da una medida de los gases emitidos.

Recientemente se ha comunicado la puesta en marcha de un sistema de este tipo en la ciudad de Sevilla, basado en una unidad móvil que puede medir las emisiones de miles de automóviles al día e identificarlos. Para ello, la unidad cuenta con un sistema RSD, que mide a su paso las emisiones de cada uno de los vehículos y una estación que ajusta las mediciones en función de las condiciones meteorológicas. La aplicación se completa con sensores que permiten detectar la velocidad y la aceleración del vehículo, y con una cámara que identifica el modelo y antigüedad del mismo.

Las caracterización de las emisiones del tráfico rodado es también el objetivo de otros sistemas, como el anunciado recientemente por la Universidad de Valladolid, que se basa en aprovechar los ordenadores para el control de flotas, ya instalados en algunos vehículos, para estimar sus emisiones instantáneas, en base al régimen de vueltas del motor y otros parámetros de conducción.

Si la información obtenida por estos sistemas es facilitada al conductor, puede ayudar a mejorar la eficiencia de su conducción. También puede ser usada por las administraciones para orientar el tráfico hacia zonas menos contaminadas (evitando puntos negros), para concienciar a los conductores o para actuar sobre los vehículos más contaminantes (por ejemplo con revisiones, tarificaciones diferenciadas, multas o limitaciones de circulación en algunas zonas).