Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Consecuencias del creciente valor económico del grafo social

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 5,00/5)
Loading ... Loading ...

Artículo escrito por Paulo Villegas

Conociendo el grafo a nuestro alrededor

En el contexto actual en el que la publicidad personalizada parece ser el único (o el principal) modelo de negocio que sostiene los servicios de Internet, los datos de personalización que pueden extraerse de grafos sociales (es decir, las conexiones entre usuarios) y su información asociada se han convertido en un elemento con un valor económico considerable.

Los elementos de alto valor atraen la atención inmediata de negocios, tanto legales como ilegales. Por eso hemos visto ya la aparición de empresas dedicadas al negocio de vender (legalmente) datos recolectados de fuentes públicas. Internamente, las organizaciones con la suerte de tener acceso a interacciones sociales ricas han empezado ya también a hacer uso de ellas, dentro de los límites impuestos por el marco legal correspondiente

Es por tanto una cuestión de tiempo que el cosechado de datos sociales pase a ser también un asunto de los "malos" de Internet (por ejemplo, sería información valiosísima para los generadores de correo basura). Software maligno especialmente dedicado a esa tarea podría estar ya propagándose subrepticiamente [1]. Más aún, se ha argumentado que este tipo de datos no sólo tiene gran valor económico ahora, sino también larga duración, ya que al modelar patrones de interacción entre personas en la vida real está poco sujeto a cambios (es rápido cambiar de nombre de usuario, o incluso de tarjeta de crédito, pero los amigos cambian más despacio). La gran sensibilidad de estos datos debería por tanto llevar a mayor preocupación (su comercio ilegal ha sido denominado como "robo de realidad" [2]).

¿Privacidad? ¿Qué privacidad?

Durante un tiempo esto ha parecido no ser un problema: la opinión general era que a los usuarios de las redes sociales (especialmente a las generaciones de “nativos digitales”) no les preocupaba la privacidad. Pero la realidad empieza a mostrar lo contrario. Espoleada en parte por casos publicados de mala gestión de datos, la preocupación en la opinión pública ha crecido y (probablemente como consecuencia) también en las autoridades [3, 4]. Y las compañías han empezado a tomar nota. Facebook, previamente conocida por ignorar cualquier preocupación con respecto a la privacidad e insistir en que todos los datos deben ser públicos, ha experimentado un cambio recientemente. Ha reconocido públicamente no haber prestado suficiente atención a este aspecto, y durante el último año desplegó nuevas opciones de seguridad, que aunque todavía son complicadas de entender y gestionar, permiten un control mucho mayor de la información publicada [5]. Foursquare también ha sido muy firme en su política sobre control de la privacidad y las medidas que están tomando al respecto [6]. Y Google accedió (en Alemania) a borrar bajo demanda las casas capturadas por su sistema Street View [7] (y prometió destruir todos los datos WiFi recogidos de forma “involuntaria” en el proceso de captura).

Puede que por esta razón, o puede que como un medio para abordar la excesiva oferta de información, parece existir una (todavía naciente) tendencia hacia una mayor fragmentación del grafo social. Podemos observar un incremento de los grupos privados (también Facebook los ha activado hace no demasiado tiempo [8]), al igual que en la vida real la gente tiene distintos círculos de relaciones y no los mezcla necesariamente.

En resumen, habrá siempre gente a la que no le preocupe en absoluto la privacidad. Pero el hecho de que la mayoría de los usuarios actualmente no la considere podría deberse más bien a que no se han parado a pensar sobre el tema [9]. Si algunos empiezan a alarmarse, y se crea una masa crítica que comience a propagar esa inquietud, entonces la situación podría darse la vuelta.

La búsqueda del anonimato

Existe una buena tradición de investigación en el área de seguridad y privacidad sobre procedimientos para controlar los efectos de la publicación de bases de datos de gran tamaño. Es una tarea difícil, como han demostrado acontecimientos como la ruptura del anonimato del conjunto de datos del Netflix prize [10]: como parte de una competición abierta para mejorar su motor de recomendación de películas, Netflix publicó una tabla con datos de alquileres de películas y puntuaciones de un conjunto de sus usuarios. Era completamente anónimo, pero investigadores la cruzaron con otras tablas de datos públicas para demostrar la capacidad de revelar identidades de los usuarios.

Principios tales como k-anonymity [11] buscan asegurar que la identificación permanece imposible mientras al mismo tiempo se permiten servicios que dependen de la disponibilidad de datos personales. El k-anonimato estudia garantizar que en cualquier base de datos pública de múltiples registros, cualquier combinación de información podrá acotar la identidad de los usuarios a no menos de k individuos. Las mismas ideas subyacentes han producido un número de términos y técnicas relacionadas: l-diversity, t-closeness. Tratan de trabajar a través de procedimientos tales como limitaciones estrictas de qué puede hacerse público y perturbaciones de las tablas (añadiendo ruido) previamente a su publicación. En la misma línea, la privacidad diferencial [12] es un concepto que trata de definir las reglas formales a través de las cuales es posible asegurar la preservación de la privacidad.

Pero los datos contenidos en grafos sociales hacen este objetivo especialmente difícil, porque anonimizar grafos de verdad sin destruirlos es un desafío. Además, la minería de grafos y el aprovechamiento de mecanismos conocidos de cohesión social hacen posible descubrir información sobre nodos privados simplemente inspeccionando nodos conectados a ellos que no son tan privados. No es suficiente mantener tus datos personales privados, debes convencer a todos tus amigos que lo hagan también: se pueden inferir hechos sobre personas (algunos de ellos realmente sensibles [13]) simplemente mirando a sus amigos.

Algunos resultados publicados a nivel de investigación muestran la dificultad de lograr anonimato en redes sociales de gran dimensión [14]. Ataques pasivos permiten, simplemente por inspección, usar las conexiones entre unos pocos nodos conocidos de antemano para identificarlos dentro en un grafo con un millón de nodos teóricamente anónimos, y desde ahí descubrir conexiones de nodos adicionales. Con sólo 5 nodos que colaboren puede valer para empezar a comprometer la privacidad del grafo social. Los ataques activos, en los cuales se permite al adversario crear nuevos nodos y conexiones en la red (algo fácil en la mayoría de redes sociales) son incluso más poderosos, ya que pueden dirigirse directamente a voluntad contra los objetivos deseados. Esto hace realmente complicado llegar a un buen compromiso entre privacidad y rendimiento para los algoritmos que explotan información social.

Recompensas potenciales

El beneficio de conseguir este anonimato, sin embargo, puede ser formidable. No solamente para mitigar la preocupación sobre el mal uso de los datos sociales, sino también para permitir nuevos servicios. La recomendación social está creciendo como la siguiente gran alternativa a las recomendaciones basadas en uso de algoritmos masivos, y para que pueda funcionar se necesita que los datos sociales estén disponibles. Métodos para compartir grafos sociales de forma anónima podrían tener enorme valor, y podrían permitir la clase de acuerdos entre propietarios de los datos sociales y proveedores de servicios de terceros que ahora no son posibles debido a restricciones legales.

La teoría de utilidad esperada afirma que la gente usará un servicio (como los que posibilitan los datos de redes sociales), si la utilidad total que obtienen es superior cuando se usa que cuando se descarta. Esta utilidad global debe considerar la pérdida de utilidad generada por los inconvenientes del servicio, modulada por la probabilidad de que ocurran estos inconvenientes. Dado que las personas, en general, tenemos aversión al riesgo, el peso de esa pérdida de utilidad en la decisión final es grande.

Podemos mencionar aquí dos inconvenientes principales:

  • La sobrecarga de información ofrecida por aplicaciones sociales (hay tantos ítems pidiendo nuestra atención que nos desbordan), y
  • las consecuencias percibidas de la amenaza a la privacidad.

La sobrecarga de información podría ser aliviada mediante cierta disminución de la exposición social (como se ha comentado arriba); la pérdida de utilidad debida a amenazas de privacidad ha sido descartada tradicionalmente, en parte porque las probabilidades estimadas de que ocurra son bajas. Pero esto podría cambiar si los fallos de seguridad empiezan a ser explotados (y la teoría económica básica nos dice que si es posible y rentable hacerlo, se hará). Lo que significa que deberíamos estar preparados y tener soluciones listas.

¿Qué hacer?

Cualquier empresa que posea información de grafos sociales y desee explotarla debería empezar a buscar cuanto antes maneras de permitir una explotación apropiada sin impacto en la privacidad. Así, cuando se materialicen las oportunidades de explotación (como se menciona arriba, directamente o mediante acuerdos con terceros), estas no serán bloqueadas por organismos regulatorios o protestas de opinión pública. Durante todo este proceso, es esencial respetar la premisa fundamental de que las personas deberían ser informadas de lo que se está haciendo con sus datos, y mantener la capacidad de rechazar ese tratamiento (tanto mediante consentimiento activo como pasivo, dependiendo del entorno).

En términos prácticos, esto podría resolverse buscando soluciones, tecnologías y algoritmos que puedan al mismo tiempo explotar el grafo para extraer información útil y preservar la privacidad al nivel requerido. Haciendo esto en secuencia (las técnicas de minería de datos son implementadas primero, y sólo entonces buscamos maneras de usarlas sin comprometer la privacidad) puede permitir inicialmente tiempos de desarrollo, pruebas y despliegue más cortos, pero a largo plazo no será óptimo. Ya que el proceso posterior de anonimizar empeorará el rendimiento de la minería de datos más que si estuviera integrado en la solución (y podría incluso hacer el cumplimiento de la privacidad más difícil).

La conclusión es que las restricciones esperadas de privacidad deberían integrase en el diseño tan pronto como sea posible

Un experimento conceptual con pistachos

Supongamos que, tras un gran esfuerzo de investigación, hemos desarrollado un algoritmo capaz de identificar con gran precisión a cualquier persona adicta a los pistachos simplemente por el grado de preferencia por los pistachos de un número de sus contactos (es bien conocido en círculos de investigación que la adicción a los pistachos crea fuertes lazos). Esto son buenas noticias para las heladerías, ya que podrán hacer ahora ofertas especiales a los clientes potenciales basados en sus gustos auténticos (y los pistacho-adictos constituyen una base de clientes especialmente leales). Son también buenas noticias para los adictos a los pistachos, ya que ahora conseguirán ofertas especiales que les ayuden a paliar su adicción a precios ventajosos.

Pero cuando tratamos de desplegar nuestro servicio en Sylvania (como todo el mundo sabe, uno de los mercados de pistachos más grandes del mundo), nos encontramos con un problema: las estrictas políticas sobre la preservación de la privacidad en Sylvania prohíben la identificación de preferencias al nivel de frutos secos específicos. Así que no seremos capaces de distinguir entre las preferencias por pistachos, almendras o avellanas. Lo que echa por tierra la precisión de nuestro gran algoritmo.

Si lo hubiéramos tenido en cuenta desde el principio, podríamos haber desarrollado una técnica alternativa que, trabajando solamente al nivel agregado de frutos secos, pudiera ofrecer un comportamiento mucho mejor que nuestro algoritmo, muy específico pero altamente sensible a la precisión de los datos.

Todo este razonamiento no implica olvidarse acerca de las técnicas actuales de minería de grafos (las cuales funcionan bien, y se pueden mantener cuando la privacidad no es un problema), pero deben seguir buscándose también procedimientos que funcionen mejor cuando existan directivas de cumplimiento de la privacidad más estrictas. Y existirán.

Nota: mi agradecimiento a José Enrique López por sus comentarios al borrador inicial de este texto.

Referencias

  1. Darlene Storm, Malware Aimed at Social Networks May Steal Your Reality, Computerworld, Oct 13, 2010
  2. Y. Altshuler, N. Aharony, Y. Elovici, A. Pentland, and M. Cebrian, Stealing Reality, arXiv:1010.1028v1, Oct 2010
  3. Justyna Pawlak, Google and Facebook to face tougher EU privacy rules, Reuters, Nov 4, 2010
  4. Wyatt Buchanan, Social-networking sites face new privacy battle, San Francisco Chronicle, May 15th, 2011
  5. Derek Thomson, Facebook’s New Privacy Rules Are Simple and Smart, The Atlantic, May 26 2010
  6. Foursquare blog, On foursquare, location & privacy…, Feb 19th, 2010
  7. BBC News, German Street View goes live with enhanced privacy, Nov 2nd, 2010
  8. Mark Zuckerberg, Giving You More Control, Facebook blog, October 6th, 2010
  9. Robert W. Lucky, Zero Privacy, IEEE Spectrum, July 2008
  10. Arvind Narayanan and Vitaly Shmatikov, "Robust De-anonymization of Large Datasets" (How to Break Anonymity of the Netflix Prize Dataset), Feb 5th, arXiv:cs/0610105v2
  11. L. Sweeney, "k-anonymity: a model for protecting privacy," Int. J. Uncertain. Fuzziness Knowl.-Based Syst., vol. 10, no. 5, pp. 557-570, October 2002.
  12. Cynthia Dwork, A Firm Foundation for Private Data Analysis, Communications of the ACM, January 2011
  13. Carter Jernigan, Behram F.T. Mistree, “Gaydar: Facebook friendships expose sexual orientation”, First Monday, Volume 14, Number 10, 5 October 2009
  14. L. Backstrom, C. Dwork, and J. Kleinberg, "Wherefore art thou r3579x?: anonymized social networks, hidden patterns, and structural steganography&quot, in WWW ’07: Proceedings of the 16th international conference on World Wide Web. New York, NY, USA: ACM, 2007, pp. 181-190.

La Sabiduría de las Minorías

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

En el libro “La Sabiduria de las Masas” (Wisdom of the Crowds), James Surowiecki explica como, en muchos casos, la opinión de grupos es más acertada que la de individuos, por muy expertos que estos últimos sean. Esta idea de Surowiecki se encuentra detrás de multitud de sistemas y servicios de la “nueva web”. Un claro ejemplo son los sistemas de recomendación que, en su gran mayoría, están basados en técnicas del llamado Filtrado Colaborativo. Este tipo de técnicas se basan en la premisa de que para hacer una recomendación a un usuario en cuestión, basta con encontrar usuarios similares y recomendar elementos que dichos vecinos encontraron satisfactorios.

La idea de que podemos extraer conocimiento valioso a partir de usuarios “normales” tiene un gran atractivo. En ciertos ámbitos parece intuirse un mensaje de que dada una gran cantidad de datos de usuario, no importa la calidad de los mismos.  No obstante, el propio Surowiecki advierte en su libro de que, para que se dé esta “sabiduría”, el grupo en cuestión debe observar unas ciertas propiedades: debe ser diverso, los individuos que lo forman deben tener opiniones independientes y especializadas, y debe existir un mecanismo de agregación. En otras palabras, si no se cumplen ciertas condiciones es posible que tengamos muchos datos pero el ruido inherente a ellos distorsione o incluso oculte la señal de información. Con esta idea en mente, nuestro grupo de investigación realizó un estudio para medir el ruido que los usuarios introducen al dar su opinión respecto a elementos de consumo como películas. En nuestro estudio detectamos que si preguntábamos varias veces sobre la misma película al mismo usuario podíamos medir diferencias notables. Por ejemplo, para películas con valoraciones medias (2 o 3 estrellas sobre 5) se producían errores alrededor del 50% de las veces (Ver detalles en la siguiente gráfica).

Probabilidad de error dada una valoración

Resulta evidente que en ciertas situaciones nos puede interesar limitar el volumen de datos de usuario a utilizar, a cambio de poder garantizar su calidad y eficiencia para alguna aplicación. Por esta razón nos propusimos replantear el paradigma del filtrado colaborativo, reemplazando los usuarios por expertos del dominio. De esta manera, en vez de encontrar usuarios parecidos (vecinos) al usuario en cuestión, nuestro objetivo es ahora encontrar expertos parecidos. A partir de esta sencilla idea, nació nuestra propuesta de filtrado colaborativo basado en expertos, método también conocido como “La Sabiduría de las Minorías” (The Wisdom of the Few). Es importante recalcar que en nuestro caso la definición de experto es la de “aquel que podemos confiar en que produce evaluaciones coherentes y consistentes en un dominio concreto”.

El método de filtrado colaborativo basado en expertos se basa en los siguientes pasos:

  • Identificar un conjunto de “expertos” con evaluaciones disponibles para el dominio en cuestión
  • Para cada usuario calcular el subconjunto de expertos similares
  • A partir de ese conjunto de expertos similares, generar las recomendaciones de forma similar al filtrado colaborativo tradicional.

Realizamos un estudio de usuario con más de cien voluntarios a los cuales presentamos recomendaciones basadas en varios métodos, incluido el filtrado colaborativo tradicional y el basado en expertos. Los resultados se presentan en la siguiente figura:

Evaluación de la calidad de la recomendación para diversos métodos en una escala de 1 a 5

El filtrado colaborativo basado en expertos (Experts CF en la gráfica) fue el único método con una valoración mayor de 3. Y aunque cabe destacar que el estudio se realizó con pocos datos de los usuarios (y eso contribuye al mal resultado el filtrado colaborativo tradicional), esto no hace más que corroborar la potencia del método para generar recomendaciones personalizadas a partir de un volumen de datos muy reducido. Además, es importante resaltar que el método tiene varias ventajas añadidas con respecto al filtrado colaborativo. Por ejemplo, nuestro método permite garantizar una privacidad del 100% ya que no es necesario transmitir la información de los usuarios a un servidor central. También resulta más escalable ya que no es necesario realizar cálculos con grandes matrices que contienen los datos de todos los usuarios del sistema.

A partir de estos estudios iniciales, hemos realizado varios prototipos en diversos dominios. Primero, realizamos una aplicación de recomendación de música distribuida. Para ello utilizamos valoraciones de críticos de Metacritic. La aplicación implementa una arquitectura totalmente distribuida basada en REST y Linked Open Data. El siguiente diagrama resume los principales componentes de la aplicación.

Arquitectura de la aplicación de recomendación musical utilizando filtrado colaborativo basado en expertos

Posteriormente, utilizamos el mismo método basado en expertos para implementar un sistema de recomendación de películas para iPhone. El sistema no sólo genera recomendaciones personalizadas sino que también es capaz de tener en cuenta el contexto del usuario para recomendar películas que están en cartelera en cines cercanos a la posición actual. Esta implementación resulta un caso de uso muy ejemplificador de algunas de las ventajas de nuestro método. El cálculo de la recomendación se realiza en la CPU del dispositivo móvil, lo cual resultaría impensable en otros métodos. Además, las valoraciones del usuario en ningún momento salen del móvil, garantizando una privacidad total. A continuación os incluimos algunas capturas de la pantalla de la aplicación.

Mapa de los cines cercanos

Información de cine

Recomendaciones

Críticos más similares al usuario




























Esta investigación del grupo científico, con Xavier Amatriain a la cabeza, ha dado lugar a varias publicaciones científicas y una patente. Para más información, podéis consultar el blog del autor.

TechCrunch Disrupt 2010

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Entre el 24 y el 26 de mayo pudimos asistir al “TechCrunch Disrupt” (o TCDisrupt) en New York, organizado por el conocido blog tecnológico TechCrunch muy orientado hacia las startups de Internet.

El formato del TCDisrupt dividía cada día en dos partes. Durante la primera se sucedían las presentaciones, entrevistas y mesas redondas con personajes muy relevantes de la industria. La tarde se dedicaba a una competición de nuevas empresas que presentaban su tecnología y modelo de negocio al escrutinio de un jurado y de los asistentes.

Como espacio para tomar el pulso a la industria y escudriñar los posibles “Googles y Facebooks” del futuro, el TCDisrupt es un observatorio privilegiado; aunque el carácter disruptivo de la conferencia debe ser puesto entre paréntesis. A fin de cuentas lo que allí se pudo ver estaba muy cerca del producto y de los inversores, lo que hace que las propuestas tecnológicas estén mucho más aterrizadas y envueltas en una lógica alejada de los experimentos y audacias de otras conferencias.

Curiosamente, el lugar elegido para celebrar la conferencia era una oficina abandonada por Merrill Lynch, y lo que en realidad era una oportunidad de alquiler barato en Manhattan se quiso presentar como una metáfora de la nueva economía nacida sobre las cenizas de la antigua.

Tendencias

Desde el primer ponente y hasta el final de la conferencia, el mensaje era el mismo: estamos ante una nueva ola de innovación, y esa ola la define la ecuación:

Movilidad + Social + (nuevas formas de) comercio electrónico

Las tres olas de innovación (algunos hablan de cinco, añadiendo mainframes y miniordenadores) serían:

  • La definida por el microprocesador y el PC
  • La de Internet y la Web
  • Esta nueva ola que incluye la movilidad, las aplicaciones sociales y esas nuevas variantes del comercio electrónico que incluyen las tiendas de aplicaciones, la venta de contenidos o el pago por aplicaciones sociales y de entretenimiento (como FarmVille).

En esta nueva ola no hablaríamos más de documentos, si no de personas y sus relaciones. El paradigma de dispositivo sería el Smartphone, y sobre todo el Tablet, un dispositivo por primera vez aceptable socialmente. De hecho se apuesta resueltamente por las aplicaciones en iPad.

Entre las formas de comercio electrónico que aprovecharían el tirón de la combinación de movilidad y usos sociales están todas las relacionadas con la proximidad, tanto referida al marketing como a la venta de bienes y contenidos.

Llama la atención ver como aproximadamente entre un 5-10% de los asistentes utilizaba un iPad en lugar de un ordenador personal: todos ellos eran usuarios de iPhone, y no echaban en falta contar un ordenador personal para las actividades propias de una conferencia. La gran autonomía, y la mayor “aceptación social” del iPad (frente a ojear el móvil o el PC durante una conversación, por ejemplo) están impulsando su uso. Estos usuarios (early adopters, alto perfil tecnológico) usaban el iPad como una herramienta para todo … menos para hablar por teléfono.

Una parte de la conferencia se dedicó a debatir el impacto del iPad en distintos campos, especialmente el editorial, y mostrar todo tipo de nuevos usos para este dispositivo. El iPad está aumentando el efecto de esas “nuevas formas de comercio electrónico” que están sustituyendo, por ejemplo, el modelo de suscripción por el de venta de aplicaciones. En este sentido, representantes de la industria editorial mencionaron dos estrategias de futuro: monetizar los contenidos que ya tienen; y desarrollar nuevas formas de generar recursos que no canibalicen las que ya tienen. Quizá le perla fue la siguiente afirmación: “The future of media lies in access — not ownership“.

El futuro pertenecería a la combinación de iniciativas como Google TV con el uso de Tablets (iPads), considerado como elemento complementario y personal. También se habló mucho de los Tablets como interface privilegiada para eHealth, y sobre todo como lo que llevaría finalmente la revolución digital a la educación.

Concentración de creatividad. La empresa vencedora es israelí, la más jaleada alemana, la diversidad de acentos entre los participantes y asistentes confirma que Estados Unidos siguen siendo el gran atractor mundial de talento. Algunos ponentes destacaron la relativa ausencia de startups en Europa y Latinoamérica, sobre todo a la vista del ascenso de nuevas empresas asiáticas. Muchas de las empresas mantienen, no obstante, un modelo híbrido: aunque su cara visible esté en Estados Unidos, en muchos casos el equipo de desarrollo permanece en el país de origen.

Modelos de negocio sobre plataformas y monetización de las Redes sociales. Numerosas empresas se presentaron con aplicaciones y servicios cuya existencia depende de servicios convertidos en plataforma como Facebook, Twitter, o FourSquare. Hay startups que apuestan por el “gran juego” de crear un servicio masivo de gran envergadura e impacto: el “próximo “Google o Facebook”. Sin embargo hay muchas más que se apoyan en estos grandes conglomerados tecnológicos para montar su propio negocio.

Las redes sociales se empiezan a ver como motor para el marketing directo, y varias compañías ofrecían propuestas en sentido, enfocando los medios sociales bajo la perspectiva de la minería de datos. El hecho de contar con perfiles enriquecidos en un entorno de confianza, hace a las redes sociales especialmente susceptibles de ser aplicadas en este sentido.

Varias de las empresas presentes apostaban por una u otra forma de intermediación entre las marcas y las redes. Bien generando contenidos generalmente publicitarios, bien analizando la red para identificar temas activos que se refiera a una marca o actividad, o encauzando acciones de marketing hacia esos temas.

La posibilidad de generar modelos de ingresos similares a los establecidos por Google en las búsquedas fue defendida por varias empresas. Lo curioso es que en el transcurso de la conferencia Twitter anunció que impediría la inserción de entradas patrocinadas por terceros en su red (manteniendo su propio sistema, claro).

Para algunos, estamos viviendo en redes sociales un momento similar al previo a la introducción de los CRMs: se están sentando las bases para las soluciones integradas, frente a la dispersión de esfuerzos y aplicaciones que atacan aspectos parciales.

Empresas

En lo que respecta a las empresas presentes, sólo quiero destacar dos:

Soluto (soluto.com)


La gran triunfadora del evento, y ganadora de los 50.000$ del premio. Se trata de una empresa de origen israelí que ofrece una solución muy innovadora para el soporte remoto a ordenadores, combinando comunidades, y técnicas de inteligencia artificial.

La idea es crear una comunidad de expertos que resuelven los problemas más habituales en la configuración de ordenadores personales (extensible a otros dispositivos). Para Soluto la fuente de esos problemas suele situarse en el arranque y en la instalación inadecuada de aplicaciones. La empresa ha desarrolla un agente que se instala en el ordenador, para monitorizar su estado y detectar los cambios en su configuración. El sistema es capaz de aprender de los usuarios expertos y aplicar sus soluciones en los equipos de los menos avezados. Estas soluciones también pueden ser introducidas explícitamente.

El modelo resultante es el de un intermediario y agregador del conocimiento de una comunidad, la de expertos, que se traslada a un colectivo mucho mayor, el de usuarios de ordenadores. Este modelo puede ser trasladado a otros escenarios, pero el que han elegido es muy apropiado: se trata de una fuente continua de frustraciones, y de un mercado en expansión, el del soporte a usuarios residenciales sobre todo, muy intensivo en mano de obra.

UJam (ujam.com)

Posiblemente la propuesta más estimulante de toda la conferencia. Una empresa alemana que ofrece la posibilidad de sacar esa melodía que todos tenemos en la cabeza y crear música partiendo de un tarareo o de una melodía interpretada por un instrumento o cantada por una persona. Usando controles bastante sencillos –en apariencia ya no es posible aún probar la aplicación- era posible modificar y enriquecer la música resultante y aplicarle orquestaciones sofisticadas (como “Rock band” o una “Hollywood blockbuster” bastante impactante).

No obstante, es mejor ver el video de la demo que entusiasmó al público de la conferencia. A pesar de su capacidad para impactar en el negocio de la música, el hecho de que el producto sea aún inmaduro, un modelo de negocio menos claro, y haber conseguido captar menor respaldo financiero fue en contra de esta propuesta.

CLR XXIII

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Limpieza de buffer: una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

¿Qué podemos esperar en 2010?

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 4,00/5)
Loading ... Loading ...

Como complemento a la entrada sobre lo más destacado de 2009, aquí tenemos parte de lo que los mismos expertos de Telefónica I+D han destacado para 2010:

Internet móvil, uno de los temas más destacados:

  • Despegue de los LBS (Location Based Services)
  • SO abiertos, especialmente en terminales móviles y sistemas empotrados: sobre todo LiMo, y con más dudas, Moblin
  • Quizá aún pronto para la comercialización de sistemas de micropagos en el móvil
  • Más realidad aumentada móvil y mucho  más 3D
  • Despliegues serios de HSPA+ con 64QAM, MIMO y Dual-carrier.
  • Será el año del despliegue de LTE con varias iniciativas en curso en todo el mundo

En tecnologías ópticas de comunicaciones habrá mucha actividad en torno a la conmutación óptica: DWDM, OBS. OFDM.

Los servicios de voz. Podría ser un año con un extraño protagonismo para la voz:

  • Las llamadas entre redes sociales ya están aquí y parece que sus usuarios hacen un uso sustitutivo cada vez mayor frente a alternativas convencionales
  • Potencial gran impacto de proveedores de servicios Internet entrando en las llamadas de voz convencionales.

Multimedia y entretenimiento:

  • Veremos HD en abierto (al menos en España)
  • ¿Modelo similares a Spotify en video? De momento hay un piloto de Voddler (http://www.voddler.com)
  • Explosión de los prosumers multimedia con contenido de mayor calidad
  • Será el momento de valorar el verdadero impacto de OnLive y de posibles iniciativas surgidas bajo este modelo.
  • Aparición de terminales móviles comerciales con capacidad de grabación de video HD. Esto tendría posibles consecuencias en el enlace ascendente
  • Será el momento de valorar el impacto de Netflix e iniciativas similares

Dispositivos y SO

  • Será el año decisivo de los libros electrónicos. Aparecerán nuevos dispositivos y será el momento de ver si se consolidan como una alternativa estable al papel. También será un año crítico para su modelo de tienda de contenidos
  • ¿Tendremos un PC táctil todo en uno? Windows 7 ha puesto las bases para ello. Algunos incorporarían ya la TDT y se comportarían casi como una TV táctil. Además hay que contar con un hipotético movimiento de Apple ¿iTablet?
  • Próximo movimiento de los fabricantes de consolas
    • Habrá un posible sustituto de la Wii (¿Zii?) Al tiempo que se agota la vida de la actual generación de consolas.
    • Veremos los resultados del proyecto Natal de Microsoft
    • Se consolidará el uso de los gestos como interface de usuario
  • WebTV, o Internet directamente en la TV
  • Inicio del despegue de los SO en red
  • Veremos una nueva generación de procesadores (Intel y AMD) y su implicación en los nuevos dispositivos
  • Despegue de los navegadores GPS conectados a Internet
  • Primeras consecuencia de la unificación del interface de carga de los móviles a microUSB
  • En 2010 acabará llegando el malware de manera masiva a los dispositivos móviles.

2010 Trends Map (según What’s Next)

Otros temas de interés en este año serían:

  • 2010 podría ser el año del despegue servicios financieros desde el móvil con NFC como posible enabler y catalizador. Podría verse la integración de la lógica de las tarjetas inteligentes en la SIM/UICC
  • Progresiva adopción de las tecnologías semántica y sobre todo en nichos como buscadores
  • Popularización del concepto de Cloud Computing y llegada al mundo de la empresa
  • Iniciativas de virtualización de funcionalidades de dispositivos de cliente a nodos de red: ¿será un regreso al concepto de terminales tontos y red inteligente?
  • Explosión de iniciativas M2M.
  • En cuanto a energía, veremos muchos movimientos, como la difusión de las iniciativas de gestión de consumo personal.
  • Saturación en la información social. Va a generar un ruido enorme que precisará de medios de filtrado
  • La privacidad como característica omnipresente en todas las soluciones que tengan que ver con contenidos de usuario en la red

Un año muy interesante por delante, y con muchas expectativas, que está siendo muy intenso en novedades desde su arranque.

Lo más destacado en 2009

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 8. Media: 5,00/5)
Loading ... Loading ...

Acaba el año y es un buen momento para mirar hacia atrás y revisar qué ha sido lo más destacado en el mundo de las tecnologías de la información y las comunicaciones. Hemos pedido a una serie de expertos de Telefónica I+D que nos den su opinión, y este es un resumen de lo que han destacado:

Empecemos por las comunicaciones:

  • En 2009 hemos podido constatar el verdadero despegue de la Internet móvil, después de muchos años de promesas. Eso se ha manifestado en una creciente oferta de smartphones, muchos al hilo del éxito del iPhone, como Android y, en menor medida WebOS (para Palm Pre).
  • También hemos visto la aparición de los primeros “terminales sociales”: Moto Blur, o las funcionalidades de Google incluidas de forma nativa en Android: integración de servicios y contenido local en el dispositivo.
  • La realidad aumentada móvil ha sido otro de los términos de moda del año. Parece que la AR ha llegado para quedarse.
  • Desde un punto de vista de redes, destaca especialmente el inicio del despliegue de HSPA+

La crisis ha tenido un fuerte impacto en el despliegue de la fibra, lo que ha impulsado alternativas para alargar la vida útil del cobre. No obstante, la evolución tecnológica de la fibra ha continuado, con experiencias de 30 Tbps de transmisión en julio.

Otros puntos destacados en la evolución de la infraestructura de comunicaciones ha sido:

  • Redes ópticas, con despliegues comerciales de malla fotónica, pruebas de transmisión sobre enlaces DWDM de larga distancia y los primeros prototipos precomerciales para la conmutación óptica de paquetes y ráfagas (OPS/OBS).
  • IPv6: los organismos de estandarización han empezado el proceso de actualización de sus estándares a IPv6.

Otro término de moda en este año ha sido el Cloud computing como hype. Al final de 2009 hemos visto una ampliación y primera consolidación de actores, diversidad de modalidad, y un creciente interés de la industria.

Hemos visto también una consolidación de la gestión del software empresarial sobre la base del cloud y de otras tecnologías como OSGi, buscando sobre todo mayor flexibilidad.

Si nos fijamos en el multimedia, también ha sido un año muy intenso:

  • Por ejemplo, la imagen 3D ha dado lugar a novedades muy interesantes.
    • Ha dado un espectacular –y rentable- salto al cine.
    • En el entorno doméstico, se ha producido el abandonado de la TV 3D autoesteroscópica por tecnologías que requieren el uso de gafas.
  • Decadencia del P2P, que llegó a suponer un 40% del tráfico total mundial hace un par de años, pero ha bajado ahora hasta un 18%. Sus sucesores son el streaming y la descarga directa.
  • Spotify, aunque sólo disponible en algunos países europeos, ha tenido un impacto formidable en el panorama de la distribución de contenidos a través de Internet. Un modelo muy exitoso y rentable que se plantea su extensión a otros países y del que podrían surgir réplicas en el video.
  • Un hecho muy relevante en 2009 ha sido la migración de los servicios OTT de TV y audio a Internet: el iPlayer de la BBC o portales de las TV generalistas con acceso a contenidos bajo demanda.
  • Sin embargo hay que constatar, por lo menos en España, el fallo en la adopción de las funcionalidades avanzadas de TDT

En el mundo de las redes sociales hemos visto una generalización y un uso masivo. Así, Facebook ha superado la barrera de los 350 millones de usuarios registrados, aunque hay muchas peculiaridades por países, como el éxito de Tuenti en España o de Orkut en Brasil.

Este año, ha sido el del GreenIT, el del SMART Grid, o el de la Conferencia de Copenhague. Todos los analistas coinciden en el papel que van a tener las TIC en la gestión energética del futuro.

Hemos visto la aparición de Google Wave, que ha hecho correr ríos de tinta electrónica. Aunque su impacto final parece haberse diluido un poco, ha hecho que el trabajo colaborativo cambie para siempre.

La aparición de nuevos eBooks ha hecho creer que este era su año, pero finalmente parece que habrá que esperar a 2010

Los navegadores han incorporado a lo largo de 2009 nuevas capacidades que tendrán fuertes consecuencias en el futuro: Localización, múltiples Threads, actuar como contenedores de aplicaciones, y la adopción de HTML 5,

En una proxima entrada, se recogerán las previsiones para 2010.

CLR XIX

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Seguimos con el periódico saneamiento de memoria. Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

La Web de 2015

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 4,50/5)
Loading ... Loading ...

Se acerca el fin de año y van apareciendo más y más recopilaciones de tendencias y predicciones para el año próximo y más allá. Por ejemplo, la del blog técnico Noupe, “The Future Of The Web: Where Will We Be In Five Years?“, que enumera 15 predicciones concretas sobre la Web de 2015, y que complementa con recursos adicionales:

  • Micropagos para contenidos de calidad. Los micropagos llevan 15 años esperando su oportunidad y en algún momento tendrá que llegar. A pesar de las últimas acciones de Amazon y PayPal, sigo viendo con expecticismo su popularización.
  • Monitores más anchos, y contenido adaptado a ellos. Es cierto que hay una clara tendencia hacia nmonitores cada vez mayores (recientemente Apple presentó un equipo con uno de 27 pulgadas) para el público y no sólo para profesionales, y todos esos monitores han adoptado formatos panorámicos o widescreen. En el futuro veremos como se saca mayor partido de esa nueva disposición y tamaño con contenidos pensados para hacer un desplazamiento horizontal en pantalla.
  • Revistas en formatos interactivos. Además de la progresiva desaparición del formato papel, se irán añadiendo más elementos interactivos en las versiones electrónicas de revistas y otras publicaciones, como el video y herramientas colaborativas tipo wiki.
  • Más contenido colaborativo y en tiempo real. Si es así, Google ha acertado con Wave. No es sólo el éxito de proyectos como la Wikipedia, o el de herramientas como Zoho o Google Docs, es que además hay cada vez más funcionalidades colaborativas en herramientas sociales.

SmartWeb_Web_5.0_Evolution_Confidential_-v004 por trendonegermany.

Un curisoso diagrama según el Trend Book 2010

  • Más contenido semántico y herramientas para explotarlo. Se apuesta por que la red semántica sea algo cada vez más generalizado y no sólo una aplicación de nicho.  Propiciado por una mayor presencia de contenido semántico en las páginas web (semantic tagging) y por funcionalidades semánticas presentes en buscadores especializados (como Wolfram Alpha) y generalistas (como Bing).
  • Realidad aumentada en aplicaciones móviles. Parece que pasado el hype actual, la realidad aumentada se consolidará y mostrará su verdadera utilidad para sus usuarios.
  • Mayor adopción de estándares Web. Algo que ya está ocurriendo hoy en día, en la que los distintos implicados van dejando de lado particularidades para abrirse a estándares reconocidos universalmente, como puede ocurrir con HTML 5.
  • Seguridad mejorada contra spam, phishing y scams. Aquí siento ser excéptico: posiblemente mejore la seguridad frente a las amenazas actuales, pero va a ser difícil que se pueda batir a las futuras.
  • Más aplicaciones sociales. E incluso más matiz “social” en todo tipo de aplicaciones. Redes sociales especializadas, y a medida la agregación en interoperatibilidad de redes serán las características futuras, junto a la incorporación de funciones sociales a todo tipo de aplicaciones.
  • Más programación de calidad de “TV” online. La web como medio de acceso a contenidos audiovisuales se va a nutrir de un catálogo más amplio de contenidos de calidad y exclusivos, como webisodios actuales.
  • Las aplicaciones web estarán más presentes en la vida diaria. Especialmente las móviles, y todo ello complementado con la migración de servicios y aplicaciones a la red.
  • La optimización de los buscadores será menos importante. En su lugar se apuesta por la recomendación y la búsqueda dentro de las redes sociales.
  • Los sistemas operativos estarán en la red. PCs, smartphones y otros dispositivos de acceso serán cada vez más terminales de funciones ofrecidas desde la red. Chrome OS sería uno de los pioneros en esta tendencia.
  • Interfaces personalizados. Componentes como Greasemonkey para Firefox mostraría el camino. Se trata de contar con medios que facilitarían la adaptación de una web a las preferencias de un usuario, por encima de lo que el proveedor haya decidido.
  • La web será el centro de distribución de información y contenidos. Y lo sería por encima de medios más tradicionales como la prensa, o la distribución tradicional de contenidos audiovisuales en soportes físicos.

En general, buena parte de estas tendencias se están manifestando hoy en día y no es descabellado esperar una evolución en el sentido manifestado. Hay una buena dosis de optimismo, como suele ser habitual en este tipo de predicciones, pero poca anticipación disruptiva también.

La Cofa

Mientras unos van tras el nuevo buscador, Google rediseña las comunicaciones personales

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

El reinado de Google en el mundo de las búsquedas parece indiscutible, aunque su dominio fluctúa mucho entre distintos países. Lo cierto es tratar de competir con Google en el terreno de las búsquedas se parece a desbancar a Microsoft de la ofimática, o a Apple de los dispositivos “cool”, también podría ser ir contra Intel en el terreno de los procesadores, pero ahí tenemos AMD, para recordar que ninguna posición de dominio es definitiva.

Aunque la actividad en el terreno de las búsquedas es constante, parece que se acumula en las últimas semanas. Así, hemos visto el lanzamiento de Wolfram Alpha, que pasada la expectación inicial ha dado lugar a críticas más bien frías. Sin embargo, se presenta como un primer paso y con mucho recorrido por delante. A mí particularmente me encanta poder escribir “capital of france” y recibir una ficha sobre París, aunque si tengo que ahondar en algún tema prefiera empezar por la combinación Wikipedia-Google:

París según Wolfram Alpha

París según Wolfram Alpha

Y no está solo, además de los clásicos como Ask, tenemos otros muchos buscadores emergentes como Cuil, que aunque lejos del dominio de Google, tiene un tráfico de importantes órdenes de magnitud. Y lo hacen ofreciendo algo distinto: respuestas y no enlaces, como Wolfram Alpha; o asegurando una mayor privacidad, como en el caso de Cuil.

Ahora tenemos un movimiento más audaz desde Microsoft, que lleva varios años jugando con la idea de tener su propio buscador, algo lógico cuando vemos a Google invadir su terreno con sistemas operativos, y aplicaciones competidoras de Office.

Así que Microsoft responde con Bing, y crea una notable ola de ruido en torno a él. Definido como algo a medio camino entre Google y Wolfram Alpha, la campaña de publicidad se ha visto impulsada por las opiniones muy favorables de alguien tan respetado como Steve Wozniak.

Los privilegiados que han podido probarlo hablan de la posibilidad de agrupar resultados en categorías, de respuestas directas a preguntas, de buscadores “verticales” especializados embebidos. Da la impresión de que Microsoft ha construido una aplicación a partir de agrupar distintas soluciones experimentales que han tenido en rodaje durante un tiempo.

Cuando se abra el público Bing será objeto de un severo escrutunio, y Microsoft no puede permitirse fallar.

Mientras tanto …

Como si el mundo del buscador fuera algo superado, que le causa inquietud, Google se centra en otros frentes. En la conferencia “Google I/O“, donde se han presentado propuestas tan interesantes como Spotify móvil sobre Android, Google ha hablado de un nuevo paradigma de comunicaciones, Wave. Como dice Tim O’Reilly, es como si el correo electrónico hubiera sido inventado hoy.

Google Wave

Google Wave

Se trata de una actividad multidisciplinar que se ha desarrollado durante varios años (nada de proyectos relámpago de pocos meses) dentro de Google para rediseñar el correo, y convertirlo en algo colaborativo, en tiempo real, social, enriquecido y, quizá, extensible. Personalmente, una de las funcionalidades demostradas más potentes que encuentro es la traducción en tiempo real, y es sólo una más.

No es de extrañar que Twiter, Facebook y otras redes sociales se tienten la ropa. El formidable músculo de Google parece capaz de empujar cualquier cosa, a condición de que tenga calidad y conecte mínimamente con el público. Pero no es infalible: ahí están sus experiencias fracasadas en las redes sociales o el video (salvado con la compra de Youtube).

La ambición de sus creadores va mucho más allá, y no se conforman con lanzar una herramienta, si no que hablan de un protocolo universal como POP o HTTP para este nuevo tipo de comunicaciones. Lo cierto es que han contado con gran libertad -y confianza- desde el inicio del proyecto que arrancó con la premisa de hacer un rediseño de las comunicaciones: ¿cómo sería el correo electrónico si se ideara hoy? No estamos hablando del momento de su invención, hace 35 años, cuando los unos pocos usuarios especialistas y privilegiados accedían a terminales en un centro de cálculo. Se trata de un medio que debe moverse en un mundo de comunicaciones masivas, ubicuas y en tiempo real, donde las conversiones no se envían, si no que se realizan en la nube. Eso les ha llevado a hacer que cada mensaje (o wave) sea un espacio compartido de comunicaciones, con elementos propios de otros muchos medios que han demostrado calar entre el público como el correo electrónico, el chat, el microblogging, las redes sociales o las wikis.

A falta de poder probarlo, y parece que aún nos queda tiempo por delante, los comentarios entusiastas de los que han tenido ese privilegio parecen augurar que Wave va aser una palabra de uso frecuente durante un buen tiempo.

Como nota curiosa, hay que mencionar que los líderes del proyecto Wave son dos hermanos que en su día pusieron en pie Google Maps.

Citando a:

Predicciones del Club Churchill en 2009

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 4,00/5)
Loading ... Loading ...

El club Churchill es un foro tecnológico y de negocios establecido en Silicon Valley que anualmente celebra una cena en la que una serie de miembros muy destacados del mundo de la tecnología y el VC toman la palabra para exponer su visión de las tendencias más destacadas en el futuro de Internet, las comunicaciones y la empresa. Es una fuente de pronósticos y predicciones de primer orden. Este año, además, se ha producido una votación entre los asistentes sobre las distintas tendencias presentadas para completar su “top ten”.

Este año el foco ha estado en la energía, su gestión y sus nuevas formas. Otros campos tecnológicos destacados serían los relacionados con información y datos. Si la enumeramos, las más destacadas este año han sido:

  • El papel de la información no estructurada en la formación de los nuevos líderes de la información. Este tipo de datos crecerá enormemente en los próximos cinco años, hasta suponer el 80% del total.
  • La banda ancha inalámbrica será uno de los pocos sectores TIC que reciban inversiones. Algo por lo general ya reconocido con anterioridad. Por otro lado se dijo que el consumo de bienes digitales sobre dispositivos móviles será el área principal de desarrollo en los próximos años, lo que supone un gran desarrollo de aplicaciones (incluyendo las de pago, sobre todo las gratuitas), y declarando que los operadores podrían ser los que actuaran como barrera a este movimiento.
  • La generación de los “millennials” está aquí. Se trata de una generación a nivel global que no pueden recordar lo que era no estar “online”. Este hecho significaría un nueva visión y un impulso a la innovación por parte de quienes nacieron con la Web (que en 2009 cumple 20 años).
  • El triunfo de la web distribuida, como el “poder agregado de todos nosotros”. La multitud acabará controlando buena parte de los contenidos y servicios que atraen el interés del público, y eso es especialmente importante en un momento en el que se dedica de media más tiempo a las redes sociales que al correo electrónico.
  • Los temas relacionados con energía serían:
    • “Maintech” y no “cleantech”, propuesto por Khosla, lo que le da un valor especial. Se trata de poner menos el foco en tecnologías “verdes” ya que aún son una parte muy pequeña del mercado, y más en la eficiencia de las convencionales.
    • Relacionada con la anterior es la idea de la gestión eficiente de la energía serán áreas donde se pondrá el foco de la inversión.
    • Las baterías avanzadas serán el área de inversión en energías más popular en los próximos dos años.
  • Otros temas serían que el desarrollo hardware de este año está en las pantallas, o el desarrollo del B2B de la mano de los servicios de salud, o que la salud de los medios de comunicación no es tan mala, aunque sí la de los formatos más tradicionales (periodistas, pero menos periódicos).

El año pasado, en la selección final, pudimos destacar éstas:

  • El teléfono móvil como elemento central de la computación personal. La concentración de capacidades y funcionalidades en los teléfonos (incluyendo la próxima inclusión de proyectores), el acceso a líneas de banda ancha, junto a la mejora en los interfaces, hacen presagiar que estos dispositivos continúen ganando relevancia entre los usuarios finales. La tendencia marcada en Asia se puede acabar propagando a todo el mundo, los smart phones serían el dispositivo del futuro.
  • La Internet implícita pasará a un primer plano. Hasta ahora los rastros que dejamos en distintos sitios web como huellas de nuestra actividad (búsquedas, compras, alquilar un coche, contratar un viaje, suscribirse a una revista) han tenido una existencia inconexa y silenciosa. Sin embargo buena parte de los invitados en el evento vieron que una tendencia clave para el futuro iba a ser el surgimiento de esa Internet, lo que conlleva nuevos modelos y oportunidades de negocio, a pesar de las dudas sobre la privacidad.
  • Técnicas de diseño evolutivo. Los problemas que afrontamos son cada vez más complejos como para obtener una solución convencional. El uso de algoritmos evolutivos y otras técnicas basadas en la selección natural irá ganando relevancia en el diseño futuro.
  • Otras tendencias ajenas a nuestro mundo –de momento- destacadas en la pasada edición por el Club Churchill fueron: el impacto de la demografía, el desplazamiento de la preocupación e inversiones desde el calentamiento global o cambio climático a las tecnologías de obtención y recuperación del agua, una futura fuente de conflictos; el progresivo abandono de los combustibles fósiles por otras soluciones, esencialmente biocombustibles y energía solar.

Vía: