Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

LTV, la visión a largo plazo de las telecomunicaciones

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Long Term View o LTV es un término que hace referencia al diseño de los escenarios que describan los futuros más plausibles para el mundo de las telecomunicaciones en un horizonte de diez años. Como ya hemos mencionado (ver “Un mirada a un futuro -no tan- lejano” o “Las predicciones de futuro, una justificación“) el cometido último de un Observatorio Tecnológico no es hacer previsiones de futuro, si no diseñar escenarios probables que ayuden a preparar una respuesta a los retos que planteen.

En el curso del trabajo de Observatorio hemos tenido ocasión de participar en conferencias y workshops que ayudan a  identificar las premisas sobre las que se construirán esos escenarios. En esta entrada vamos a resumir la visión que hemos extraido de los fabricantes de equipamiento en forma de una visión a largo plazo fijada en el horizonte 2020.

Se trata de un plazo que podemos considera largo, aunque el valor que se asigna a “corto”, “medio” o “largo plazo” es muy distinto dependiendo de la actividad de quien los maneje: para un fabricante de hardware, por ejemplo, su “corto plazo” puede ser de cinco años, que es el tiempo que precisan para poner en el mercado las tecnologías que ahora mismo están produciendo en sus laboratorios. Eso se debe a que con mucha frecuencia sus productos requieren de complejos procesos de industrialización y de infraestructuras de gran envergadura como fábricas específicas, lo que introduce un factor tiempo inusual en otras industrias. Por ello, para los fabricantes es vital contar con una visión a muy largo plazo si es que quieren poner en el mercado productos realmente innovadores y diferenciados.

En el mundo de los fabricantes hay de todo: desde visiones inspiradoras y holísticas, a otras mucho más convencionales y cortoplacistas. Una constante general es la falta de la anticipación de innovaciones disruptivas. Algo que no debería extrañar: los “cisnes negros”, por su propia naturaleza, son difíciles de anticipar; y quien los conoce retendrá su conocimiento mientras pueda desarrollar las posibles ventajas que de ellos se deriven.

El mundo en 2020

Estas son las condiciones de entorno en las que desarrollaría el mundo de las telecomunicaciones de 2020:

  • Aumento de población, pero singularmente de una población formada y con un nivel adquisitivo equivalente a la clase media occidental que procederá sobre todo de países emergentes como China, India o Brasil (hasta 1000 millones de personas). Sus hábitos futuros de consumo son desconocidos: no tienen porqué replicar los patrones de Occidente.
  • Crecimiento exponencial del tráfico, sobre todo del móvil. Los motivos son varios: aumento del número de personas y dispositivos conectados, dispositivos con mayor capacidad de proceso y visualización o servicios más exigentes. Dentro de este tráfico, el video ocuparía una proporción cada mayor (hasta un 90% en 2013).
  • Crecimientos globales en voz, que serían muy superiores a las estimaciones de crecimiento de ingresos, incluyendo los procedentes de los datos. Eso sitúa en un futuro no muy lejano un punto crítico en el que el coste de las redes superaría a los ingresos derivados de ellas.
  • La TV se moverá a Internet, y habrá una mayor demanda de los servicios relacionados con el video: desde el VoD, a la videoconferencia y la telepresencia, todo ello presionando la capacidad de las redes.
  • Crecimiento abrumador de las conexiones. Hay que retener dos cifras: 6B (millardos o miles de millones, o “billions”) de personas conectadas, y 50B de dispositivos conectados. M2M, Internet of Things, una explosión de sensores y captadores automáticos de información serían los responsables de este enorme crecimiento de elementos conectados a la red.

Las telecomunicaciones en 2020

Como hemos dicho, no se vislumbran novedades radicales o disruptivas. De hecho, los grandes cambios serían más de modelo (de negocio) que tecnológicos. Las soluciones tecnológicas deberán atender a tres grandes desafíos:

  • Cómo afrontar el crecimiento exponencial de tráfico previsto para los próximos años
  • Cómo reducir la complejidad de los sistemas actuales
  • Cómo generar ahorros y nuevos ingresos para una industria que ve cómo su curva de costes tiene una pendiente cada vez más acusada y que si nadie lo remedia cortará a la de los ingresos.

¿Cuáles serían las novedades tecnológicas que podemos esperar en el futuro? Podrían estar entre las de la siguiente lista:

  • Una red unica, simplificada, all-IP, para tratar fijo y móvil.
  • Redes todo óptico, extremo a extremo.
  • Dispersión de infraestructuras y acercamiento al usuario final: CDNs, clouds distribuidas, o datacenters se descentralizarían para acercar funciones como streaming de video o el procesado de determinadas aplicaciones.
  • Un movimiento hacia la simplicidad que implicaría la reducción de la gestión, o de los tipos de equipos actuales. Otra forma de simplificación es favorecer la concentración frente a la dispersión del punto anterior.
  • En radio, los límites físicos y teóricos (Shannon) están muy presentes, por lo que se vislumbran  soluciones generalmente compuestas de la combinación de varias técnicas usando todo tipo de puntos de acceso distribuidos.
  • Context-awareness y personalización. El contexto sería la próxima frontera y uno de los potenciales nuevos servicios que podrían ofrecer los operadores.
  • “Green” y la energía se materializarían como medidas para el ahorro de costes (los consumos energéticos en transporte serían cada vez más relevantes en el futuro).
  • Continuarán las mejoras relacionadas con la Ley de Moore (sus límites físicos se alcanzarían en torno a 2020).

Tiempos interesantes por delante, aunque el foco de la innovación se esté moviendo hacia otros frentes como la energía, la interacción con las personas o los materiales.

CLR XXIV

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Limpieza de buffer. Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

La Cofa , Noviembre de 2009

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 2,50/5)
Loading ... Loading ...

Resumen de las entradas en La Cofa para el mes de Noviembre de 2009.

Siempre que se habla del futuro de internet, una cosa sale a relucir: más velocidad. Aunque con el ADSL ya vemos ofertas de 20 Mbits por segundo, cuando tengamos fibra, todo será más rápido. Pero, ¿qué harías tú con 30 Mbits por segundo de bajada?

El blog técnico Noupe en su artículo  “The Future Of The Web: Where Will We Be In Five Years?“,  enumera 15 predicciones concretas sobre la Web de 2015.

Retomamos la costumbre de hacer un periódico saneamiento de memoria (aquel comando CLR -de clear- de los procesadores). Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido.

En los últimos años, las empresas (sobre todo las de un tamaño relevante) empiezan a valorar cada vez con más interés el espíritu emprendedor como elemento positivo en sus empleados.

El Telecom I+D es el principal evento del mundo de las telecomunicaciones en España, y reune contribuciones del mundo académico y de empresa. Se articula en torno a una densa agenda de ponencias y pósters y cuenta con una serie de tutoriales, casos de éxito y tutoriales que fomentan la participación de los asistentes.

WWW2009: la infraestructura futura de Internet por Pablo Rodriguez

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Hoy, en la última sesión del WWW 2009,  hemos podido asistir a la keynote de Pablo Rodriguez, colega de Telefónica I+D, sobre el futuro de la infraestructura de Internet. No es un tema menor, aunque parezca que la atención se la dedicamos siempre a los nuevos servicios, a la velocidad de acceso o a la riqueza y variedad de contenidos, lo cierto es que todo ese mundo rutilante está soportado por una infraestructura de redes, servidores, equipos, sistemas, y arquitecturas diseñadas originalmente con un propósito bien distinto, no desde luego para mover videos, o soportar comunicaciones enriquecidas en tiempo real.

Pablo Rodriguez

La situación actual de la infraestructura Web se caracteriza por el uso de sistemas de Web caching. Hemos aprendido en los últimos años que es un elemento de la infraestructura, y que ha adquirido una enorme dimensión de la mano de operadores como Akamai.
Sin embargo es cada vez más complejo tratar con contenido multimedia, animaciones, videos, o imágenes cada vez más grandes, sobre todo si tenemos en cuenta que Internet no estaba preparada originalmente para este tipo de materiales. Y lo cierto es que este contenido no deja de crecer, de hecho se multiplica por 6 cada 4 años. Y se trata de una información cada vez con una componente más social.
Así, buena parte de la infraestructura actual se ha ido creando sobre la marcha en respuesta a las necesidades según iban apareciendo.

La localización y gestión de los contenidos es el primer tema abordado. Pablo habla de olas en el networking sepadas por un espacio de 30 años, y caracterizadas por la voz, el acceso a datos, y, desde 1990, la Web, dominada por los contenidos.
El diseño de Internet no se optimizó para una aplicación determinada, si no con la idea de permitir que todo tipo de aplicaciones puedan funcionar sobre ella.
Lo cierto es que a día de hoy nos preocupamos más por los servicios que por los contenidos. Eso hace que sea difícil localizarlos, ya que las búsquedas se basan en enlaces que pueden variar, no en el contenido en sí; el mismo contenido se copia y distribuye una y otra vez ya que se identifica por direcciones que pueden variar; y se dificulta la trazabilidad ¿qué uso se hace de un contenido determinado?
Content Networtking es la tendencia de futuro. Una Internet organizada en torno al contenido, que pasa a ser el objeto principal. Siempre hay la duda de que el siguiente paso sea una evolución o revolución. Desde un punto de visto revolucionario podemos imaginar Internet como una base de datos. Una visión más evolutiva se fijaría en lo mucho que podemos aprender de otras experiencias muy exitosas como el P2P.

La distribución de esos contenidos no es, sin embargo, fácil.
Para empezar, los contenidos son cada vez mayores, y eso que aún buena parte de los contenidos multimedia siguen siendo distribuidos con medios convencionales (postales).
Hay un fuerte impacto de la distancia en los tiempos de acceso a contenidos, sobre todo los grandes.
El problema central de Internet es que está diseñada para contenidos cortos y accesos instantáneos, pero no para grandes descargas.
Lo cierto es que las empresas postales invierten muchos recursos en el diseño de su red de distribución y almacenaje, pero en Internet hemos ido resolviendo los problemas según aparecían.
Podríamos acabar teniendo una especie de “Internet postal Service” reutilizando buenas ideas como los almacenes intermedios.

En ese sentido parece que hay un papel para los Data Center Clouds. Las nubes de computación (Clouds) permiten crear economías de escala, en las que la virtualización es un elemento clave. Las clouds tienen mucho que ver con la infraestructura de los datacenters: servidores, espacio ocupado, energía consumida. De hecho, la energía (refrigeración, electricidad) se ha vuelto más importante que el propio coste de los servidores. Se ha tratado de modularizar los Data Centers para reducir su impacto y optimizar su distribución.

Todo ellos nos lleva hacia Clouds para las “Online Social Networks” (OSN), que han cambiado la forma en la que interactúa la gente, y también afectan a la infraestructura debido a sus crecimientos exponenciales.

Evolución del tráfico Internet

El tráfico ha evolucionando progresivamente: en la primera generación Web, el contenido iba desde los servidores directamente a los usuarios; más adelante aparecieron las redes P2P que permitían un tráfico directo entre usuarios; con las OSN, el tráfico puede ir entre usuarios pero en clusters, o grupos de usaurios afines.

Tenemos una serie de temas abiertos que afectan y mucho al diseño: contar con la capacidad de predecir qué contenidos serán más populares; ser capaces de organizar la infraestructura para ser capaces de hacer frente a las puntuales avalanchas de trafico; y  la seguridad

Podríamos albergar las OSN en nubes distribuidas. Hay que tener en cuenta el efecto que determinadas acciones tienen al ser capaces de provocar “cascadas sociales”; también que las estructuras de datos resultantes ya no pueden ser albergadas en un único servidor, lo que nos va a obligar a particionar la información, aunque eso suponga problemas de consistencia y latencia.

Como conclusión, todo resulta cada vez más complejo, quiza sea tiempo de pensar un nuevo diseño. Podríamos pensar que el diseño de la infraestructura Web debería estar embebido en el diseño de la proipia Internet pero ¿podrían separarse como líneas de desarrollo? ¿Hay elementos de la web suficientemente maduros como para que formen parte de las capas inferiores para facilitar los servicios superiores? Es decir, ¿podríamos convertir servicios actuales o partes de ellos en un componente de la infraestructura de Internet?
La Web ha llevado a sus límites a la infraestructura de Internet. La localizacion, gestión, y distribución aún previsan de una solución satisfactoria. Y tanto las tendencias “Green” como las OSN van a redefinir la infraestructura de Internet una vez más.

Un mirada a un futuro -no tan- lejano (2)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

(Continuación de la entrada “Un mirada a un futuro -no tan- lejano“)

El informe (”The DCDC Global Strategic Trends Programme 2007 – 2036“) del Ministerio de Defensa Británico cubre muchos aspectos (económicos, sociales, medio ambiente, y lógicamente los militares), y también dedica una especial atención a la evolución de la ciencia y la tecnología.

Durante el pasado siglo, dos guerras mundiales y la Guerra Fría han determinado en gran medida el desarrollo de la ciencia y de la técnica. Sin embargo desde los años 90 se han producido grandes cambios, asociados a términos como “globalización”, y “revolución en la información” que han supuesto un nuevo rumbo en la economía, el comercio, las relaciones internacionales, la tecnología y la forma de desarrollarla y aplicarla. De acuerdo con esta visión, las necesidades de la defensa de los estados dejarían de ser el motor del desarrollo tecnológico y en su lugar una nueva I+D impulsada por necesidades de empresa, distribuida, global, muy dinámica, y abierta ocuparía la primera mitad del siglo. El impulso científico y tecnológico será a su vez más vulnerable a las variaciones económicas a medida que dependa menos de la inversión pública, sufriendo de forma más acusada los ciclos de crecimiento y crisis.

En general, y  reconociendo que es casi imposible hacer predicciones concretas, sobre todo de la aparición de elementos disruptivos, el informe apuesta por un desarrollo evolutivo de las distintas tecnologías, excepto cuando se produzcan combinaciones o interacciones entre ellas (como podría se la neurología y los sensores, o la bio y la nanotecnologías).

Si atendemos únicamente a las tecnologías seguidas desde La Cofa, el informe del DCDC muestra una visión prometedora, pues augura un gran desarrollo en las TIC y en otras relacionadas como las redes de sensores. A la altura del año 2040, será difícil “apagar el mundo exterior”: la ubicuidad de las TIC estará en parte motivada por nuevas formas de relaciones sociales y económicas basadas en la conexión permanente. Las redes de sensores proporcionarán, por otra parte, una visión más completa y actualizada permanentemente de nuestro entorno, y su desarrollo será descentralizado.

El capítulo de riesgos, en cambio, es muy amplio:

  • Una fuerte dependencia de la tecnología a una escala que aún desconocemos
  • Niveles de incertidumbre mayores de los actuales debidos no sólo a un desarrollo acelerado, si no también a las interacciones con otros fenómenos de los englobados bajo el término “globalización”
  • El crecimiento explosivo de la información disponible ayuda también a esa incertidumbre haciendo muy difícil el análisis y la compresión del mundo. La Inteligencia Artificial puede echar una mano, pero su desarrollo puede ser aprovechado también para propósitos delictivos
  • Otro riesgo derivado de la abundancia de la información, será la intensificación del problema de su fiabilidad
  • Las ventajas tecnológicas se estrecharán aún más, especialmente entre economías emergentes y desarrolladas, que perderán así una de sus ventajas históricas
  • La aparición de sistemas autónomos tendrá un gran impacto en la gestión de la tecnología y la información, pero también en el transporte y otras actividades puramente humanas hasta la fecha

Otros articulos recientes sobre tendencias futuras en La Cofa:

Las 10 tendencias tecnológicas de “What’s next”

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Richard Watson, que está detrás de la web What’s next, del libro Future Files: A History of the Next 50 Years, y del blog What’s Next: Top Trends, ha publicado, tras una consulta abierta a sus lectores, las que considera 10 principales tendencias de futuro en el campo de IT.

El mapa de extinciones entre 1950 y 2050. Detalle

Éstas son:

  1. Green IT: la tendencia hacia eficiencia energética, el ahorro, el reciclado, … Parece que hay un acuerdo muy generalizado sobre su relevancia
  2. Data Risk & Security: puede que la preocupación sobre la seguridad en las comunicaciones y la informática no esté tan presente como en el pasado en los medios, pero las amenazas no dejan de crecer, y han ganado en sofisticación y amplitud. Será una fuente de preocupaciones (y negocio) en el futuro.
  3. Data Mining: el aumento exponencial de la información gestionada por las organizaciones hace necesarias fuertes inversiones y nuevas técnicas para su tratamiento. Parece un campo llamado a tener un gran desarrollo futuro, y eso que no se puede decir que se trate de un terreno nuevo.
  4. Virtualisation: en el sentido de reuniones virtuales, clases virtuales o espacios de trabajo virtual. Muy relacionada con la primera por su componente de ecoeficiencia, (reducción de emisiones y “carbon footprint”) supone el desarrollo de campos con la telepresencia y los metaversos.
  5. Shopping 2.0: para Watson, se trata de la incorporación de capacidades sociales al comercio electrónico. En el fondo es revisar el tradicional ejercicio de buscar recomendaciones de compra entre amigos y conocidos. También supondría una mejora en la experiencia virtual de compra con el uso de nuevos interfaces.
  6. Open Innovation: redes abiertas de innovación que buscan ideas más allá de los empleados de una empresa, involucrando a clientes y otras fuentes externas. Watson lo presenta como un modelo fuertemente inspirando en el open source. Open Telefónica sería nuestra particular forma de entender esa open innovation.
  7. Rise of the Machines: el concepto puede sonar un poco amenazante, pero se refiere, en realidad, a una versión inteligente de la llamada Internet of Things. Es decir, computación y comunicaciones embebidas (e inteligentes) en toda clase de objetos, lo que supone control, seguimiento, sensores, y toda una nueva gama de servicios de todo tipo.
  8. Process automation: curiosamente ha quedado huérfana de explicación esta tendencia, aunque uno puede aventurar que se refiera a conceptos como autonomic computing, derivados del hecho de que el tamaño y complejidad de los data centers aumente de tal manera que sea inabordable una gestión convencional (y manual) por lo que habrá que delegar en procesos de gestión autónoma de redes y sistemas.
  9. Too Much Information: el exceso de información está haciendo que, como dice Watson, “Information is no longer power“. La única forma de parar esa avalancha de datos (sensores, localización, UGC, …) es contar con medios de análisis de la información. El exceso de opciones, paraliza la toma de decisiones. La recomendación, personalización, técnicas de minería de datos y análisis de información, son algunas de las herramientas para tratar con un flujo desmesurado de datos.
  10. Simplicity: en parte un complemento de la anterior. Los productos, los servicios, los dispositivos, los espacios web, … son tan complejos, cuentan con tantas opciones, requieren una dedicación tal para conocer todas sus posibilidades, que hacen que los usuarios se confundan y resistan a su uso. La simplicidad es uno de los valores más apreciados por el público, y afecta también a las empresas, cuya gestión se complica, y a las administraciones públicas que navegan entre mares de competencias, legislaciones y organismos.

Citando a:

Más ancho de banda, más velocidad,… ¿hasta cuánto?

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 4,00/5)
Loading ... Loading ...

Aparentemente, el progreso en las redes de acceso está supeditado al ancho de banda que ofrecen. Cada nueva generación de redes fijas o móviles, básicamente lo que ofrece es mayor velocidad. Sí, claro que está muy bien que nos dupliquen la velocidad del ADSL cada cierto tiempo o que desde el móvil podamos conseguir navegar incluso más rápido que con las líneas ADSL. Y a quién no le seduce tener fibra óptica en la red de acceso, con más de 50Mbps, pero… ¿hasta cuánto es suficiente?

200804020851.png

Según el análisis de Jakob Nielsen, desde un punto de vista de factores humanos, estaría justificado llegar hasta entre 1 y 4 terabits por segundo dependiendo del factor de compresión. Simplificando el análisis, la velocidad que debería darnos la red de acceso tiene que ser igual al menos a la que necesitamos para “consumir” los contenidos que descargamos. Por eso, las emisiones en tiempo real son más demandantes de ancho de banda que los servicios P2P para descarga de archivos que se visualizan en otro momento.

Para la música en estéreo, unos 150kbps nos ofrecen ya una calidad equiparable a un concierto (calidad CD), aunque los oídos más finos apreciarían mejoras hasta los 300kbps. Las imágenes en color a 24 bits ofrecen suficientes millones de colores como para considerarlas “true color” y algunos abogados así se lo exigen a Apple. La resolución típica de un monitor de ordenador es muy pobre (unos 80dpi) en comparación con las impresoras (más de 600dpi) y se necesitarían interfaces gráficos hasta 1200dpi para llegar a la misma calidad que el material impreso. En cuanto al tamaño de pantallas, cada vez son más grandes, si bien el límite en cuanto a productividad está en las 24″ según un artículo del WSJ basado en un estudio de NEC. Pero si quisiéramos monitores de 1200 dpi con el mismo tamaño de un periódico, estaríamos hablando de unos 48K x 32K pixels. En el caso del vídeo, la tasa de 60 frames por segundo es lo más habitual, aunque necesitamos 120 para conseguir una imagen ideal. Aún nos faltan muchos años para ver monitores con resolución de 48Kx32K, 24-bit y 4.6GB de videoRAM, pero si echas las cuentas con una tasa de refresco de 120 fps, eso justifica la necesidad de 1-4 Tbps.

Todo lo anterior es pura teoría, porque la práctica parece demostrar justo lo contrario, cada vez somos menos exigentes en cuanto a la calidad de imagen. La gran mayoría se conforma con la resolución de los vídeos en YouTube, que me recuerda a los tiempos del VHS. Lo que entendemos por TV alta definición (720p) es muy inferior a la resolución de los monitores para PC. ¿Es que no somos suficientemente exigentes? Y si es así, ¿entonces por qué esa obsesión con ofrecer redes de mayor velocidad?

Zyb, todo un ejemplo de convergencia

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 4,00/5)
Loading ... Loading ...

Anque Zyb ya lleva tiempo en funcionamiento como servicio web en el que poder realizar back-up de los principales datos que manejamos en el móvil: agenda de contactos, calendario y mensajes, me ha sorprendido ver cómo está complentado su oferta. Al tradicional “store your phone” se le ha añadido “connect with friends” y “share your life”.

home_art.gif

El servicio permite, entre otras cosas, gestionar el teléfono de manera online (añadir o editar números de teléfono, contactos y eventos de calendario), transferir contactos y eventos a un nuevo teléfono así como a otro tipo de dispositivos y gestionar los portales de redes sociales del usuario como facebook, myspace, twitter, linked-in, etc. relacionando los datos de la agenda con las páginas de estas redes sociales.

Todo un ejemplo de convergencia, acercando el mundo móvil y el de Internet y sobretodo aproximando cada vez más la manera en la que las personas nos interrelacionamos.

screens_people.jpg

100 Mbps en el Hogar: “una bamba de nata para casi todos…”

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 5,00/5)
Loading ... Loading ...

(por David Serrano Aranda)

No hay más que echar un ojo a los principales suministradores de electrónica de consumo: Sony, Philips; los grandes actores de siempre: Microsoft, Apple; o a los Internet players Google, Yahoo, etc. El posicionamiento estratégico de estas empresas para vender sus soluciones dentro del hogar es muy agresivo. Valga a modo de ejemplo significativo el Apple TV, más remozado que nunca, apuesta por soluciones de entretenimiento en el hogar, ya en High Definition e incluso obviando la existencia del PC en el hogar.

Lo cierto es que todos estos actores antes mencionados, están encantados de la vida con un escenario en el que el Operador ponga a su disposición a una tarifa plana, más o menos asequible, un “canuto” de 100Mbps. Teniendo en cuenta que Telefónica con su estrategia FTTH va en esa dirección… ¿qué oportunidades tienen los operadores de no convertirse en un meros “carrierS de datos”?

La solución es compleja por motivos muy diversos: la lucha contra estos monstruos de la industria y de Internet no es sencilla, tampoco es fácil dar el paso para proporcionar servicios dentro del hogar controlando la cadena extremo a extremo (Imagenio es el caso más relevante). Es complejo luchar en el mundo de los servicios desde un Operador, existe una gran incertidumbre respecto al posicionamiento del regulador, etc. En fin, así se podría seguir enumerando posibles escollos en el camino. En cualquier caso, sea cual sea el resultado final, lo que sí que debería estar claro es que para la lucha que se avecina los operadores deben prepararse al menos en:

  • Saber “dosificar” el ancho de banda dentro del hogar. Los servicios best effort no pueden campar a sus anchas en el hogar.
  • Tener una estrategia basada en servicios, no en conectividad. Esta estrategia debe guiar todos los diseños técnicos desde la red del usuario, las redes de acceso, agregación y núcleo, además de las plataformas y los propios servicios. Esto que parece una obviedad NO es la estrategia que están aplicando ahora las operadoras incluso en el enfoque del despliegue de la fibra.
  • Posiblemente buscar escenarios de copetencia con los grandes rivales. Apoyarse en la electrónica de consumo como players de los servicios del Operador. Identificando incluso los servicios potenciales a proporcionar ante la detección de estos dispositivos.
  • Aprender de los errores y experiencias del despliegue de servicios en el hogar.
  • Aprovechar el potencial de cada operadora y contemplar el hogar como una extensión de su red en la que pueda aplicar criterios de calidad y excelencia.

La conclusión es que está en manos de los operadores de telecomunicaciones evitar caer en su propia trampa si el desarrollo tecnológico de sus redes no tiene puesto un ojo más allá del router ADSL del usuario . El tiempo apremia y hay que moverse rápido.

Innovación transformativa y sistemas dinámicos de precios

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

En un artículo de Phil McKinney sobre innovación transformativa se plantea una definición de distintos tipos de negocios:

  • If you charge for undifferentiated stuff, then you are in the commodity business.
  • If you charge for distinctive/differentiated tangible things, then you are in the goods business.
  • If you charge for the activities you perform, then you are in the service business.
  • If you charge for the time customers spend with you, then and only then are you in the experience business.
  • If you charge for the benefit customers (or “guests”) receive as a result of spending that time, you are in the transformation business.

Hasta hace unos años, las operadoras de telecomunicaciones eran negocios que ofrecían servicios de red cobrando por establecer un canal de comunicación (ya sea una llamada telefónica o una conexión de datos) a través de sus redes de telecomunicaciones. Pero la liberalización del mercado ha fomentado la aparición de nuevos competidores y el transporte (red) se ha convertido prácticamente en una commodity.

200711301145.png
Por eso, aquellas operadoras que no quieran entrar en una guerra de precios tienen que necesariamente pasar al siguiente nivel. De hecho, el mensaje que hoy en día emiten las principales operadoras incumbentes (algunos entrantes “prefieren” ser los más baratos) está más cercano al concepto de negocio basado en la experiencia de usuario, en el que se cobra por el tiempo que se utilizan los servicios basados en la conectividad que proporcionan las redes. No es tanto una tarifa por la utilización de una red de comunicaciones durante un tiempo sino más bien un pago por disfrutar de un servicio (pago por uso).

Según Phil McKinney, el siguiente paso está en la innovación transformativa, ser capaz de crear nuevos modelos de negocio en los que se cobre en función del beneficio que los clientes obtienen por la utilización de los servicios. Podríamos decir que es un modelo parecido a lo que las compañías aéreas vienen haciendo desde hace mucho tiempo. Las tarifas aplicadas en los billetes de avión son muy dinámicas, en función de distintos factores como el momento de la compra, la flexibilidad de cambios, la ocupación del avión, etc. Uno puede viajar en el mismo vuelo, sentado en una butaca justo al lado de otro pasajero que ha pagado un precio totalmente distinto (mayor o menor) pero los dos recibimos el mismo servicio. Algo así ocurre igualmente en eBay, ya que al tratarse de una subasta el precio que uno acaba pagando por un artículo depende del interés que otros pujadores hayan mostrado en el mismo artículo.

En el caso de las telecomunicaciones no es fácil implantar ahora mismo este tipo de sistemas dinámicos de precios, por los problemas de regulación y por las reacciones que ha despertado el debate sobre la Network Neutrality. Y es que la filosofía de Internet parece ser que todos deben tener los mismos derechos (servicios). No obstante, desde un punto de vista de negocio, está claro que a una operadora le interesaría poder cobrarle más a quien más necesita o se beneficia del servicio y además puede permitirse pagar por ello.

Las tarifas con tramos horarios o con límites de tráfico, que se vienen aplicando desde hace tiempo en móviles y ADSL, son un tímido intento de fijar precios personalizados. Llegar más lejos, supondría poder conocer el beneficio que obtienen los usuarios para cobrarles en función de ello. Aunque existen tecnologías para analizar el tráfico de red (DPI – Deep Packet Inspection), se aplican principalmente para funciones de gestión de tráfico y seguridad. Pero si las redes fueran capaces de discernir el valor que para los usuarios tiene el uso de un servicio, podría entonces aplicarse un sistema más dinámico de precios.

Ya lo dijo hace tiempo el poeta Antonio Machado: “Solo el necio confunde valor y precio“.