Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Tendencias 2009 y más allá (2)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 1,00/5)
Loading ... Loading ...

Continuamos la serie de entradas dedicada a las tendencias tecnológicas para el año 2009 y más allá.

Siguiendo con los dispositivos, merece la pena recoger lo que los fabricantes de teléfonos móviles han presentado en distintos eventos con su visión del futuro.

Sony Ericsson, en una conferencia de prensa (“Mobile Phones Will Shoot Full HD Video in 2012“), con el horizonte puesto en 2012, habla de dispositivos muy potentes, equivalentes en capacidad de cálculo a los ordenadores convencionales, y alimentados con conexiones a 100Mbps bajo la llamada “HSPA evolution”. Contarán con cámaras en el rango de los 12 a 20 Megapíxeles que permitirían grabar video Full HD. En el otro extremo, contarían con pantallas con resolución XGA (para vídeo HD es preciso llegar a 720 ó 1080 píxeles).

La Agenda 2015 de Nokia se fija en los principales temas hacia los que se va a enfocar su actividad de innovación, lo que hace que sea más una guía de tendencias futuras que de referencias concretas. Las ocho áreas clave definidas por Nokia son:

  • Modelado de usuarios y su contexto, lo que no sorprende en absoluto ya que la personalización y adaptación al contexto son temas con una fuerte proyección en todo el mundo de las tecnologías de la información.
  • Dispositivos móviles adaptativos, sacando partido del punto anterior.
  • Interfaces “humanos”, o más bien interfaces adaptativos que evolucionan con sus usuarios.
  • Realidad “mezclada”, o enriquecida, o aumentada, el término más habitual para estas técnicas.
  • Creatividad: medios para fomentar y canalizar la creatividad colaborativa de los usuarios.
  • Plataformas de servicio escalables. Otra tendencia aceptada generalmente dadas las magnitudes que alcanza rápidamente cualquier servicio con éxito.
  • Internet of Things, definida como la capacidad para percibir, interactuar y localizar cualquier cosa en cualquier sitio.
  • “Dynamic Wireless”, servicios que permiten usar dinámicamente los recursos en red, sobre todo los liberados. Parece que apuntan a teléfonos móviles que no se ciñan a una única tecnología (GSM, UMTS, …)

Estos y otros nuevos dispositivos ayudarán a ahondar en la fuerte tendencia hacia el acceso ubicuo a servicios y informaciones. Un mundo “todo online” en el que sea muy fácil acceder a los datos y herramientas personales, desde cualquier lugar, y sin tener siquiera que contar con dispositivos propios. Esto supondrá una migración masiva hacia la red, y una mejora en acceso, fiabilidad y precios de las redes. Este movimiento es universal, aunque a distintas velocidades: mientras en algunos países se manifiesta en la adquisición de un teléfono móvil y el uso de SMS, en otros supone el acceso móvil a la banda ancha y el despliegue de fibra. Éste último proceso será uno de los más decisivos en 2009.
Una consecuencia de esta mayor conectividad será que la gestión de la identidad se convertirá –más aún- en un elemento crítico. Las amenazas de todo tipo se volverán más complejas y sofisticadas, en este terreno y en el de la seguridad, que puede alcanzar nuevas cotas en difusión e intensidad de ataques y amenazas.
La multitud de dispositivos disponibles, el hecho de que los usuarios tiendan a contar con varios de ellos, y que esperan recibir una misma la información y servicios en ellos, hace muy necesario el desarrollo de soluciones de sincronización que simplifiquen la gestión y mejoren la experiencia de los usuarios.
Otra dimensión más de la tecnología centrada en el usuario, es la localización. No es una novedad, 2008 ha visto un enorme crecimiento, pero 2009 puede ser el momento de la definitiva popularización y difusión de los servicios basados en el uso del GPS y otras tecnologías similares junto con la banda ancha móvil.
Aunque aún retenga gran parte de su importancia los contenidos locales, y la ejecución de aplicaciones sobre los dispositivos personales, a medio plazo el acceso ubicuo propiciará una migración hacia “The Cloud” la nube de recursos de proceso, almacenamiento y conexión en la que cada vez más empresas confían sus recursos, y que alberga un número creciente de servicios y aplicaciones para los usuarios finales. En 2009 seguiremos viendo nuevas propuestas de nubes desde distintos actores, aún lejos de la etapa de consolidación y clarificación del mercado.
El desarrollo de las soluciones cloud se verá beneficiado por la crisis, ya que una de sus promesas es la de un ahorro de costes derivado de la virtualización de planta, y la flexibilidad de configuración, muy atractivas para muchas empresas.

En cuanto a contenidos, parece que la creciente predilección por los juegos en lugar de otros modos de entretenimiento, como el cine, será más acusada, y eso tiene importantes consecuencias en varios frentes: una mayor predilección por pasar más tiempo en casa (a lo que ayudará la crisis), adquisición de equipos complementarios para consolas (un mercado con un crecimiento enorme y sin la competencia de la piratería), una mayor predilección por los juegos en red, y un relativo declive de soportes y medios para la reproducción de audiovisuales. En los últimos dos años se está detectando un deterioro en la calidad de las producciones cinematográficas convencionales, a favor de las series y los juegos. Nuevos formatos, como el cine 3D, están tratando de sacar a los espectadores de casa y llevarlos a salas cada vez más vacías.
El declive de los medios convencionales, especialmente en los impresos, desde los periódicos a los libros, será más acusado por el efecto de la crisis, aunque tampoco hay que dejar de lado las señales de alarma que se ciernen sobre la televisión, siempre a favor de medios interactivos y basados en la conectividad, esencialmente juegos y servicios de Internet.

La Web 2.0 se ampliará y consolidará llegando por un lado a capas cada vez más amplias de la población, y por otro, el de los usuarios más inquietos, ampliando el efecto de una tendencia que vimos nacer recientemente: el microblogging y el lifestreaming, que será, sobre todo éste último, el que alcance mayor protagonismo en 2009.

La crisis también va a suponer un apoyo decisivo para el freeware y los servicios y contenidos gratuitos, muy baratos o pagados con publicidad. El éxito de la App Store del iPhone con precios muy bajos está marcando el camino.

Hay quien pronostica un futuro prometedor para reconocimiento de voz, sobre todo apoyado en aplicaciones móviles sobre dispositivos personales. Los asistentes personales empezarían así a popularizarse a lo largo de 2009.

La eficiencia y el ahorro energético, la presencia ubicua del prefijo “eco-“, o de un matiz verde a todo lo que rodee la tecnología será tan habitual que no parecerá una tendencia innovadora. La presión hacia el enfoque energético va a depender mucho de la evolución de los precios, impredecibles a causa de la crisis.

Menos evidentes, hay otros movimientos que no hay que dejar de lado, sobre todo por que impacto será manifestará a medio plazo. Por ejemplo, los desarrollos en pantallas, con dispositivos flexibles, tecnologías OLED, y las primeras experiencias masivas en papel electrónico, que en breve será en color.
HTML 5 es la nueva versión de un elemento básico en la Web, y que yace olvidado bajo capas de código y una legión de herramientas. La adopción de esta nueva versión simplificará la implementación de funcionalidades complejas, acelerando el desarrollo de servicios.

12 tendencias tecnológicas que marcarán los próximos 5 años (2009-2013)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 9. Media: 4,00/5)
Loading ... Loading ...

Diciembre y enero son tiempo de predicciones y pronósticos. No nadie en este mundillo técnico que no tenga su propia lista de tendencias, y en La Cofa no vamos a ser menos. El año pasado publicamos nuestra lista con las tendencias más importantes -en nuestra opinión- hasta el final de la década. Esta vez, nos ponemos un horizonte de cinco años para estas tendencias.

Comparando las dos listas, se puede ver que hay corrientes de fondo (“la banda ancha” y “super ancha”, “Internet sin PC”, “la infraestructura semántica”), y otras que han cambiado en su enfoque (de “fabricación personal” a “FIY y hacking”, de “Metaversos” a “la mezcla de información real y virtual”), pero no hay cambios disruptivos, lo que en sí mismo puede considerarse una tendencia.

Quedamos abiertos a comentarios y sugerencias, e iremos ahondando en cada uno de estos temas en próximas entradas. La lista de las 12 tendencias es:

  • La banda “super ancha”, entendida como la disponibilidad de redes de acceso con velocidades muy superiores a las disponibles en la actualidad amén de estar disponibles de forma ubicua.
  • Los interfaces multisensoriales, que utilizan al máximo nuestros sentidos para mejorar la forma en la que interactuamos con las máquinas y que se basan en el uso de la voz, los gestos, el tacto, la vista, la mente o la expresión de emociones.
  • Las nubes de computación, como estructura básica sobre la que se ejecutan las aplicaciones informáticas aprovechando la disponibilidad de comunicación y el abaratamiento de los componentes electrónicos.
  • La mezcla de información real y virtual, en ambos sentidos, tanto enriqueciendo el mundo real con información añadida como introduciendo información del mundo real en los mundos virtuales.
  • El modelado del contexto, o la utilización de la información que rodea al individuo como punto de partida para modificar la forma en la que se ofrece un servicio.
  • La Internet sin PC, que sale del ordenador personal y es accesible desde otros muchos dispositivos y lugares, adaptada al medio y al entorno.
  • El 3D, que es parte natural de nuestras vidas pero que habíamos aplanado en nuestra relación y que ahora parece estar próximo a ser recuperado.
  • DIY y hacking, como versión tecnológica del “bricolaje” que tradicionalmente se ha hecho en el hogar.
  • La comunicación sin personas, que se consigue cuando aportamos a los objetos capacidad de comunicarse con el mundo que le rodea e intercambiar información, por muy elemental que parezca, con él.
  • La infraestructura semántica, entendida como la tecnología básica que permite a los ordenadores entender información semántica, procesarla y acercarse un paso más en su papel de ayudar a las personas.
  • La sostenibilidad energética, que va a ser necesaria en un entorno en el que la utilización de la energía que van a necesitar los dispositivos electrónicos se va a acelerar en los próximos años.
  • La interoperatibilidad y la extensibilidad, que es necesaria para hacer converger todos los dispositivos y toda la información que rodea las vidas de las personas.

lacofalogo

El Futuro de Microsoft (y II)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 2,50/5)
Loading ... Loading ...

por Javier Álvarez

(Esta es la continuación del artículo anterior en el que se repasa la evolución futura de Microsoft)

The Cloud: Azure, Live Mesh y el Office en red
En el PDC de este año en Los Angeles Microsoft presentó al mundo una nueva versión de su archifamoso sistema operativo Windows denominado Azure. ¿Y qué es Azure? ¿Es simplemente un nuevo sabor de de Windows Server 2008? No, Azure es algo completamente diferente a las versiones de Windows a las que estamos acostumbrados a utilizar los usuarios de sistemas operativos Microsoft.
“Azure + Services Platform” representa la gran apuesta de Microsoft por intentar hacerse un hueco en la Web y conseguir replicar en ella el modelo que tanto éxito le dio en el mundo PC de ofrecer a sus socios y clientes un sistema operativo que les facilite la creación, gestión, despliegue y consumo de aplicaciones.
Son varias las diferencias de Azure frente a un sistema operativo Windows tradicional:

  • Sus usuarios potenciales no son los clientes finales u operadores sino que son los desarrolladores de aplicaciones.
  • El software no se instala en los PCs de los usuarios o los Data Centers de las empresas, sino que residirá en los Data Centers de la propia Microsoft que serán desplegados por el mundo.
  • El modelo de pago no estará basando en un modelo de licencia sino en un modelo de pago por uso.
  • Está diseñado para ofrecer a las aplicaciones escalabilidad a nivel de Internet que es superior a la escalabilidad necesitada por las aplicaciones on-premise.

Y algunas las similitudes con las últimas versiones de Windows:

  • La plataforma de desarrollo nativa para Azure es .Net Framework, aunque permitirá desplegar cualquier tipo de aplicación o servicio mediante una infraestructura de virtualización.
  • Las herramientas de desarrollo y conocimientos necesarios para construir las aplicaciones en la nube serán las mismas que las que se utilizan habitualmente para construir aplicaciones clientes.
  • Ofrece a los desarrolladores servicios básicos para la construcción de aplicaciones: almacenamiento, Infraestructura e Identidad

¿Es Azure algo innovador? La realidad es que no, Google con su App Engine o Amazon con su EC2 hace tiempo que han lanzado al mercado productos similares, pero no ser los primeros no es algo que preocupe en demasía a Microsoft: su experiencia pasada les ha demostrado que no es necesario ser los primeros para ganar, y por ello su política de empresa “extend and embrace” les hace sentirse más cómodos en el papel de seguidores que de innovadores disruptivos.
Esta forma de operar consistente en analizar un producto o servicio exitoso para invertir tiempo y dinero en extraer sus fortalezas y añadirlo a su catálogo de productos les ha dado mejores resultados que algunas de sus propias propuestas de innovación 100% propias de la casa: como los relojes SPOT, Bob interface, etc.
Azure no es un elemento aislado dentro la estrategia de Microsoft si no que, como se muestra en la figura siguiente, es la piedra angular del conjunto de servicios denominados Azure Service Plattform que Microsoft ofrece a la hora de crear aplicaciones diseñadas específicamente para la nube o bien a la hora de extender aplicaciones on-premise con las ventajas de las funcionalidades ofrecidas por estos servicios alojados en la nube:

Los servicios que engloba Azure Services Platform son:

  • Live Services: Permite acceder a la información almacenada en los diferentes servicios Live de Microsoft además de permitir sincronizar los datos entre los PCs y los diferentes dispositivos y/o servicios.
  • Microsoft .NET Services: Ofrece control de acceso para ayudar a hacer más seguras las aplicaciones, un bus para comunicar las aplicaciones y workflows para controlar la ejecución de las tareas.
  • Microsoft SQL Services: Ofrece en la nube las funcionalidades de una base de datos en la Web.

Otro de los anuncios significativos que realizo Microsoft en el PDC fueron sus planes de ofrecer una versión Web su paquete Office para ser consumido desde un navegador denominado Office Web Applications y que será ofrecido en un modelo de pago por uso.
Esta versión ofrecerá Word, Excel, PowerPoint y OneNote con una funcionalidad algo más reducida pero con dos grandes alicientes: permitirá a varias personas colaborar de forma simultánea sobre el mismo documento y ofrecerá a los usuarios una experiencia uniforme independientemente de si acceden desde un PC, un móvil o un teléfono permitiendo con ello que puedan trabajar independientemente del dispositivo que estén utilizando en ese momento.
Con este servicio Microsoft sigue afianzándose en su estrategia de Software + Servicios (S+S) permitiendo a los usuarios trabajar en un modo mixto que les permite a sus clientes hacer uso de la productividad que ofrece el paquete Office tradicional cuando se encuentren en su PC con la versatilidad que ofrece el servicio Office Web cuando el usuario se encuentre viajando, trabajando de forma remota o incluso utilizando otro tipo de dispositivo diferente al ordenador personal.
Otro producto de Microsoft englobado dentro de S+S que es importante destacar dentro del ecosistema Microsoft es la plataforma Live Mesh. Esta plataforma viene a cubrir las necesidades desencadenadas porque en la actualidad los usuarios de Internet disponemos de más de un dispositivo en el que guardamos programas e información. Sus principales funcionalidades son:

  • Sincronización, permite mantener los sincronizados los ficheros entre los diferentes dispostivos
  • Compartición, permite compartir una carpeta de información con otros usuarios y monitorizar los cambios que se produzcan
  • Acceso, permite acceder a la información desde un navegador y conectarse de forma remota a los diferentes dispositivos que forman el mesh.
  • Extensible, en realidad es una plataforma de desarrollo, permite utilizar el mecanismo de sincronizar para mantener al día no solo ficheros sino cualquier tipo de información

En el futuro dedicaremos un espacio en este mismo medio a hablar de Surface, la nueva forma de interacción con el usuario, otro de los elementos clave de la nueva estrategia de Microsoft.

EmTech 2008 – El futuro de la computación según Microsoft

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 8. Media: 3,25/5)
Loading ... Loading ...

Siguiendo con la revisión de la conferencia de tecnologías emergentes de este año, llegamos a la presentación que más expectación creó, y que más comentarios ha generado, la que hizo Craig Mundie, Chief Research and Strategy Officer de Microsoft sobre la visión a la plazo de Microsoft sobre el futuro de la computación.

Algunos de los temas de interés para Microsoft que destacó en su presentación pueden ser sorprendentes: eHealth, “Many cores”, Mercados emergentes, y Robótica, por ejemplo.

La evolución de la computación sigue una serie de “olas”. La próxima, aquella para la que se están preparando en Microsoft, estará definida por un paradigma que ha llamado “Client + Cloud”.

Y la respuesta de Microsoft es el Spatial Computing, un mundo con fronteras difusas entre lo real y lo virtual, definido por una serie de atributos clave:

  • Procesadores de varios núcleos (many-core processors)
  • Programación en paralelo, que considera uno de los elementos clave del futuro
  • Conexión continua y “”fully productive”
  • Sensible al contexto y basada en modelos
  • Personalizada, adaptativa, “humanística”
  • Inmersiva y 3D
  • Usando la voz, la visión y los gestos

El concepto de “Natural UI” es uno de los elementos básicos de esta computación espacial, e implica una nueva formar de dialogar con los usuarios, y “vestir” los ordenadores para que sean realmente ubicuos.

En esa nueva generación, en la que cada vez más y más funciones van a parar al Cloud ¿acabará siendo el sistema operativo algo irrelevante? La verdad es que Mundie llego a decir que el público demanda aplicaciones no SO. Aunque también es cierto que dejó un hueco para los sistemas operativos, mostrando un reparto de tareas entre lo que iría al cloud, y lo que quedaría en manos del cliente. En el primer caso tendríamos funciones más intensivas en computación y acceso a datos, y en el segundo las que interactúan con el entorno y el usuario, incluida una, “Synth Building” que aparece como uno de los elementos básicos de todo este entramado, y en el que la compra de PhotoSynth muestra toda su lógica:

Para ilustrar este nuevo concepto realizó una serie de demostraciones, que aún siendo en algunos casos modelos preliminares, mostraron en funcionamiento conceptos muy avanzados.

Una evolución de estas técnicas fue un mundo real “enriquecido” en el que los objetos daban paso a información, y en el que se iba del mundo real a uno virtual continuamente. Partió de una revista, que fotografió y envió desde su móvil a un interface Surface donde amplió información sobre el contenido del artículo, que le llevó a una representación virtual del entorno de una galería de arte, donde podía navegar, para acceder a información sobre los cuadros y objetos, y todo ello al daba lugar a final a una conversación con otra persona para discutir sobre la adquisición de un cuadro. El uso de fotografías y la creación de representaciones virtuales –vía PhotoSynth- a partir de ellas, el mostrar una realidad enriquecida con información sobre vistas reales, u objetos, e interfaces táctiles tipo surface fueron sólo algunas de las tecnologías empleadas en la demo.

También llamó mucho la atención su recepcionista robotizada, capaz de identificar personas, mantener varias conversaciones razonables con ellas, y priorizar su atención. Se trata de un demostrador de muchos de los conceptos mencionados por Mundie incluyendo la programación paralela y el uso de procesadores de varios núcleos.

Quizá lo más interesante de toda la presentación de Mundie fue reconocer que la killer aplication de esta nueva evolución en la computación está aún por crear y que hay un enorme campo por delante para llegar hasta ella.

Al final, en respuesta a una persona del público, enumeró las tres tecnologías más importantes para el futuro:

  1. Todas las relacionadas con parallel computing
  2. Tecnologías de modelado
  3. Tecnologías de sensores

Todas las entradas de la serie:

Predicciones de Gartner frente a predicciones de La Cofa

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 3,00/5)
Loading ... Loading ...

Resulta un ejercicio sano comparar las predicciones que hace uno con las que hacen los demás. Este blog hizo las suyas allá por el principio de este año. Con una filosofía semejante Gartner publica las suyas.

Si las comparamos, tendríamos 5 claras coincidencias y 5 divergencias. El medio año de diferencia entre ambas podría justificar alguna de las diferencias pero no todas y en el fondo se trata de dar prioridad a unas frente a otras. Visto en perspectiva, las nuestras fueron algo más arriesgadas al introducir conceptos menos convencionales. Mientras que las de Gartner son mas continuistas y se centran en aspectos más conocidos que se potenciarán en los próximos años.

En cualquier caso nos gustaría conocer vuestra opinión. ¿Os animáis?

Nuevas perspectivas en la presentación de la información: la TEDsphere de Bestiario

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 2,00/5)
Loading ... Loading ...

Con frecuencia se han aludido a las TED talks (al hablar de Photosynth, o los mapas de la blogosfera), un evento que periódicamente junta a personas muy destacadas en ámbitos tan diversos como la interpretación musical, la demografía o el software. Se trata de una fuente muy recomendable para conocer de verdad y de primera mano las corrientes que están definiendo el mundo futuro.
Si a las TED Talks añadimos un interface espectacular que permite visualizar las relaciones entre presentaciones, información detalladas y hacer filtrados sobre tags, entre otras posibilidades, tenemos la TEDsphere, una herramienta por la empresa Bestiario, de Barcelona. Una herramienta muy útil, imaginativa y recomendable:

Jornada de Puertas abiertas y Open Innovation Forum en Telefónica I+D (2)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 3,50/5)
Loading ... Loading ...

Continuación del post sobre la Jornada de Puertas Abiertas celebrada en Telefónica I+D

La segunda parte de la Jornada se dedicó a una serie de demostraciones de tres temas centrados en el usuario, y con un mismo hilo conductor: la progresiva desaparición de la frontera entre el mundo real y virtual en favor de la personalización de productos y servicios, el bienestar, el entretenimiento, la información y las relaciones sociales, donde los límites se desvanecen, tanto en la forma de interactuar con el mundo que nos rodea como en la manera de comunicarnos.

En el ocio se pudo ver, por ejemplo, servicios accesibles desde cualquier dispositivo (PC, televisión y teléfono móvil), permitiendo así la movilidad y en segundo lugar, la interacción.

El ejemplo que pudimos ver se basaba en interactuar con la televisión a través de un mando de la consola Wii, así, durante un partido de fútbol el espectador desde su casa podría elegir la posición de la cámara, seleccionar diferentes panorámicas a la vez y consultar las estadísticas del partido en tiempo real, lo que en resumen podría definirse bajo el eslogan de “Diseña tu propia televisión”.

Otra demostración fue la del “Product Placement Interactivo” que permitiría comprar mientras ve un programa de televisión productos mostrados en él (ropa, electrodomésticos, …). Es posible combinar esta forma de publicidad con anuncios personalizados según los intereses expresados por cada usuario.

El segundo tema presentado fue la Teleasistencia, que se está desarrollado en la sede de Telefónica I+D en Granada. Se pudo ver una presentación espectacular mostrando los progresos en eHealth a través de un sistema de reconocimiento de patrones que nos dejó a todo el mundo impresionado. También se mostró el proyecto COLABOR@, que ya está en funcionamiento en el Hospital Costa del Sol, y que permite a los diferentes profesionales del sector sanitario comunicarse a través de multivideoconferencia, mensajería instantánea, o crear y mandar informes automáticos, lo que le ha convertido en pionera en HL7 (Health Level Seven), un estándar para el intercambio de información médica.

Con el fin de crear soluciones adaptadas a las distintas necesidades y en pro de la igualdad de oportunidades se está desarrollando FAAS, destinado a personas con discapacidad auditiva. Se basa en un sistema de teleinterpretación a través del cual podrán acceder a servicios telefónicos y de emergencia mediante una videollamada atendida por uno de los operadores que en la actualidad trabajan en un centro piloto de interpretación, y así atender los requerimientos de los usuarios.

Se enseño también un sistema de la asistencia a ciegos, para cuyo funcionamiento se está empleando un auricular con bluetooth y un teléfono móvil que en mandaría a través de la cámara las imágenes que rodean al individuo a un videocallcenter en el que de nuevo un operador, siguiendo un sistema parecido al GPS, iría indicándole la ruta a seguir o los puntos de interés cuando la persona se encuentre en un lugar para él desconocido hasta entonces.

La tercera parte de la sesión de demostracione se dedicó a Servicios Emergentes de Internet y Multimedia. En primer lugar se mostró PINCHOS, un sistema que permite definir widgets multidispositivo para ordenador, la televisión y la telefonía móvil. Estos widgets, que operan con todo tipo de servicios de Internet (Wikipedia, Google, MySpace, Youtube, Imdb, Facebook) pueden sincronizarse entre dispositivos, y programarse para distintos usuarios.

Otros servicios se basan en el uso de acelerómetros, interfaces táctiles y reconocimiento de imagen, con los que se avecina una nueva forma de acceder a la información: jugar a un videojuego a través de los movimientos de la mano o descubrir una nueva dimensión fotográfica girando la cabeza. En este sentido se pudo ver un interface gestual que permitía la edición de fotografías en un teléfono móvil moviendo el dispositivo.

El futuro de la interacción persona-ordenador (HCI) según Microsoft

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 1,00/5)
Loading ... Loading ...

Microsoft Research ha publicado recientemente un documento (“Being Human“) con su visión sobre los interfaces de usuario en torno al año 2020.

Vendedor callejero de móviles en África
Un vendedor callejero de móviles en África. La difusión de la tecnología ha superado barreras sociales, culturales y económicas

Según este informe, las fronteras entre ordenadores y personas se irán volviendo más confusas a medida que los integremos en nuestra vida, y en nuestros cuerpos. El concepto de “interface” puede volverse más difuso, al confundirse los ordenadores en el ambiente, integrarse en todo tipo de objetos y dispositivos, y usar la interacción basada en los gestos, la voz, el tacto, o la detección de nuestras emociones.
Iremos generado una progresiva dependencia de los ordenadores, que exigirá de ellos una mayor fiabilidad, durabilidad y eficiencia. Otra dependencia que podemos vislumbrar sin esfuerzo es hacia la conectividad en forma de un mundo “hiperconectado”

Los interfaces del futuro tendrán menos que ver con la “experiencia” de usuario, y más con sus valores. La tecnología dejaría de ser neutral para transmitir valores humanos, culturales y sociales. El diseño precisará pasar por una fase de “comprensión” para analizar los valores involucrados en un desarrollo concreto.

The Reactable: interface táctil para la generación de música

Algunas ideas sobre tendencias de futuro contenidas en el documento son:

  • De la era de la movilidad actual, llegaremos en 2020 a la era de la ubicuidad.
  • Los componentes biológicos y electrónicos se integrarán de nuevas formas, entre las que no hay que descartar el uso de implantes en nuestros cuerpos.
  • Cada vez será más frecuente el uso de dispositivos móviles para interactuar con objetos del mundo real, haciendo que se conviertan en extensiones de nuestras propias manos apuntando y haciendo gestos
  • Los robots se convertirán en máquinas autónomas con capacidad de aprendizaje
  • Crearemos un mundo digital cada vez más personalizado y ajustado a nuestras necesidades
  • La visión de un ordenador para cada niño del mundo estará más cerca de ser una realidad
  • Quedará muy poca gente en el mundo sin acceso a un teléfono móvil

Citando a:

Más ancho de banda, más velocidad,… ¿hasta cuánto?

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 4,00/5)
Loading ... Loading ...

Aparentemente, el progreso en las redes de acceso está supeditado al ancho de banda que ofrecen. Cada nueva generación de redes fijas o móviles, básicamente lo que ofrece es mayor velocidad. Sí, claro que está muy bien que nos dupliquen la velocidad del ADSL cada cierto tiempo o que desde el móvil podamos conseguir navegar incluso más rápido que con las líneas ADSL. Y a quién no le seduce tener fibra óptica en la red de acceso, con más de 50Mbps, pero… ¿hasta cuánto es suficiente?

200804020851.png

Según el análisis de Jakob Nielsen, desde un punto de vista de factores humanos, estaría justificado llegar hasta entre 1 y 4 terabits por segundo dependiendo del factor de compresión. Simplificando el análisis, la velocidad que debería darnos la red de acceso tiene que ser igual al menos a la que necesitamos para “consumir” los contenidos que descargamos. Por eso, las emisiones en tiempo real son más demandantes de ancho de banda que los servicios P2P para descarga de archivos que se visualizan en otro momento.

Para la música en estéreo, unos 150kbps nos ofrecen ya una calidad equiparable a un concierto (calidad CD), aunque los oídos más finos apreciarían mejoras hasta los 300kbps. Las imágenes en color a 24 bits ofrecen suficientes millones de colores como para considerarlas “true color” y algunos abogados así se lo exigen a Apple. La resolución típica de un monitor de ordenador es muy pobre (unos 80dpi) en comparación con las impresoras (más de 600dpi) y se necesitarían interfaces gráficos hasta 1200dpi para llegar a la misma calidad que el material impreso. En cuanto al tamaño de pantallas, cada vez son más grandes, si bien el límite en cuanto a productividad está en las 24″ según un artículo del WSJ basado en un estudio de NEC. Pero si quisiéramos monitores de 1200 dpi con el mismo tamaño de un periódico, estaríamos hablando de unos 48K x 32K pixels. En el caso del vídeo, la tasa de 60 frames por segundo es lo más habitual, aunque necesitamos 120 para conseguir una imagen ideal. Aún nos faltan muchos años para ver monitores con resolución de 48Kx32K, 24-bit y 4.6GB de videoRAM, pero si echas las cuentas con una tasa de refresco de 120 fps, eso justifica la necesidad de 1-4 Tbps.

Todo lo anterior es pura teoría, porque la práctica parece demostrar justo lo contrario, cada vez somos menos exigentes en cuanto a la calidad de imagen. La gran mayoría se conforma con la resolución de los vídeos en YouTube, que me recuerda a los tiempos del VHS. Lo que entendemos por TV alta definición (720p) es muy inferior a la resolución de los monitores para PC. ¿Es que no somos suficientemente exigentes? Y si es así, ¿entonces por qué esa obsesión con ofrecer redes de mayor velocidad?

Tendencias más significativas en ETech 2008

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Pasado un tiempo prudencial desde la finalización de la conferencia, y una vez digerida la información recogida allí, más las reseñas de otros asistentes, parece el momento de hablar de lo más relevante de este ETech.
Hay que tener en cuenta que el ETech es un evento dirigido hacia los llamados “alfa-geeks”, por lo que es más un lugar para pulsar y sopesar la reacción ante propuestas, que para vender productos, servicios o dispositivos para un mercado convencional. Es así, un buen sitio para conocer las tendencias sobre el futuro de Internet, la tecnología, las relaciones sociales, o el concepto que tenemos de nosotros mismos (ahora, “objetos hackeables” según parece).

Las tendencias más significativas se resumen en estos puntos:

  • Hardware Open Source, y conceptos relacionados como el long tail de dispositivos, el DIY (Do it Yourself), o el hacking en todas sus variantes. Ese long tail de dispositivos define al creciente número de equipos (en muchos casos móviles) creados para atender a necesidades muy específicas de los usuarios, y en muchos casos construidos por ellos mismos. El término ha sido muy bien aceptado y conecta muy bien con otra tendencia detectada en el caso del software y los servicios que también pone su foco en la creatividad de los usuarios y en proporcionarles herramientas para que les permitan construir sus propias aplicaciones (y compartirlas).
  • El DIY (Do it Yourself) ha sido otro término omnipresente. El principio es que cualquiera puede crear dispositivos de todo tipo descargando diseños desde Internet y creando o montando los componentes hardware. Hay un creciente número de herramientas que están permitiendo reproducir en el mundo del hardware el proceso que hemos vivido en los últimos diez años en el software: open source, freeware, compartir, y DIY. A diferencia del software, no obstante, estamos hablando de unos componentes básicos físicos, y por tanto industrializables en la forma habitual, y que tienen un modelo de negocio claro y convencional ya que su naturaleza impide la copia y difusión instantánea y gratuita del software. Es decir, que tras estos componentes básicos hay fabricantes, economías de escala, redes de distribución, etc.
  • Todo lo anterior está fuertemente relacionado con el llamado “Maker movement” con webs de referencia como Instructables o Make, dispositivos como Arduino, los Bugs de BugLabs, o las impresoras 3D (especialmente las que se construyen como un kit por los usuarios). Se trata de facilitar a los usuarios la capacidad para que construyan sus propios dispositivos electrónicos reciclando o usando componentes básicos.
  • Y como consecuencia de todo ello, hacking de cualquier cosa. Desde hace ya unos años el hackcing, esto es la modificación de funcionalidad para ampliarla y mejorarla (no el llamado “malicioso” que implica la irrupción ilícita en sistemas ajenos), ha cruzado las fronteras del software haciendo posible la modificación de coches, electrodomésticos y toda clase de dispositivos electrónicos. Un mayor grado de uso de la electrónica, y una mayor difusión del conocimiento disponible sobre todo tipo de productos están ampliando rápidamente el uso de estas prácticas.
  • Augmented Intelligence. Otra consecuencia de esta nueva dimensión más “física” del hacking, es que puede extenderse a otros campos, hasta ahora completamente alejados de estas actividades: el llamado “mind hacking”. Se trata de una forma de mejorar las capacidades mentales y cognitivas de cada persona. Se está moviendo desde aplicaciones médicas y terapéuticas hacia una especie de “mental fitness” con herramientas de Internet, dispositivos, y juegos (y también algunas sustancias). Puede acabar convirtiéndose en un nuevo mercado, de la misma forma que hace 50 años era difícil imaginar una industria organizadas en torno al mantenimiento y mejora físico de nuestros cuerpos, más allá de la rehabilitación hospitalaria.
  • La Energía, y todos los temas relacionados con el medio ambiente, han estado muy presentes en Etech, tanto desde el estrado, como desde las intervenciones del público. El carbon footprint de cada servicio o dispositivo, o el impacto en otras actividades generadoras de CO2 (como los viajes por avión) se están convirtiendo en parte su definición y en una creciente exigencia del público.
    La “alfabetización energética” (Energy literacy) define la información que los usuarios esperan de cada producto o servicio que se les ofrece. Todas las industrias, incluyendo la nuestra, deben tener muy presentes la creciente preocupación de público sobre el calentamiento global, el consumo energético, y la generación de CO2.
  • Futurtainment en Asia. Los usuarios de los grandes mercados asiáticos (sobre todo China, Japón, la India y Corea) están desarrollando nuevas formas de entretenimiento con claras diferencias con respecto al resto del mundo desarrollado. Los elementos clave de este futurtainment o entretenimiento del futuro son: la diversion, la movilidad, la capacidad de cohesión, la coexistencia de fórmulas de alta y muy baja tecnología, el convertir a los usuarios en fans, la inmediatez y la difusión instantánea (fun, mobility, togetherness, coexistence of hightech and lowtech, virtual, complexity, users as fans, and “now” or instant diffusion).
  • Visualización e interacción. Las nuevas formas de visualización, especialmente los gráficos interactivos y dinámicos se están usando para describir una realidad compleja y cambiante. Se han visto formas muy imaginativas de presentar la información como un vista cambiante y en evolución; con vistas superpuestas y acumuladas; y, muy destacado, sobre un contexto geográfico.
    En cuanto a la interacción, los interfaces táctiles, y los juegos colaborativos, han sido algunas de las propuestas presentadas en la conferencia.
  • Reality mining”. El análisis del dinámico mundo real, conocido como “reality mining” es un nuevo dominio de aplicaciones, con un papel muy relevante para los operadores pues son quienes cuentan con la información sobre el comportamiento, localización y hábitos de cada usuario.
    La información obtenida por este medio, reality mining, puede dar lugar al desarrollo de un nuevo tipo de personalización en los servicios y la publicidad.

Citando a: