Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Archivo de julio, 2008

Las 10 tendencias tecnológicas de “What’s next”

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Richard Watson, que está detrás de la web What’s next, del libro Future Files: A History of the Next 50 Years, y del blog What’s Next: Top Trends, ha publicado, tras una consulta abierta a sus lectores, las que considera 10 principales tendencias de futuro en el campo de IT.

El mapa de extinciones entre 1950 y 2050. Detalle

Éstas son:

  1. Green IT: la tendencia hacia eficiencia energética, el ahorro, el reciclado, … Parece que hay un acuerdo muy generalizado sobre su relevancia
  2. Data Risk & Security: puede que la preocupación sobre la seguridad en las comunicaciones y la informática no esté tan presente como en el pasado en los medios, pero las amenazas no dejan de crecer, y han ganado en sofisticación y amplitud. Será una fuente de preocupaciones (y negocio) en el futuro.
  3. Data Mining: el aumento exponencial de la información gestionada por las organizaciones hace necesarias fuertes inversiones y nuevas técnicas para su tratamiento. Parece un campo llamado a tener un gran desarrollo futuro, y eso que no se puede decir que se trate de un terreno nuevo.
  4. Virtualisation: en el sentido de reuniones virtuales, clases virtuales o espacios de trabajo virtual. Muy relacionada con la primera por su componente de ecoeficiencia, (reducción de emisiones y “carbon footprint”) supone el desarrollo de campos con la telepresencia y los metaversos.
  5. Shopping 2.0: para Watson, se trata de la incorporación de capacidades sociales al comercio electrónico. En el fondo es revisar el tradicional ejercicio de buscar recomendaciones de compra entre amigos y conocidos. También supondría una mejora en la experiencia virtual de compra con el uso de nuevos interfaces.
  6. Open Innovation: redes abiertas de innovación que buscan ideas más allá de los empleados de una empresa, involucrando a clientes y otras fuentes externas. Watson lo presenta como un modelo fuertemente inspirando en el open source. Open Telefónica sería nuestra particular forma de entender esa open innovation.
  7. Rise of the Machines: el concepto puede sonar un poco amenazante, pero se refiere, en realidad, a una versión inteligente de la llamada Internet of Things. Es decir, computación y comunicaciones embebidas (e inteligentes) en toda clase de objetos, lo que supone control, seguimiento, sensores, y toda una nueva gama de servicios de todo tipo.
  8. Process automation: curiosamente ha quedado huérfana de explicación esta tendencia, aunque uno puede aventurar que se refiera a conceptos como autonomic computing, derivados del hecho de que el tamaño y complejidad de los data centers aumente de tal manera que sea inabordable una gestión convencional (y manual) por lo que habrá que delegar en procesos de gestión autónoma de redes y sistemas.
  9. Too Much Information: el exceso de información está haciendo que, como dice Watson, “Information is no longer power“. La única forma de parar esa avalancha de datos (sensores, localización, UGC, …) es contar con medios de análisis de la información. El exceso de opciones, paraliza la toma de decisiones. La recomendación, personalización, técnicas de minería de datos y análisis de información, son algunas de las herramientas para tratar con un flujo desmesurado de datos.
  10. Simplicity: en parte un complemento de la anterior. Los productos, los servicios, los dispositivos, los espacios web, … son tan complejos, cuentan con tantas opciones, requieren una dedicación tal para conocer todas sus posibilidades, que hacen que los usuarios se confundan y resistan a su uso. La simplicidad es uno de los valores más apreciados por el público, y afecta también a las empresas, cuya gestión se complica, y a las administraciones públicas que navegan entre mares de competencias, legislaciones y organismos.

Citando a:

La apuesta decidida de Microsoft por el mundo del automóvil

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Decididamente, Microsoft considera el mundo del automóvil un campo interesante donde extender su posición y dominio. El gigante del software ha anunciado que incrementará los recursos de su Automotive Business Unit en un 30%. Y además, y aquí está lo interesante, ofrecerá servicios y no únicamente software como ha hecho hasta ahora con la plataforma Windows Automotive o el producto Sync. Esta estrategia de software más servicios ayudará a Microsoft a posicionarse en el mercado de soluciones de infotainment para el automóvil.

El primer servicio orientado al automóvil será el Microsoft Live Search for Devices (LS4D) que permitirá a los desarrolladores crear aplicaciones de búsqueda orientadas al uso dentro del coche (páginas amarillas, páginas blancas, búsquedas georeferenciadas de POIs…).

Microsoft no ha indicado qué otros servicios ofrecerá para su utilización en el coche, pero cabe como posibilidad que ofrezca todos los servicios de Microsoft Live que ya cuentan con una versión para móviles.

Microsoft se convierte así, claramente, en un competidor/aliado al que considerar dentro de las actividades desarrolladas dentro del Automóvil Conectado de Telefónica I+D.

Otro paso más hacia la telepresencia

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Más allá de la videoconferencia, la promesa del futuro inminente es la telepresencia (tratada ya aquí, en “Estado de la telepresencia“) que se convertiría en un medio para facilitar una interacción más realista entre personas que no se encuentran en una misma ubicación física.

Indudablemente la voz fue una enorme revolución: inmediatez, rapidez, y proximidad. Pero resultaba una canal aún muy distintante. Una audioconferencia mínimamente larga puede llegar a ser una tortura.

El uso del vídeo ha supuesto una mejoría, pero sigue dejando muchas cuestiones sin resolver. Hay una clara pérdida de contacto a pesar del sonido envolvente y el uso de pantallas cada vez mayores.

La realidad virtual es tan artificial, que casi no merece la pena considerarla aún como una alternativa.

Últimamente, los principales avances han venido a través de una sofisticación en la escenografía y la recreación del entorno, más que de mejoras puramente técnicas.

Hace unos meses, el operador telefónico australiano, Telstra, hizo una demostración de una “telepresencia holográfica” que es más bien una videoconferencia con figuras de cuerpo entero. La sensación que se transmite en el video es de un gran realismo, aunque estamos viendo una filmación de otra filmación, por lo que no debería extrañar que la realidad sea bastante menos atractiva:

El sistema, desarrollado por las empresas Cisco y Musion Eyeliner, utiliza una única cámara, y deja en manos de la tecnología de proyección el transmitir el mayor grado de realismo posible. El ancho de banda necesario, en el orden de las decenas de megabits en una línea dedicada, también deja a este sistema fuera del alcance de la mayoría de los usuarios, incluidos los corporativos. También está por demostrar si estas proyecciones de personas de pie son una alternativa realmente creíble a la presencia física y a otros sistemas de videoconferencia más sofisticados.

Por contra, las ventajas de un servicio como éste son enormes. Evitar viajes, especialmente los largos y pesados traslados entre continentes, aporta inmediatez, reduce costes de desplazamiento y estancia, así como el tiempo dedicado a mover a una persona, que tiene un aprovechamiento muy limitado. Una menor necesidad de viajes, especialmente de los contaminantes desplazamientos aéreos (últimamente en el punto de mira de la reducción de emisiones), tendría un significativo impacto en la generaciónde gases de efecto invernadero, algo muy atractivo dentro de la progresiva tendencia hacia la implantación de hábitos más “verdes” en nuestras vidas y en los negocios.

Citando a:

Otra semana desde La Cofa XLVI

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

De entre lo publicado en la última semana, destacamos:

CLR XII

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Periódico saneamiento de memoria. Una lista de artículos interesantes que corren el peligro de caer en el olvido:

  1. Los usuarios quieren más Internet móvil, así que habrá que buscar la causa de la baja penetración en otro sitio (“Consumers & the Mobile Web: We Want More” en Internet Evolution). Al mismo tiempo, la mayor parte del tráfico de esa Internet en movilidad procede de PCs (“3G’s biggest success is as a dumb pipe” en Communications) ¿falla el medio? En cuanto al uso que hacen los usuarios del acceso móvil, un porcentaje muy significativo se decanta por las redes sociales (“El tráfico de la internet móvil” en Error500). El potencial sigue siendo enorme, y ayuda a hacerse una idea este gráfico que se recoge en O’Reilly Radar (“Mobile Internet”), aunque como se dice en el artículo, “It’s about usage. Not units”:

  1. A vueltas con la burbuja: “Web 2.0 = Bubble 2.0?” en Don Dodge on The Next Big Thing; que no hace sino recoger el artículo “Web 2.0 fails to produce cash” del Finantial Times. Otro punto de vista más desenfadado: “The noise in Web 2.0 is mainly a Tech Elite’s problem” en Alexander van Elsas’s Weblog
  2. Otras noticias inquietantes: “Internet to run out of addresses ‘within 3 years’” en NewScientistTech. Se acaba el tiempo, e IPv6 aún se ve con escepticismo.
  3. Primeros experimentos de limitación de banda ancha (en Estados Unidos): “All-You-Can-Eat Broadband Is Dead: Time Warner to Charge by the Byte” en Gizmondo, y “40GB for $55 per month: Time Warner bandwidth caps arrive” en Ars Technica.
  4. Cuando el diablo se aburre …”: “Phishing by phone” en NewScientist.
  5. Contenidos. Para empezar un informe de Ars Technica: “Report: ad-supported content will soon dominate digital media”, que se complementa con “Targeted Ads Designed for You” en Technology Review.Un caso de estudio dentro de las llamadas “Telcos 2.0”, el de Telenor y su mediación entre generadores de contenidos y público que los consume. En “Telco 2.0 Case Study: Telenor CPA” en Telco 2.0.
  6. Usabilidad, “The evolution of gadget design” en NewScientist, habla de la evolución en el diseño de los teléfonos móviles, y los mandos de las consolas. Muy interesante. No he podido resistir a poner el video:

  1. La innovación. Muy interesantes las reflexiones sobre el dilema del innovador en “El dilema de la innovación” en el Blog Salmón. La “Google’s Innovation Machine” comentada en Dr. Richard Benjamins’ Blog.
  2. Para terminar, aunque una gran mayoría de comentaristas, analistas, expertos y simplemente usuarios ven a los blogs con mucha salud y futuro por delante, uno de los miembros destacados de la blogosfera tecnológica, Jason Calacanis, deja de publicar su blog, y pasa a difundir sus opiniones a través de una lista restringida de correo (lo que no ha impedido que su primer mensaje haya sido ampliamente difundido, como en “Jason Calacanis’ First New Email Post” en TechCrunch).


Web 2.0 y Web 3.0 para empresas: de los datos al conocimiento

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 6. Media: 2,33/5)
Loading ... Loading ...

El descenso en el precio de los sistemas de almacenamiento, la mayor complejidad de los procesos, las necesidades de conocer mejor a los clientes…, está provocando que la cantidad de datos que almacenan las empresas aumente exponencialmente. Tanto es así que en muchas ocasiones navegar por los datos se vuelve en una tarea complicada, que nos lleva una gran cantidad de tiempo, para muchas veces no conseguir nuestro fin a pesar de que la información se encuentre disponible en los sistemas.

Todos damos por hecho que nos encontramos en la era de la información y que la empresa que maneje mejor sus flujos de información y que sea capaz de contextualizar esta información para las distintas situaciones, conseguirá una gran ventaja sobre las demás. Por tanto, el objetivo de transformar los “datos” en “conocimiento”  es uno de los grandes retos a los que se enfrentan las empresas hoy en día.

En primer lugar merece la pena ahondar en el concepto de conocimiento:

Existen dos tipos de conocimiento ( Nonaka & Takeichu, 1995): conocimiento tácito, que reside en las percepciones y comportamiento de los seres humanos; y conocimiento explícito  que es publicado, estructurado, externalizado y conciso.

El problema reside en que gran parte del conocimiento se encuentra solamente en las cabezas de los empleados (sus experiencias, sus impresiones se encuentran almacenadas sólo en su cerebro), por lo que aún siendo muy interesante en muchas ocasiones no es utilizado en otras partes de la organización cuando se necesita. Para difundir este conocimiento tácito entre diferentes partes de la organización, muchas empresas optan por rotar al personal entre departamentos.

La gestión del conocimiento es especialmente importante en las organizaciones basadas en proyectos, en las que un grupo de personas colaboran durante un tiempo, para después deshacerse y formarse nuevos grupos. Numerosos estudios señalan que gran parte del conocimiento generado en los proyectos se pierde (Weiser & Morrison, 1998), por lo que vuelven a cometerse los mismos errores.  Algunas empresas han creado bases de datos con lo que se ha aprendido en los proyectos, así como grabaciones de las reuniones, aunque normalmente esta información no suele utilizarse (Conklin, 2001).

Las aplicaciones que se agrupan con el nombre de  Web 2.0 y Web 3.0, tendrán un papel muy importante en la captación de la información, su traducción en conocimiento y su contextualización a las diferentes situaciones en las que pueda ser requerido. La siguiente figura muestra como estas herramientas pueden ser útiles en la gestión del flujo de información en las empresas:

 

 

 

Por una parte las herramientas agrupadas bajo el paraguas Web 2.0 (wikis, blogs, foros, comunidades…) pueden jugar un papel fundamental en transformar las vivencias, experiencias, impresiones… de los empleados en información  más o menos estructurada. Esta información, junto con otra información estructurada constituirá la información explícita de la empresa.

Podríamos definir las tecnologías semánticas como aquellas tecnologías capaces de extraer  el conocimiento explícito de los sistemas de información, almacenarlo, y mostrarlo de forma contextualizada en las situaciones que sea necesario.

Como se observa en esta definición se distingue entre “información” (datos agregados) y “conocimiento” (información procesada que tiene un significado). La primera misión de las tecnologías semánticas consiste en eso, procesar información y “entender” el contenido de esta información, para ello existen herramientas de análisis semántico y sintáctico. Esta información se debe almacenar en los sistemas de información de la empresa conservando el significado mediante la utilización bases de datos semánticas. De este conocimiento se extraerá información contextualizada para resolver problemas concretos de la empresa, gracias al uso de buscadores semánticos o de la contextualización semántica.

En fin, tanto las tecnologías Web 2.0 como las Web 3.0 tendrán gran importancia en captar y reutilizar el conocimiento de las organizaciones. No obstante, siempre habrá una parte del conocimiento que será  muy difícil de captar y continuará residiendo solamente en las mentes de los trabajadores:

 ”knowledge is messy; it is self-organizing; it seeks groups of people; it travels on language; it is slippery; it likes carelessness; it is in shape of experiments; it does not grow forever; it is a social phenomenon; it evolves organically;  it is multi-modal; and it requires the flow of data/information  (Allee, 1997)

Web Mining or The Wisdom of Crowds

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

El viernes 4 de Julio tuvo lugar en el Salón de Actos del centro de Telefónica I+D en Madrid la Conferencia “Web Mining or The Wisdom of Crowds”, impartida por Ricardo Baeza-Yates, principal responsable de Yahoo! Research en Barcelona (España) y Santiago (Chile) y una de las figuras más destacadas en el área de Recuperación de información (Information retrieval).

La Charla, muy participativa y dinámica, se centró, a través de un recorrido por la estructura, contenido y registro del Web Mining, en los principales problemas que se presentan a la hora de recuperar los datos que deseamos: desde el propio uso del lenguaje natural como el silencio (sinonimia), el ruido (polisemia), la ambigüedad o las traducciones a/de diferentes idiomas a un análisis en profundidad de la web.

La Web es infinita, es imposible recorrerla en su totalidad y más difícil aun de modelar, representada en un 99% (aunque también se hicieron guiños al 100%) por páginas dinámicas, Ricardo Baeza-Yates recordó que los buscadores se concentran en las mismas sólo en una pequeña parte en comparación con las estáticas, a las que abarcan al completo.

Su organización la explicó a raíz de la existencia de un núcleo conexo, formado por aquellos sites que originan y reciben enlaces; las islas, que serían elementos aislados que pese a su existencia nadie conoce; y lo que denominó in, enlazan al núcleo pero no son correspondidos y out, contrarios a los últimos.

Si tenemos en cuenta que un buscador encuentra aquello que se sitúa en el núcleo y lo que se ha definido como out, existe un gran campo inabarcable en el que se podría estar perdiendo información relevante, lo que sumado a la Arquitectura Software Centralizada, el tamaño de la red, la velocidad de cambio, la duplicación del contenido, el spam, la “Ley del mínimo esfuerzo”, la diversidad y la falta de organización, la recuperación se convierte en una tarea ardua y excesivamente compleja.

No resulta fácil ni tan siquiera explicarla, puede que por esa razón el evento terminase alargándose más de lo previsto y aun así los asistentes nos quedásemos con la sensación de haber recorrido tan sólo unos pasos del camino, aunque amablemente el Sr. Baeza-Yates nos invitó a seguir profundizado en el estudio de la “Information retrieval” a través de sus publicaciones y de algunos libros que consideró de interés como “The Wisdom of Crowds” de James Surowiecki o “La vida social de la Información” de John Seely Brown y Paul Duguid.

Algunas otras ideas/datos que se expusieron:

- La Web es un reflejo de la economía según un estudio realizado sobre las Características de la Web en España en 2005.
- En circunstancias correctas los grupos son inteligentes, el problema es encontrar la palabra correcta. “Todos sabemos más que cualquiera de nosotros” y a su vez, “usando la sabiduría de la gente se encuentra al experto” (¿Quién ha planteado la mejor pregunta?)
- Los buscadores son herramientas de mediación para las descargas, compras, navegación…
- Menos del 40% de las personas mueven la mano para visualizar la siguiente página de resultados (Ley del mínimo esfuerzo)
- No hay información sin contexto.
- La complicación no se encuentra tanto en los hábitos de búsqueda sino en saber lo que la gente quiere encontrar en realidad.

Mejorando la publicidad online mediante el uso de tecnologías semánticas

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Hace tan solo unos días, en un post sobre tendencias en tecnologías semánticas, repasábamos los campos en los que estas tecnologías están empezando a implantarse. A estas tendencias habría que añadir “publicidad basada en tecnologías semánticas”, como destaca recientemente el prestigioso Washington Post en un artículo sobre el lanzamiento de la plataforma SemanticMatch por la empresa Peer39.

Esta compañía promete a las empresas de publicidad poder afinar mucho más en llegar al público objetivo mediante la utilización de tecnologías semánticas. Hay que reconocer que no es la primera empresa que utiliza las tecnologías semánticas en el campo de la publicidad (adPapper y Aduna ofrecen también este tipo de servicios), pero el hecho de que acabe de levantar 8 millones de dólares en financiación a los que hay que sumar otros tres millones a principios de año es un aval suficiente de que el mercado empieza a creerse estas tecnologías.

La clave de la plataforma recién lanzada al mercado consiste en la capacidad de analizar el contenido de las Web Sites llegando a entender el significado general. Para conseguir este fin con capaces de separar un documento en pequeñas unidades de texto y mediante algoritmos clasificarlo según temas y categorias (las cuales pueden ser predefinidas o crearse sobre la marcha). Por este motivo permite mostrar publicidad relacionada con los contenidos con una mejor tasa de acierto que los métodos tradicionales (los creadores afirman que son capaces de multiplicar por cuatro el click-through de la publicidad).

En cuanto a las categorías, son capaces de desplegar 7 niveles de categorías como en los siguientes ejemplos:

Technology> Consumer Electronics> Digital Camera> Canon> Powershot> SD870 IS> SD870 IS

SilverAuto> Compact> GM> Chevrolet> Chevrolet Cobalt> Chevrolet Cobalt LS Sedan

Otra novedad que incluye la plataforma es la capacidad de detectar contenidos negativos u ofensivos sobre un concepto o sobre un producto, lo cual influiría a la hora de seleccionar los anuncios.

Amiad Solomon, CEO en Peer39, afirma que las tecnologías semánticas pueden suponer en el campo del marketing un avance sin precedentes, superándose así la etapa del marketing basado en comportamientos que obliga a las empresas a introducir cookies y a tratar de “espiar” las acciones de los diferentes usuarios con los consiguientes problemas de privacidad.

Creo que todavía es pronto para afirmar que las tecnologías semánticas serán una Killer Application en el campo de la publicidad. Lo que si que es cierto, es que tras varios años en los que las tecnologías semánticas no acababan de encontrar su sitio, vemos como empiezan a ser sonados los movimientos en este campo como la adquisición por parte de Microsoft del buscador semántico Powerset. Además, en el caso de Peer39 se observa claramente una capacidad de transformar estas tecnologías en dinero de una manera muy directa, cosa que no es tan fácil de encontrar.

Software de Animación Libre en las Pantallas

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 4,75/5)
Loading ... Loading ...

De todos son conocidas las peliculas de Pixar Studios (Toy Story, Monstruos, Los Increibles, …) y sus increibles efectos y animaciones. La tecnología que Pixar utiliza es, entre otras, un producto llamado Renderman.

Además una empresa española “Next Limit” ha sido galardonada recientemente por la Academia de Hollywood con el “Technical Achievement Award”, uno de los “Oscar®” técnicos. Ha recibido varios premios a la innovación por su software RealFlow, otros productos suyos son Maxwell Render y XFlow. RealFlow es un software que simula los efectos de los líquidos y que ha sido utilizado en películas como “El Señor de los anillos, El retorno del rey”, “Ice Age II”, “Charlie y la fábrica de chocolate”, “Poseidón”, “Matrix”, “El código Da Vinci” y “300″.

Otras tecnologías propietarias de generación de animaciones 3D son Maya, Shake, Lightwave, 3DSMax. Pero estas tecnologías propietarias no son las únicas, el software libre empieza a hacer sombra a los grandes de la animación.

Plumiferos es una pelicula de animación realizada 100% utilizando software libre, utilizando Blender, Gimp y Linux. Se prevé su estreno en 2008.

Plumíferos no es el primer largometraje realizado utilizando software libre, la primera fue “Elephants Dream”, aunque que ha recibido muchas criticas sobre su argumento y baja calidad.

A continuación se muestra un trailer de Plumiferos:

Otro ejemplo de software libre es este corto “Big Buck Bunny” de la Blender Foundation.


Big Buck Bunny from Blender Foundation on Vimeo.

Esto se puede conseguir utilizando software libre, aunque muchas veces es más importante un poco de creatividad que toda la tecnología, como se ve en este vídeo “al revés” de la empresa SenseiStudios:

Referencias:

  1. Plumíferos
  2. Blender
  3. Gimp
  4. Next Limit
  5. Renderman
  6. SenseiStudios

Las TIC en la Administración Local: la clave para el desarrollo digital

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Ayer día 3 de julio presentamos el estudio sobre Las TIC en la Administración Local del futuro en Gran Vía 28. El acto contó con la asistencia de la Ministra de Administraciones Públicas, Elena Salgado, el presidente de Telefónica César Alierta, el vicepresidente de la Fundación Telefónica, Javier Nadal, el Presidente de la Federación Española de Municipios y Provincias (FEMP) y Emilio Ontiveros, Presidente de AFI (Analistas Financieros Internacionales).

La importancia de este Informe reside en que la ley de Acceso Electrónico de los Ciudadanos a los Servicios Públicos obliga a las Administraciones Públicas a que los servicios electrónicos sean accesibles para todos los ciudadanos a partir del próximo 1 de enero de 2010. El informe se centra en las Administraciones locales por ser los órganos públicos clave para dinamizar el uso de las nuevas tecnologías en la sociedad, ya que se trata del organismo más cercano y el que mejor conoce las necesidades de sus ciudadanos y empresas. El objetivo final es conseguir una Administración local siempre disponible, conectada, multicanal, interoperable, segura y ubicua.

El uso de las TIC en la Administración local permite maximizar la utilidad de sus recursos y aumentar el valor de la actividad pública en su conjunto. Las TIC mejoran la relación con el ciudadano y el trámite administrativo, los procesos administrativos, la gestión de los flujos de trabajo y la prestación de nuevos servicios.

En su repaso a la situación actual de las TIC en la Administración local, el informe pone de manifiesto que la Administración Electrónica en España se encuentra desigualmente desarrollada. Así, mientras algunos servicios tienen enorme éxito e incluso reconocimiento internacional, como es el caso de la Agencia Tributaria , la Seguridad Social, el catastro o el DNI electrónico, hay otras parcelas en las que hay que hacer un mayor esfuerzo, concretamente en la Administración local. Además, el nivel de desarrollo de las TIC en este ámbito presenta también importantes diferencias, derivadas del tamaño. Un 85% de los municipios españoles tiene menos de 5.000 habitantes y son entidades que disponen de recursos limitados para abordar la implantación de las TIC.  En ese sentido,  el informe incluye un mapa de buenas prácticas para aplicar las TIC a la gestión local que reducirían el problema de la fragmentación. Además apunta algunas tendencias interesantes,  tales como la provisión de servicios en red, la e-participación y la creación de plataformas de interoperabilidad, que ofrezcan servicios mancomunados a los ayuntamientos. Se trata de un modelo de prestación de servicios en el que las entidades supramunicipales (consells, cabildos y diputaciones) ponen a disposición de los ayuntamientos portales web para informar a los ciudadanos, sistemas de tramitación telemática o sistemas de gestión municipal genéricos.  Estas entidades se perfilan como esenciales para desplegar nuevos servicios basados en las TIC en los ayuntamientos de menor tamaño.

El estudio es la consecución de un trabajo realizado durante meses por expertos cualificados en la materia que ha contado con un Comité Asesor, formado por Ángel Ros Domingo, presidente de la Comisión de Nuevas Tecnologías de la FEMP; Sebastián Muriel Herrero, Director General de Red.es; Enrique Martínez Marín, Director General de INTECO; Juan Miguel Marquéz Fernández, Director General para el Impulso de la Administración Electrónica, y David Cierco Jiménez de Parga, Director General para el Desarrollo de la Sociedad de Información.

La elaboración de estudio ha sido llevada a cabo por el equipo que nos encargamos de realizar el ya tradicional Informe de Sociedad de la Información en España para Fundación Telefónica.