Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

CLR XXVII

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Limpieza de buffer. Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

CLR XXV

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Limpieza de buffer. Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

CLR XIX

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Seguimos con el periódico saneamiento de memoria. Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

Mainframes frente a Servidores abiertos

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Javier Chamorro y Luís Villarubia

A finales de los 90 el mainframe constituía un modelo propietario y ‘cerrado’ con un CAPEX alto y unos costes de O&M elevados que además implicaba una clara dependencia del suministrador. En el lado opuesto, surgieron las soluciones abiertas (Open Servers) con un CAPEX y OPEX inferior, una gestión más sencilla y barata, y sin dependencia de un suministrador concreto. Sin embargo, actualmente se percibe un cierto movimiento de IBM para impulsar el reposicionamiento del mainframe.

En los últimos tres años ha habido una seria mejoría en la relación coste/MIPS, consumo energético y apertura del mainframe. Este último punto posibilita la convivencia del mainframe con el mundo de los servers. No obstante, el mainframe todavía padece de puntos débiles frente a sus competidores, especialmente en cuanto a la dependencia de proveedor, la viabilidad de un ecosistema suficiente de partners tecnológicos en torno al mainframe (ISVs, …), y el alto coste/dificultad para encontrar profesionales en este entorno (con medias de edad de 55 años para programadores y administradores).Debido a esto, el mercado del mainframe sigue disminuyendo.

Hay comparativas que muestran que un sistema abierto permite un ahorro de un 70%, contemplando los costes de hw, sw, facilities, mantenimiento, personal, electricidad (alimentación y refrigeración) e incluso los costes de la migración de aplicaciones como SAP desde mainframe a entornos HP/Intel. El sistema abierto consume un 59% menos de energía y ocupa un 48% menos de espacio.

Otro factor que estaría afectando a las ventas de mainframe viene del hecho de que buena parte del crecimiento del mercado de servidores se está concentrando en las gamas de volume servers y midrange servers frente as los High-End servers como se ve en la siguiente figura:

Tendencias en ventas de sistemas

Esta tendencia viene de la mano del fuerte impacto que está teniendo en la reducción de costes la adopción de Linux y las tecnologías de virtualización y cloud computing en los servidores abiertos. Las predicciones a corto y medio plazo de los principales analistas de mercado parecen acentuar aún más este escenario.

Algunas referencias en la industria de estos movimientos son:

  • Google: más de 20.000 servidores Intel con Linux
  • eBay: “hundreds or thousands of volume servers. In essence, our infrastructure is already a form of grid
  • Facebook: “now running 10,000 volume servers, including 1,800 MySQL servers
  • La Caixa: Los terminales de las sucursales (~7000 sucursales) han sido pasados de Mainframe (propietario) a clientes virtualizados sobre Intel (VDI)
  • Unión Fenosa: ha migrado de mainframe a sistemas abiertos todos sus sistemas excepto la BBDD
  • Aena: El sistema de gestión de navegación aérea ha pasado a un sistema abierto virtualizado

El entorno actual parece favorable a los servidores abiertos aunque se experimenta un ligero intento por relanzar los mainframes y hacerlos convivir con los servidores abiertos. La nueva generación de mainframe está intentando luchar por romper las barreras aunque frente a un entorno abierto de colaboración para los Open Servers.

La virtualización, que fue una de las claves para el éxito del mainframe, cada vez más está dejando de ser una ventaja debido a que se está implantando en sistemas abiertos. La convergencia del mundo Internet con el mundo Telco tampoco favorece al mainframe.

La visión de Tim O’Reilly

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 5,00/5)
Loading ... Loading ...

Aunque muchos sólo le conozcamos por ser el editor más importante de libros técnicos, Tim O’Reilly es mucho más. De hecho , en algunos circulos es considerado un Gurú en cuanto a los aspectos “filosóficos” de la tecnologia. En sus últimas charlas ha comentado su visión del futuro de la tecnologia en general y de internet en particular. Todas sus opiniones y novedades estan en su blog pero la idea principal de todas sus charlas consiste en que los ingenieros, y más los innovadores, no deben dirigir sus pasos hacia el dinero si no hacia lo que realmente es necesario y plantea un reto , no sólo a la humanidad si no a ellos mismos a nivel personal. Existe grandes retos en el mundo en la actualidad y no todos ellos son importantes fuentes de ingresos  pero el resolverlos si tiene un valor intrinseco. Tal y como O’Reilly dice,  no se debe trabajar para acumular valor (dinero) si no para crear valor.

tim_oreilly

Leer más

Chesbrough y Von Hippel en el VIII BGC+i (II)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

El profesor Von Hippel de la Sloan School of Managemente en el MIT habló de la “Democratización de la innovación”, en la que prima el papel de los usuarios a la hora de crear nuevos productos y conceptos. Fue una presentación muy amena, y que cumplió la promesa que nos hizo el profesor: “nos vamos a divertir”. Una diversión que lamentablemente no van a trasladar estas palabras.

En el modelo tradicional aplicado por las empresas, se observa a los usuarios con la esperanza de identificar sus posibles necesidades y lanzar un proceso de I+D para generar nuevos productos.

Sin embargo, es muy habitual el caso de usuarios que lanzar el primer paso y crean el primer prototipo funcional de un nuevo producto. Y esto ha ocurrido desde siempre y además es especialmente relevante en campos como la medicina, el deporte, la agricultura, …

Distingue dos fuentes funcionales para la innovación:

  • El usuario que quiere usar su nuevo producto o nuevas funcionalidades añadidas
  • La empresa que quiere vender nuevos productos, o mejorarlos

La presentación del profesor Von Hippel estaba trufada de anécdotas y ejemplos. Mostró el origen de algunos dispositivos creados por usuarios inquietos: como la mountain-bike, el kite surfing, máquinas quirúrgicas, riego por aspersión en grandes superficies, …Y puso a Internet en el centro del proceso que está cambiando la innovación de los usuarios, creando redes propias de intercambio de información, dejando a las empresas a un lado, y no en el centro de esas mismas redes como hasta ahora.

Dedicó una parte de su disertación a hablar de Lego y los AFOL (Adults Fans of Lego) y de qué forma se han integrado perfectamente en la estrategia y cadena de producción de la empresa. Puede que parte del éxito de Lego (que está comercializando los diseños de sus propios usuarios) se deba a la modularidad, una característica que destacó como fundamental para fomentar la innovación de los usuarios, de forma que puede superar a la I+D convencional. Y no sólo cuando usan los componentes de un fabricante, si no cuando tienen la posibilidad de combinar lo mejor de varias fuentes.

Hay que reconocer que buena parte de los prototipos de usuario que pudimos ver eran “kits” armados con piezas de distintos orígenes, como si fueran “mashups físicos”. Parece que los UGS pueden tener un papel claro en este campo.

Por cierto, que el libro del profesor Von Hippel “Democratizing Innovation” está disponible gratuitamente para su descarga en Internet. Y tal y como él dijo: “gratis es un precio realmente barato”.

Mashups de empresa según IBM

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 3,00/5)
Loading ... Loading ...

La WEB está dejando se tener un sentido bidireccional de comunicación entre sistemas y humanos. En la actualidad, la nueva WEB tiene mucho que ver también con sistemas comunicándose con sistemas, aplicaciones comunicándose con aplicaciones e interfaces comunicándose con interfaces.

Hasta hace poco desarrollar aplicaciones que interaccionaran con otras aplicaciones era un campo restringido a los buenos conocedores de la informática. Había que realizar llamadas a diferentes APIs y eso supone una cierta complejidad.

Las mashups son pequeñas aplicaciones que permiten a los usuarios sin grandes conocimientos técnicos interaccionar de forma sencilla con distintas aplicaciones para combinar datos de maneras novedosas. Por ejemplo, combinando información de eBay y Google Maps puedes situar en un mapa donde se encuentran los vendedores de un producto.

ibmmashups.jpg

La sencillez es la clave del éxito de esta nueva modalidad de programas, por lo que han proliferado mucho desde que apareció el concepto, y en la actualidad hay más de 2800 como ya se comentó en este mismo blog.

Este concepto también tiene un hueco importante en la empresa o así lo ha entendido IBM. Cada vez es más necesario mezclar datos de fuentes muy diversas, y esta puede ser la solución para que cualquier empleado pueda crear y personalizar sus propias aplicaciones Web utilizando información de distintos orígenes.

Por ese motivo IBM acaba de anunciar el lanzamiento de dos aplicaciones para el 15 de Abril:

  • IBM mashup center: está destinado a usuarios no técnicos y se basa en la filosofía "drag and drop". Permitirá a los departamentos crear y gestionar herramientas que manejen datos de distintas fuentes: de fuentes internas de la empresas, documentos Office, fuentes externas…Incluye widgets predefinidas y también la posibilidad de realizar tus propias widgets.
  • IBM WebSphere sMash: Más orientado a personal más técnico, incluye un entorno de desarrollo que incorpora lenguajes de script dinámicos (se pueden bajar a través de www.projectzero.org)

Ambas herramientas consideran los aspectos de seguridad necesarios en cualquier empresa.

Sin duda alguna es un paso muy interesante para facilitar el manejo de información entre diferentes departamentos de la empresa. Aunque realmente lo que la prensa considera más interesante es la posibilidad de crear aplicaciones Web 2.0 de empresa que faciliten la comunicación entre empleados, y con clientes y proveedores. Según Gartner el mercado del software social para empresas es un filón por explotar que moverá 700 millones de dólares en 2011 y parece que IBM quiere ser el primero.

El futuro de la computación personal

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 3. Media: 2,67/5)
Loading ... Loading ...

La idea subyacente bajo el término cloud computing es que las aplicaciones son Web (están en la nube) y los datos están en la red.

De momento nada nuevo ( de esto se lleva hablando durante años) excepto que es ahora cuando este paradigma es realmente posible gracias al ancho de banda disponible y que según los expertos supondrá el fin de la “computación personal” y de las aplicaciones de escritorio.

La cloud computing alude también a las tecnologías de data centers masivos para hostear estas aplicaciones y servicios Web. En este modelo la fuerza de cómputo puede estar repartida entre diferentes computadores distribuidos por Internet. Las tecnologías de virtualización y de gestión dinámica de recursos juegan aquí un importante papel.

Google e IBM son los líderes en esto, recientemente llegaron a un acuerdo con las universidades de Stanford, Washington, Carnegie Mellon, MIT, UC-Berkeley y Maryland para participar en un programa piloto consistente en montar unos Virtual Labs (los computadores están físicamente situados en Google, IBM y en la Univ. de Washington) para ejecutar aplicaciones cuyos resultados se enviarán a los estudiantes de las universidades participantes.

En este blog, comentan que la cloud computing es el futuro de la computación personal.

Aluden a que actualmente Google y Apple están en Sillicon Valley definiendo el modelo de computación del futuro. Apple trabajando en la parte de front-end (dispositivos e interfaces de usuario) y Google en la parte de back-end (capacidad de cómputo y almacenamiento, para soportar todas las aplicaciones a las que los usuarios accederán desde Internet). Las apliaciones en sí serán proporcionadas en su mayoría por terceros, pero muchas de ellas serán hosteadas por la infraestructura de Google.

Google además de las búsquedas y la publicidad está invirtiendo billones de dólares (americanos) al año en la construcción de data centers para albergar las aplicaciones del futuro. Microsoft le sigue a la zaga en un intento de no perder su puesto de líder en el mundillo de la computación personal.

AJAX y Flash contra los bookmarks

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Hace unos años eran los frames HTML los que distorsionaban la navegación impidiendo la obtención de bookmarks/marcadores fiables, pues solían referir la navegación a la página inicial, no importa cuánto hubiera ahondado el usuario en la web.

Ahora, otras técnicas de presentación dinámica de contenido Web, como AJAX, Flash y asimilados, están provocando el mismo efecto.

La solución a día de hoy no es fácil. Los mecanismos presentes en los navegadores hacen que el marcador se obtenga de la última página Web cargada, lo que supone ignorar las acciones que se hayan desarrollando en la navegación dinámica.

Hay una solución para Firefox (Smart Bookmarks) que “guarda” el lugar en el que se ha detenido la acción del usuario, con independencia de la URL que aparezca en la barra de navegación. Esta extensión graba las acciones del usuario para luego reproducirlas al tratar de cargar el bookmark “inteligente” generado.

En el fondo se trata de un mecanismo similar al de CoScripter o Koala (tratado en una entrada previa), que también guarda las acciones de usuario en un repositorio. Lo que no hace sino confirmar la utilidad de considerar las acciones de usuario, los pasos dados en su navegación, como un contenido más.

Citando a:

Autonomic Communication: el “otro” paradigma sobre la evolución futura de Internet

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 5,00/5)
Loading ... Loading ...

Hemos hablado antes de la iniciativa Clean Slate Design que aboga por un rediseño total desde cero de la red Internet. Pero existe otro grupo de investigadores que está trabajando en un enfoque bien distinto pero con el mismo objetivo.

200709180830.jpg

El Autonomic Communication Forum (ACF) aboga por un paradigma de evolución libre, sin gestión ni control centralizados, basada en una red auto-gestionada, auto-organizada y sensible al contexto: Autonomic Communication. La iniciativa surgió en 2004 tras un seminario organizado por Fraunhofer Fokus y está basada en conceptos similares a los de Autonomic Computing, la solución propuesta por IBM para la evolución futura de los sistemas informáticos.

200709180852.png

Los retos tecnológicos o áreas en los que se centra la investigación sobre las redes de comunicación autonómica incluyen temas como: self-ware (sistemas software auto-gestionados), knowledge-ware (inteligencia en la interacción con los usuarios), sensor-ware (conocimiento del contexto y entorno físico) y service-ware (diseño orientado a creación de servicios).

Finalmente, citar que la Comisión Europea tiene una línea de investigación sobre “Communications Paradigms fo 2020″ en la que se incluyen las tecnologías emergentes de Situated and Autonomic Communications (SAC).