Los empleados deciden en qué idioma publican sus entradas.
Puedes encontrar más contenidos seleccionando el idioma inglés en el enlace superior.

Transmisiones full-duplex (un cisne negro)

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 1,50/5)
Loading ... Loading ...

Una de las premisas básicas de las comunicaciones radio es que no se puede transmitir y recibir desde un mismo equipo simultáneamente en la misma frecuencia debido a las interferencias que se generan. Por esta razón en los sistemas bidireccionales se separan ambas direcciones del enlace en frecuencia (lo que se denomina FDD – Frequency Division Duplexing) o en tiempo (TDD – Time Division Duplexing).

Pues para una cosa que sabíamos y de la que estábamos razonablemente seguros de no haber entendido mal, ahora resulta que no es cierta, que hay lo que Nassim Taleb llama un cisne negro (http://amzn.to/9Ve35G).  Y lo cierto es que el principio para sostener estas comunicaciones ‘full duplex’ (en las que se transmite y se recibe simultáneamente en la misma frecuencia) que han desarrollado investigadores del Stanford Information Networks Group (SING) no podía ser más simple: dos antenas de transmisión situadas a tal distancia de la de recepción que crean un nulo en esta. Para ello basta que la diferencia entre las distancias sea de media longitud de onda.

La gente del SING han publicado un artículo en el que explican con más detalle el sistema (disponible aquí) y presentan el prototipo que han desarrollado.

Por supuesto, hay varios obstáculos que hay que tener en cuenta para implementar un sistema basado en este principio (la necesidad de incorporar dispositivos de cancelación de ruido, la diferencia de potencia entre las antenas de transmisión necesaria para compensar la distinta atenuación, el posible efecto del multitrayecto,…), pero las posibilidades que abren este tipo de comunicaciones son enormemente interesantes.

Post extraído de la red de blogs de Telefónica I+D. Autor: Ignacio Berberana Fernández Murias

Deus Ex Machina

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 4,00/5)
Loading ... Loading ...

 

Deus ex machina (lat. AFI: [ˈdeːus eks ˈmaːkʰina]) es una expresiónlatina que significa «dios surgido de la máquina», traducción de laexpresión griega «απò μηχανῆς θεóς» (apò mēchanḗs theós). Se origina en el teatro griegoromano, cuando una grúa (machina) introduce una deidad (deus) proveniente de fuera del escenario para resolver una situación.

Fuente: Wikipedia

En una novela, o en una película, Deus ex machina es cuando el novelista o guionista tras haber puesto a los personajes en una situación de la  que no tiene muy claro como sacarlos. Y como no tiene muy claro como solventar la situación, pues hace trampa. La trampa, aparentemente, puede tomar muchas formas: desde darle habilidades nuevas a los personajes (¡puedo volar!) hasta cambiar por completo la situación (¡solo era un sueño!). Estos días estaba leyendo una serie de novelas de ciencia ficción en la que el autor ha hecho del Deus ex machina su modo de solventar prácticamente todos los problemas de los personajes, que ganan o pierden habilidades con una facilidad pasmosa.

¿Porque hablamos de literatura en un blog de seguridad? En el último artículo del blog, hablábamos de los problemas de seguridad de Sony con la Playstation 3. Problemas que pueden afectar a su modelo de negocio. Y problemas que, al igual que los de los protagonistas de los libros que estaba leyendo, tienen una mala solución sin hacer trampas. Y Deus ex machina es el término que se me vino a la cabeza cuando leí un rumor en GameGuru Mania, sobre la aproximación que puede tomar Sony para solventar sus problemas con la Playstation 3:

For those who are curious about the new PS3 security, it seems Sony has implemented something in 3.56 I mentioned here a few weeks ago that is the same as Microsoft uses to detect and ban 360’s. Mathieulh just posted about it on IRC. Essentially Sony can now remotely execute code on the PS3 as soon as you connect. This can do whatever Sony wants it to do such as verifying system files or searching for homebrew. Sony can change the code and add new detection methods without any firmware updates and as the code executes remotely there is no reliable way to forge the replies. Whilst it is possible to patch or remove this code from the firmware this will likely mean the end of playing CFW online (as PSN can just check before login that this is active) or at the very least mean it will be even easier for Sony to detect and ban users. Judging from the fact that people can still connect using the proxy method it seems Sony hasn’t activated any of this yet but the functions are there in the new firmware.

Bueno, Deus ex machina fue la segunda cosa que se me vino a la mente. La primera fue que  el autor del post, evidentemente, no sabe lo que es unrootkit, y porqué en cualquier caso es absurdo decir que el fabricante de un Sistema Operativo necesita un rootkit.

En cualquier caso, y volviendo al ‘Deus ex machina‘, la aproximación que describe el artículo se parece mucho a la forma de solventar los problemas de los novelistas vagos:  la consola, al igual que los protagonistas de la novela, gana nuevos poderes según se vayan necesitando.

Y a primera vista parece una buena idea, y la solución para todos los problemas de seguridad del universo conocido: un sistema operativo capaz de descargar en tiempo de ejecución módulos de autocontrol. El único problema es que, irónicamente, solo se puede garantizar que la solución es efectiva si el sistema operativo donde se va a ejecutar no ha sido modificado. Es decir,  si el sistema operativo no ha sido modificado, entonces podremos afirmar con certeza que el sistema operativo no ha sido modificado. En cambio, si el sistema operativo ha sido modificado, en algunos casos podremos afirmar con certeza que ha sido modificado pero no podremos afirmar con certeza que no ha sido modificado.

Niveles

¿Porqué? Si imaginamos las distintas capas de software en un sistema como círculos concéntricos, siendo el círculo interno el Hardware, y los demás círculos capas de software que se apoyan en la capa más interna, entonces el único sentido en el que podemos hacer análisis fiables es el que aparece en la imagen: de dentro a fuera. Desde una capa más interna podemos evaluar alguna característica de una capa más interna, con la confianza de que el valor que obtengamos va a ser correcto. Pero eso no es cierto cuando el análisis se hace desde una capa externa a una capa interna, ni tampoco cuando el análisis se hace dentro de la misma capa.

Y el hipotético código descargable de verificación se ejecutaría, como mucho, al mismo nivel que el software que lo descarga, el sistema operativo. Por eso no puede hacer aseveraciones fiables sobre la salud del sistema operativo, porque está en la misma capa. Por ejemplo, sería posible que el sistema operativo modificado descargase el código y no lo ejecutase, limitándose a responder lo que el servidor espera. También sería posible descargar el código y ejecutarlo en un entorno controlado, donde no pudiese ‘ver’ nada extraño (por ejemplo, una máquina virtual dentro de la máquina física creada con el único propósito de obtener acceso a la red).

Desde el punto de vista de Sony podemos considerar que una consola con un sistema operativo no oficial es equivalente a un ordenador infectado por algún tipo de malware. Y si este mecanismo de identificación/limpieza funcionase de una forma efectiva para solventar infecciones a posteriori hace años que Microsoft hubiese acabado con el problema del malware en Windows. Y Sony, en este caso, tiene un problema adicional sobre Microsoft: mientras que los clientes de Microsoft, en lo que respecta a la identificación y limpieza de infecciones, son colaboradores de Microsoft, los clientes de Sony, en lo que respecta a la identificación y limpieza de ‘infecciones’ son enemigos de Sony.

Fuente:

Post extraído de la red de blogs de Telefónica I+D. Autor: Antonio Manuel Amaya Calvo

Uso coordinado de WiFi y LTE/HSPA por operadores móviles

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

En el GSMA Mobile Asia Congres, en noviembre de 2010, el presidente de la operadora japonesa KDDI  explicó que, el uso de  LTE duplicaría su capacidad de datos inalámbrica, pero que preveía que la demanda de datos inalámbrica en Japón se iba a multiplicar por 15X en los próximos cinco años y que LTE sólo no va ser suficiente para satisfacerla. Unas semanas antes de lo anterior, en el Broadband World Forum  en París, varios operadores europeos, incluida Telefónica, hacían declaraciones en la misma dirección. La consultora ABI estima que las necesidades de datos inalámbricos, a nivel global, están aumentando un ritmo del 150%  anual. La noticia se puede leer aquí.

Es evidente que LTE por sí sola no va a ser suficiente para satisfacer la demanda futura  de datos móviles, a pesar de su alta eficiencia espectral alcanzado valores próximos a los límites teóricos,  pero ahora estamos en un punto en el que para ofrecer más capacidad es necesario  recurrir a más espectro, un recurso limitado que no va a poder ser aumentado para satisfacer la futura demanda de datos.

ABI Research estima que Wi-Fi/ADSL puede proporcionar datos al 5% del coste de una infraestructura celular.  Las implicaciones para los operadores son evidentes. Wi-Fi está dejando de ser vista como un competidor de las redes celulares y está siendo vista como  una forma de aliviar la congestión en el futuro, para usuarios estáticos, y una ayuda para aumentar la rentabilidad global de la red mediante la entrega de datos a un menor costo por megabit que macro/mico/femto/células.

Los femtonodos desplegados para solucionar demandas de capacidad, están dirigidos a las áreas donde el gran número de usuarios de datos pueden crear problemas de congestión para las redes macrocelulares. En el roadmap de algunos fabricantes ya existen femtonodos duales celulares / WiFi de alta capacidad.  Los operadores móviles que implementen estos femtonodos duales y una red que soporte conexiones a múltiples redes de datos, estarán en la mejor posición para hacer frente a la continuación del crecimiento de la demanda de datos móviles.

A nivel normativo, una de las actividades (work items) de Release 10 del 3GPP  es el soporte  de múltiples conexiones simultáneas a redes de paquetes de Redes de datos (PDN), por parte de un terminal, incluyendo balance de carga entre PDNs, estando todas ellas bajo el control del núcleo de red del operador móvil (EPC). Las redes pueden ser fijas ó móviles, así como redes 3GPP o no 3GPP.  Esto se refleja en:

3GPP TR 23.861: Multi access PDN connectivity and IP flow mobility. Esta recomendación proporciona una visión general de los cambios necesarios para que un terminal se pueda para conectar simultáneamente tanto a redes de datos 3GPP (TS 23.401) como no-3GPP (TS 23.402).

3GPP TS 22.278: Service requirements for the Evolved Packet System (EPS).

Post extraído de la red de blogs de Telefónica I+D. Autor: Emilio Mino Diaz

CLR XXIV

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Limpieza de buffer. Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido:

La Cofa

La Cofa , Noviembre de 2009

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 2,50/5)
Loading ... Loading ...

Resumen de las entradas en La Cofa para el mes de Noviembre de 2009.

Siempre que se habla del futuro de internet, una cosa sale a relucir: más velocidad. Aunque con el ADSL ya vemos ofertas de 20 Mbits por segundo, cuando tengamos fibra, todo será más rápido. Pero, ¿qué harías tú con 30 Mbits por segundo de bajada?

El blog técnico Noupe en su artículo  “The Future Of The Web: Where Will We Be In Five Years?“,  enumera 15 predicciones concretas sobre la Web de 2015.

Retomamos la costumbre de hacer un periódico saneamiento de memoria (aquel comando CLR -de clear- de los procesadores). Una lista de alertas, noticias y artículos interesantes que corren el peligro de caer en el olvido.

En los últimos años, las empresas (sobre todo las de un tamaño relevante) empiezan a valorar cada vez con más interés el espíritu emprendedor como elemento positivo en sus empleados.

El Telecom I+D es el principal evento del mundo de las telecomunicaciones en España, y reune contribuciones del mundo académico y de empresa. Se articula en torno a una densa agenda de ponencias y pósters y cuenta con una serie de tutoriales, casos de éxito y tutoriales que fomentan la participación de los asistentes.

Power Efficient Multicore for Embedded and General Purpose Computing

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 4. Media: 3,00/5)
Loading ... Loading ...

El pasado mes de Abril Anant Agarwal investigador del MIT presentó en  la conferencia  Industrial Liaison Program lo que , desde su punto de vista, es la tendencia predominante en el campo de los microprocesadores.

Según Agarwal hace pocos años se produjo  de manera silenciosa una revolución en nuestros ordenadores , el paso de un solo núcleo a dos.  Y asegura que el futuro pasa por continuar y potenciar este cambio. De hecho , está convencido de que en los próximos 5-10 años pasaremos a tener máquinas de más de 1000 núcleos.

industry-multicore

El objetivo de esta estrategia es buscar el punto de mejor funcionamiento de las actuales tecnologias ( que por lo general suele encontrarse a frecuencias más bajas de las que usamos) y utilizar procesadores con una arquitectura escalable.  De este modo se puede reducir el consumo con un igual rendimiento de procesado.

multicore_opportunity_for_power_efficiency

La solución propuesta por Agarwal es utilizar una arquitectura llamada “Tiled” la cual permite que los procesadores multicore escalen sin problema. Simplemente se debe añadir un pequeño dispositivo en cada uno para distribuir los procesos. De este modo se puede controlar el consumo del procesador además de conseguir nucleos de diferentes potencias con una misma arquitectura.

tiled_multicore

Como resumen y predicción de Agarwal , probablemente en 2014 todos nuestros ordenadores de escritorio tendrán núcleos que funcionarán como máximo a frecuencias de 1Ghz pero tendrán muchos de ellos, según su estimación posiblemente cientos de ellos.

La cofa, Abril de 2009

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 1,00/5)
Loading ... Loading ...

Bajo estas lineas os adjuntamos una lista de todas las entradas que ha publicado La cofa este último mes de Abril:

  • Ge Wang: experimentación artística rentable: En la actualidad dos mundos tan dispares como el Arte y la tecnologia no pueden continuar separados y para ello artistas como Ge Wang hacen esfuerzos por encontrar un camino de convergencia entre estos dos mundos.
  • Reflexiones sobre el mercado Telco de Martin Geddes en eComm : El director de estrategia de BT Design repasa varios temas sobre el mundo de las Telcos  en el pasado eComm.
  • Cloud personal: La “nube” está por todas partes y todos queremos usar sus servicios, pero la garantias que ofrece para una empresa no son iguales a las de un particular, para mitigar esta diferencia aparencen productos como PogoPlug.
  • Nuestro estilo de vida se vuelve cada vez más digital:  Según recientes estudios en el ámbito europeo, los internautas están profundizando cada vez más en su experiencia de uso de Internet y están usando la red para mejorar y potenciar su vida diaria.
  • Nettop: El nuevo centro multimedia del hogar: Probablemente el protagonista de la siguiente revolución en cuanto a terminales de reducido tamaño se refiere es el acelerador gráfico Ion de Nvidia, el cual junto a microprocesadores de la familia de los Intel Atom consigue una gran potencia de procesado en una dimensiones muy limitadas.
  • Interfaces imaginativos, los Siftables: Los Siftables son unas pequeñas pantallas que tienen la capacidad de detectar la proximidad de otras y realizar acciones coordinadas. En esta entrada se muestran diferentes ejemplos de estos nuevos interfaces.
  • TR10 2009 : Tecnologias emergentes de Technology Review: La revista Technology Review publica su lista con las 10 tecnologías emergentes que en su opinión tienen el potencial para “cambiar nuestras vidas”.
  • WWW2009 : 20 años de Web por Sir Tim Berners Lee : Sobre la conferencia que Sir Tim Berners Lee realizó en el WWW2009 en la que habló del pasado , presente y futuro de la web dando indicaciones sobre qué piensa que será el futuro.
  • GDC: Game Developers Conference:  Resuen sobre la conferencia de desarrolladores de video juegos del 2009 con reseñas a las charlas más intersantes y los productos que allí se presentaron. Entre estos productos destacó OnLive, un nuevo paradigma de juegos online.
  • Web 2.0 Expo 2009 : Sobre las ideas y tendencias que se presentaron en al Web 2.0 Expo y las empresas que en su Launchpad se hicieron públicas. Destacando la Keynote de Tim O’Reilly en esta conferencia.
  • La visión de Tim O’Reilly : Resumen sobre dos Keynotes de Tim O’Reilly. Remarcando especialmente las tecnologias o tendencias que O’Reilly considera son claves para nuestro futuro.
  • WWW2009: La infraestructura futura de internet por Pablo Rodriguez :  Nuestro colega de TID Pablo Rodriguez hizo una disertación sobre el futuro de internet en cuanto a infraestructura se refiere y sobre cómo debe adaptarse esta a los nuevos tipos de tráfico.

GDC: Games Developers Conference

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 1. Media: 1,00/5)
Loading ... Loading ...

gdc09

El pasado dia 23 de Marzo comenzó en San Francisco la edición para el año 2009 del GDC. Si bien no se presentaron muchos conceptos nuevos, al menos si hubo presentaciones interesantes y , en concreto, el lanzamiento de un producto que a la vista de todos los expertos podria revolucionar el mercado de los video juegos, OnLive.

  • Productos:
    • Juegos basados en cámaras: Tras la reciente aparición de nuevos interfaces para los videojuegos como pueden ser las pantallas tátiles o los controles de la conocica consola Wii los desarrolladores siguen planteandose nuevos retos en este ámbito y uno de los posibles nuevos productos son los juegos basados en cámaras. Estos juegos serán controlados por el jugador mediante cámaras 3D que capturarán cada movimiento con seis grados de libertad y harán que el personaje actue en consecuencia. Esta tecnología va más allá del control mediante una cámara anteriormente conocido como puede ser el eyeToy ya que las imagenes procesadas serian tridimensionales y no planas.
    • Juegos para terminales móviles: Con la aparición del iPhone no sólo se ha revolucionado el campo de la telefonia movil y los smartphones si no que se ha descubierto todo un nuevo mundo de terminales móviles suficientemente potentes como para ejecutar buenos juegos y no sólo pasatiempos. Debido a esto varios expertos aseguran que parte de los desarrolladores deberian cambiar mover parte de sus esfuerzos para la creación de juegos para este nuevo tipo de terminales.
  • OnLive:

    Este ha sido sin duda el producto más destacado de toda la conferencia de desarrolladores y no sólo por la posible revolución del mercado de los video juegos que plantea si no por el reto tecnológico que a primera instancia presenta. Onlive propone un cambio de paradigma a la hora de jugar con una consola. Destierran la idea de comprar un soporte físico con el juego e incluso la propia consola. Su idea consiste en que cada jugador simplemente tenga una pantalla con la que jugar y una conexión a internet. Las ordenes generadas por los controles se enviarian a los centros de cálculo de la empresa donde se interpretarian, se ejecutaria el juego, se capturaria la salida de video , se comprimiria y se enviaria hacia el jugador como un streaming de video normal.

ETech, lo más destacado

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (No valorado aún)
Loading ... Loading ...

Otra interesante conferencia a la que pudimos asistir fue ETech que se celebró en San José, en California, entre los días 9 y 12 de marzo de 2009. Es posible encontrar bastante información sobre el desarrollo de la conferencia en su web.

ETech 09

El ETech, desde sus primeros días como “conferencia P2P” ha evolucionado mucho, aunque siempre cubriendo temas variados y heterogéneos, que van mucho más allá de la innovación tecnológica. Por ello es un buen lugar para pulsar las grandes tendencias y movimientos, sobre todo considerando que su público son los llamados “alpha-geeks”.

Estos han sido los temas más destacados en esta conferencia:

  • Energía y sostenibilidad. Se trata de un tema central en ésta y cualquier otra reunión en la que se trate sobre el futuro. Quizá el matiz original de este año ha estado en señalar como muy importantes las acciones a pequeña escala, personales, por encima de las grandes acciones más propias de estados.
  • El ubicuo matiz “sostenible”: “design sustainability” y un “diseño universal” que facilite el acceso a las tecnologías moviendo el foco hacia grupos humanos mucho más extensos.
  • Sensores y recolección de información, viendo a móviles y portátiles conectados como plataformas para la recogida de datos. Se discutió mucho sobre la privacidad, y la forma de procesar y presentar toda esa información.
  • Visiones del futuro, y las que aparentemente tuvieron más impacto por la expectación que generaron fueron:
    • La evolución de las ciudades y sus implicaciones. Vamos camino de una aceleración y profundización en el desarrollo urbano
    • Las formas de “Life hacking”, es decir todas las técnicas encaminadas a la mejora de las capacidades de nuestros cuerpos y mentes
    • Las nuevas noticias, la función y orientación futura de los medios de comunicación
    • Robots, con el foco puesto en la energía y el impacto en la vida diaria
  • La creatividad ha sido un tema transversal, y hemos visto conferencias cuyo nexo común eran formar imaginativas y originales de crear nuevas tecnologías, y aplicaciones. Otro tema relevante fue el arte y la ficción como fuerza de inspiración, y por supuesto los usuarios, el movimiento “make” y la capacidad creativa del público.

El año pasado ya comentamos las principales tendencias de la edición de 2008 de ETech.

Hablemos de la Singularidad

1 Malo2 Mejorable3 Normal4 Bueno5 Excelente (Votos: 2. Media: 4,50/5)
Loading ... Loading ...

En la historia del desarrollo tecnológico se puede apreciar una progresiva aceleración en el progreso con plazos cada vez más cortos entre un gran salto o “revolución” y otro. Hay quien sostiene que si esta aceleración en el cambio o en el desarrollo se mantiene, acabará llegando un momento en que seamos capaces de provocar un nuevo salto a partir de la construcción de sistemas verdaderamente inteligentes capaces, a su vez, de impulsar cambios de dimensiones inconcebibles gracias a la escalabilidad y a formas de razonamiento y creatividad distintas de las que conocemos. Ese hipotético momento del futuro es la Singularidad, el punto en el que el desarrollo humano entrará en una escala nueva, órdenes de magnitud por encima de la evolución que hasta ahora hemos conocido.

En torno a este concepto se ha creado una sorprendentemente amplia comunidad para especular sobre su naturaleza, alcance, y significado. Es probablemente una de las líneas de predicción tecnológica futura más relevante de la actualidad.

Para evaluar las implicaciones y el fondo de realidad de la Singularidad una publicación tan digna de crédito como IEEE Spectrum publicó a mediados del pasado año un número especial muy recomendable donde repasa el concepto, sus principales protagonistas, y las áreas de conocimiento directamente implicadas. Hay también información muy interesante en el Boletín de la Sociedad de la Información de Telefónica, en el artículo “Singularidad Tecnológica: «La ciencia ficción da paso a la realidad»”, o en otros sitios más orientados a la prospectiva (el “futurism” inglés).

Máquinas frente a mentes

A pesar de sus bases tecnológicas, el debate en torno a La Singularidad está rodeado de concepciones filosóficas y casi religiosas. Así, es habitual que se mencione la perspectiva de una prolongación casi indefinida de la vida, o de la migración de la consciencia a soportes artificiales, o de un hipotético “final de la edad humana”.

Es sorprendente la cantidad de campos afectados por este concepto de la Singularidad. No se trata únicamente del hardware, la computación o la Inteligencia Artificial, es que además la neurología, la nanotecnología, la biología o la propia economía, se ven afectadas por este concepto. Al mismo tiempo, la Singularidad es una fuente de estímulo y un freno para la innovación: adelantarse en alcanzarla supone adquirir el dominio sobre sus potenciales beneficios; también se ve como una forma de paliar sus riesgos, por ejemplo potenciando la Inteligencia Artificial para que ayude a contrarrestar los potenciales riesgos de la nanotecnología; o por último, pidiendo que se detenga la investigación en determinados campos, como en el influyente texto “Why the future doesn’t need us”.

Desde el punto de vista de las tecnologías de la información y las comunicaciones, la Singularidad debe ser vista como una meta puesta en el horizonte por buena parte de los principales protagonistas de la industria; un concepto que afecta a muchas de las áreas de trabajo, y a su evolución futura; y una forma de ver el futuro que sea correcta o no dejará su impronta en nuestro trabajo y la forma de abordarlo.

Los campos en las TIC más afectados por el impulso hacia la Singularidad son fundamentalmente los relacionados con la emulación de la consciencia y el razonamiento humanos, la inteligencia artificial, la robótica, o los sensores.

Por cierto, parece un lugar común en todas estas teorías el poner la fecha de aparición de la Singularidad dentro de este siglo XXI. A partir de ahí los plazos va de entre 10 a 15 años, a los últimos años de la centuria. Uno de los más reputados teóricos de la Singularidad, Kurzweil, la fija en el 2045.