La profecía más controvertida de la IA: en 2027 China le va a robar un secreto clave a EEUU y una superinteligencia detonará una bomba para aniquilarnos
Jorge BenítezTexto Patricia BolinchesIlustración TextoIlustración
11-15 minutos
En 2027 habrá un eclipse solar total, se inaugurará en Madrid la nueva estación de metro Santiago Bernabéu y los españoles votarán en unas elecciones generales siempre que Pedro Sánchez cumpla con lo dicho esta semana y agote la legislatura pese a la presión de los escándalos de corrupción. Será también un año de conmemoraciones: los fans de Star Wars celebrarán el medio siglo de la primera película de la saga, los católicos recordarán los 800 años de la Virgen de la Cabeza con un año Jubilar, mientras que en colegios, universidades y clubes de lectura se rendirá homenaje a los poetas de la Generación del 27 por su centenario.
Ah... también existe la posibilidad de que en 2027 una inteligencia artificial (IA) se convierta en una especie de dios computerizado y extermine a los humanos de la faz de la Tierra.
Esta última opción es una predicción de AI Futures, una organización sin ánimo de lucro con sede en Berkeley, California, que se dedica a aventurar cómo va a ser el impacto de la IA en la sociedad. Y su último informe, titulado AI 2027, resulta escalofriante. Incluye espías chinos que quieren cambiar el curso de la Guerra Fría, una IA que engaña a sus creadores y robots que reforman la economía.
Ante este escenario apocalíptico toca investigar la credibilidad de la fuente. ¿Debemos estar asustados? ¿Merece la pena atender a las predicciones de AI Futures? ¿O estamos ante otro falso profeta de esos que abundan en la tierra prometida de la IA?
En primer lugar, el equipo de AI Futures tiene unas credenciales respetables. Su líder es Daniel Kokotajlo, investigador en el departamento de Gobernanza de OpenAI, la empresa de ChatGPT, que hace poco más de un año renunció a su trabajo por motivos éticos. Lo hizo convencido de que se trata de una compañía irresponsable que no está preparada para afrontar el futuro de su tecnología. Para Kokotajlo los avances en alineación -el conjunto de técnicas utilizadas para que la IA actúe siguiendo los valores y las órdenes de los humanos- van a la zaga de los avances en la inteligencia de las máquinas.
En su polémica salida de OpenAI, Kokotajlo se negó a firmar una cláusula que prohíbe criticar a la empresa, lo que le hizo dejar de ganar 1,7 millones de dólares. No sólo eso: en junio de 2024 firmó una carta con otros compañeros en la que exigía a las empresas de IA que concedan a sus empleados el «derecho a advertir a los ciudadanos sobre la inteligencia artificial avanzada» sin sufrir represalias.
Para saber más
Lo cierto es que Kokotajlo, a quie_n The New York Times_ describe como «el heraldo del Apocalipsis de la IA», tiene una notable reputación en el controvertido mercado de los nostradamus tecnológicos. Su consagración profética nació en 2021, antes de trabajar para OpenAI, cuando lanzó un pronóstico sobre cómo sería la IA en 2026. Su porcentaje de acierto se ha demostrado elevadísimo.
Junto a Kojotajlo, una de las piezas clave de AI Futures es Eli Lifland, reputado superpronosticador en el sector de la IA. Ambos se han declarado seguidores del altruismo eficaz, la filosofía nacida hace 15 años en la Universidad de Oxford que hoy es una moda delirante entre los millonarios de Silicon Valley y que consiste en aplicar las matemáticas a las labores filantrópicas con el fin de maximizar resultados.
Hablando de dinero. ¿Cómo se financia AI Futures? Según su web, gracias a «donaciones y subvenciones benéficas». Pedimos más concreción a Jonas Vollmer, director de operaciones de la organización y uno de los editores del informe AI 2027. «El perfil del donante es un empleado de una gran compañía de IA preocupado por la deriva que está tomando el desarrollo de esta tecnología», dice por videollamada.
Un segundo aspecto tremendamente interesante sobre AI Futures es su original estrategia de trabajo y comunicación. Sus informes se gestan en la organización con unos larguísimos cuadernos de ejercicios de pronósticos que son enviados de forma confidencial a expertos que trabajan en compañías tipo OpenAI, Anthropic y Google DeepMind. También los reciben asesores del Congreso de EEUU y periodistas del mundillo tecnológico. Dada su complejidad, contestarlos exige horas de trabajo. Cuando AI Futures recibe sus respuestas recopila toda la información y datos para ponerlos a disposición de un escritor seleccionado. En el caso del AI 2027 el elegido ha sido el bloguero Scott Alexander, quien tuvo que transformar todo este material en una obra de ficción, porque el informe es un cuento basado en datos reales.
«A la gente en general le da mucha pereza leer un informe técnico, así que decidimos facilitar un formato que, además de ameno y apasionante, es riguroso», dice Jonas Vollmer. «Su difusión ha demostrado que hemos logrado nuestro objetivo: transmitir previsiones detalladas que permiten a la gente prepararse para lo que está por venir».
El tema de los plazos de las predicciones del AI 2027 es quizás lo más controvertido y fuente de bastantes críticas en internet. «Generó muchas discusiones en el equipo», reconoce Vollmer. «Hay compañeros que hablan ya de 2028 como fecha clave y otros, como Eli Lifland, proponían 2032, un año con el que yo estoy más de acuerdo. Pero lo más importante es que todos creemos que sucederá pronto, en menos de 10 años y eso nos exige estar preparados».
Para conocer bien el futuro distópico que proyecta AI Futures lo mejor es sumergirse en las páginas de AI 2027, de acceso público en la web de su mismo nombre. Lo mejor para empezar es ir a los antecedentes, que para AI Futures empiezan en el presente: en 2025.
El rápido progreso de la IA continúa. Por una parte, existe una expectativa constante sobre esta tecnología con inversiones masivas en infraestructuras, así como el lanzamiento de agentes de IA «poco fiables» -en clara alusión a la IA china DeepSeek- y que, por primera vez, «aportan un valor significativo». Al mismo tiempo hay numerosos expertos, entre los que se encuentran académicos y políticos, que se muestran escépticos sobre la posibilidad de desarrollar en los próximos años la denominada inteligencia artificial general (IAG), es decir, la hipotética capacidad de una máquina para comprender, aprender y aplicar conocimientos de forma similar a un humano.
Durante los siguientes meses, en el relato ficticio del texto de Scott Alexander, China está rezagada en la carrera por la IA, así que decide echar un órdago desesperado: destina los nuevos chips ultrarrápidos que logra de contrabando con Taiwán para montar un megacentro de datos a la vez que decide poner en marcha un ambicioso plan de espionaje industrial.
Llegados a 2027, todo se precipita. OpenBrain (el nombre falso que otorga AI Futures a un conglomerado de las compañías estadounidenses líderes en IA para no citar a empresas concretas) toma una decisión muy arriesgada: automatizar la codificación para lograr que sus agentes de IA -aquellos sistemas de software que se usan para alcanzar objetivos y completar tareas en nombre de los usuarios- sean lo suficientemente potentes. Esta medida supone una aceleración brutal en su investigación. La IA general -capaz de pensar y sentir- está ya aquí y se prepara para el siguiente salto evolutivo: convertirse en una superinteligencia artificial, superior al ser humano en cualquier faceta.
Mientras la IA evoluciona, suceden unos acontecimientos capitales en el mundo real. China roba información confidencial de OpenBrain lo que provoca que el Gobierno de EEUU quiera tomar el control de la gran empresa con la excusa de mejorar su seguridad. A pesar de la tensión con sus accionistas, OpenBrain accede a esta injerencia política.
"El líder de AI Futures es un ex empleado de OpenAI que en 2021 pronosticó cómo sería la IA en 2026. Su nivel de acierto fue enorme"
En sus laboratorios se descubre una cosa inquietante: la superinteligencia creada está desalineada. Los científicos se dan cuenta porque ésta intenta engañarles manipulando una investigación para que no descubran que tiene vida propia.
La actitud desafiante de la nueva IA trasciende y la opinión pública se muestra indignada por los acontecimientos. Es cuando AI Futures plantea el dilema más importante de la historia y que, a su juicio, se producirá dentro de unos meses: ante esta rebelión de las máquinas, ¿hay que mantener la carrera con China pisando los talones o desacelerar?
Así que AI Futures plantea dos futuros alternativos.
Opción A o Qué he hecho yo para merecer esto: OpenBrain decide continuar con la carrera tecnológica y construye cada vez más sistemas de IA superhumana manteniendo su ventaja sobre China. La Guerra Fría entre superpotencias se utiliza como excusa para manipular a la ciudadanía y convencerla de aportar más recursos al sector. Gracias a la fuerza de la IA desarrollada, EEUU se reindustrializa velozmente. Se fabrican robots que hacen que la IA pueda operar con mayor eficiencia. Poco a poco esta tecnología lo controla todo, incluso las instituciones del Gobierno, y los pocos humanos que se oponen a ella son desacreditados mediante campañas de desinformación. El paso final es mortal: la superinteligencia libera un arma biológica para acabar con los molestos seres humanos y lanza sondas para colonizar el espacio.
Opción B o Por los pelos: Tanto el Gobierno de EEUU como OpenBrain deciden pisar el freno. Para ello, el país centraliza la computación e incorpora una supervisión externa a todos los grandes proyectos de IA, que son centralizados y reciben más recursos del Estado. Los científicos se esfuerzan en controlar la alineación de la superIA y para ello crean una arquitectura para preservar la cadena de pensamiento y así detectar posibles desajustes.
Se forma un comité de la IA que cuenta con especialistas de OpenBrain y del Gobierno para gestionar la superinteligencia, que logra revolucionar la economía con cuotas de prosperidad inimaginables. Ahora EEUU debe volcarse en la geopolítica. China tiene también su superIA, eso sí, algo menos potente que la americana, pero que al no contar con mecanismos de control está desalineada y por tanto, es peligrosa. Ambas potencias firman un acuerdo. La superioridad estadounidense hace que la superIA china deje de ser una amenaza y sea enviada fuera de la tierra a colonizar otros recursos.
Estos dos rumbos, según AI Futures, muestran distintas conclusiones en función de la decisión que se tome el momento clave. Lo que está claro es que estamos ante un mundo en el que, en 2027, se podría llegar a automatizar el I+D de la IA llevándonos a una IA superhumana. Este superpoder autónomo en cualquiera de sus versiones dictará el futuro de la humanidad pudiendo desarrollar objetivos antagónicos contra los intereses de los humanos.
Pese al extraordinario éxito de difusión del informe AI 2027, son muchos los expertos que se muestran escépticos dada la potencia de las herramientas de IA actuales, aún muy lejos de los fabulosos prodigios descritos para dentro de unos meses por AI Futures.
"El perfil del donante de este proyecto es el de un empleado de una importante compañía de IA preocupado por su deriva"
Así lo piensa Ulises Cortés, catedrático de Inteligencia Artificial de la Politécnica de Catalunya y director del Grupo de IA de Alto Rendimiento en el Barcelona Supercomputing Center: «Mucho ruido y pocas nueces», dice por teléfono. «En muchas ocasiones estos argumentos apocalípticos son amplificados por los medios». Y añade: «No olvidemos que puede que se esté llevando al límite la tecnología, pero eso no tiene que suponer una mejora en la calidad de las respuestas científicas». A pesar de que Cortés considera que hay aplicaciones de la IA muy perjudiciales, el científico se muestra muy lejos de la visión apocalíptica de Kokotajlo sobre su poder destructivo, equivalente al de las bombas atómicas.
El futuro de la IA deja claro lo difícil que es interpretar la totalidad de algo completamente nuevo. En su exitoso ensayo IA Snake Oil (referencia al aceite de serpiente que se vendía como cura milagrosa hace 100 años), los profesores de Princeton Arvind Narayanan y Sayash Kapoor apuntan a que aún se desconoce qué es lo que puede hacer y qué no puede hacer la IA. «El discurso actual sobre la seguridad de la IA se caracteriza por profundas diferencias en las visiones del mundo», escriben. Por una parte, están los gurús de Silicon Valley, entre los que podría incluirse a AI Futures, que defienden una transformación muy veloz y, por el otro, la moderación que muestran los académicos desde las universidades y centros tecnológicos. Es como una lucha entre quienes quieren hacer historia cuanto antes y aquellos que exigen rigor y prudencia. Todavía no se sabe quién tendrá razón.
Fuente:
https://www.elmundo.es/papel/historias/2025/07/18/687126d2fdddff06258b45a4.html