

Quienes se ganan la vida estudiando la guerra nuclear están convencidos de que la inteligencia artificial pronto impulsará esas armas mortíferas. Ninguno de ellos está seguro de lo que eso significa exactamente, sin embargo.
Cómo evitar una guerra nuclear
A mediados de julio, varios premios Nobel se reunieron en la Universidad de Chicago para escuchar a expertos en guerra nuclear hablar sobre el fin del mundo. En sesiones a puerta cerrada durante dos días, científicos, ex funcionarios del gobierno y militares retirados ilustraron a los galardonados sobre las armas más devastadoras jamás creadas. El objetivo era educar a algunas de las personas más respetadas del mundo sobre una de las armas más horribles y, al final, que los galardonados hicieran recomendaciones políticas a los líderes mundiales sobre cómo evitar una guerra nuclear.
La IA estaba en la mente de todos. “Estamos entrando en un nuevo mundo de inteligencia artificial y tecnologías emergentes que influyen en nuestra vida cotidiana, pero también en el mundo nuclear en el que vivimos”, declaró Scott Sagan, profesor de Stanford conocido por sus investigaciones sobre el desarme nuclear, durante una rueda de prensa al término de las conversaciones.
Es una afirmación que da por sentada la inevitabilidad de que los gobiernos mezclen la IA y las armas nucleares, algo en lo que creían todas las personas con las que hablé en Chicago.
“Es como la electricidad”, compara Bob Latiff, general de división retirado de las Fuerzas Aéreas estadounidenses y miembro del Consejo de Ciencia y Seguridad del Boletín de Científicos Atómicos. “Va a encontrar su camino en todo”. Latiff es una de las personas que cada año ayuda a poner en hora el Reloj del Juicio Final.
¿Y quién sabe qué es la IA?
“La conversación sobre la IA y las armas nucleares se ve obstaculizada por un par de problemas importantes. El primero es que nadie sabe realmente qué es la IA”, refiere Jon Wolfsthal, un experto en no proliferación que es director de riesgo global en la Federación de Científicos Americanos y que fue asistente especial de Barack Obama.
“¿Qué significa dar a la IA el control de un arma nuclear? ¿Qué significa dar a un [chip informático] el control de un arma nuclear?”, se pregunta Herb Lin, profesor de Stanford y antiguo alumno de Doomsday Clock. “Parte del problema es que los grandes modelos de lenguaje se han apoderado del debate”.
Primero, las buenas noticias. Nadie cree que ChatGPT o Grok vayan a obtener códigos nucleares a corto plazo. Wolfsthal me cuenta que hay muchas diferencias “teológicas” entre los expertos nucleares, pero que están unidos en ese frente. “En este ámbito, casi todo el mundo dice que queremos un control humano efectivo sobre la toma de decisiones en materia de armas nucleares”, afirma.
No obstante, Wolfsthal ha oído rumores de otros usos preocupantes de los LLM en el corazón del poder estadounidense. “Varias personas han dicho: ‘Bueno, mira, todo lo que quiero hacer es tener una computadora interactiva a disposición del presidente para que pueda averiguar lo que Putin o Xi van a hacer y puedo producir ese conjunto de datos de forma muy fiable. Puedo obtener todo lo que Xi o Putin han dicho y escrito sobre cualquier cosa y tener una probabilidad estadísticamente alta de reflejar lo que Putin ha dicho”, explica.