
En el verano de 1956, un grupo de académicos, que ahora conocemos como informáticos, se reunieron en el campo del Dartmouth College de New Hampshire para discutir cómo hacer que las máquinas pensaran como los humanos. Uno de ellos, John McCarthy, acuñó el término “inteligencia artificial”. Esta legendaria reunión, que dio nombre a un nuevo campo, es bien conocida.
En este siglo, una variante del término ha pasado a primer plano: la inteligencia artificial general, o IAG, la etapa en la que las computadoras pueden igualar o superar la inteligencia humana. La IAG ha sido el motor de los titulares de esta semana: un acuerdo entre OpenAI y Microsoft que dependía de lo que ocurriera si OpenAI lo lograba; gastos masivos de capital de Meta, Google y Microsoft para perseguirla; la sed de lograrla ayudando a Nvidia a convertirse en una empresa de 5 billones de dólares. Los políticos afirman que si EE UU no la consiguen antes que China, están fritos. Los pronosticadores dicen que el país podría conseguirla antes de que acabe la década, y que lo cambiará todo.
El origen de ese término, sin embargo, y cómo se definió originalmente, no es tan conocido. Pero hay una respuesta clara a esa pregunta. La persona que ideó por primera vez el acrónimo más importante del siglo XXI hasta la fecha, así como una definición que sigue siendo más o menos la forma en que pensamos en él hoy en día, es desconocida para casi todo el mundo.
Esta es su historia
En 1997, Mark Gubrud estaba obsesionado con la nanotecnología y sus peligros. Era un fanboy del ingeniero Eric Drexler, que popularizó la ciencia de lo muy muy pequeño. Gubrud empezó a asistir a conferencias sobre nanotecnología. Lo que más le preocupaba era cómo esa tecnología, y otras ciencias de vanguardia, podían convertirse en peligrosas armas de guerra. “Yo era un estudiante de posgrado sentado en el subsótano de la Universidad de Maryland, escuchando una enorme bomba de sumidero encenderse y apagarse muy ruidosamente, justo detrás de mi escritorio, y leyendo todo lo que podía”, me cuenta en una llamada de Zoom desde el porche de una cabaña en Colorado.
Ese mismo año, Gubrud envió y presentó una ponencia en la Quinta Conferencia Foresight sobre Nanotecnología Molecular, titulada “Nanotecnología y seguridad internacional”. Sostenía que las tecnologías de vanguardia redefinirán los conflictos internacionales, haciéndolos potencialmente más catastróficos que la guerra nuclear. Instó a las naciones a “abandonar la tradición guerrera”. Las nuevas ciencias de las que habló incluían la nanotecnología, pero también la IA avanzada, a la que se refirió como, “inteligencia artificial general”. Parece que nadie había empleado antes esa expresión. Más adelante la definió:
Elimina la última cláusula y tendrá la definición de IAG que la mayoría de la gente utiliza hoy en día.
“Necesitaba una palabra para distinguir la inteligencia artificial de la que yo hablaba de la IA que la gente conocía, que eran los sistemas expertos. Estaba claro que no era del mismo tipo”, explica. El artículo no tuvo mucha difusión y su impacto fue mínimo.
IA real
Avancemos hasta principios de la década de 2000, una época en la que el invierno de la IA seguía enfriando el campo. Algunos investigadores perspicaces percibieron un deshielo. En 1999, Ray Kurzweil predijo en su libro The Age of Spiritual Machines (La era de las máquinas espirituales) que la IA sería capaz de igualar la cognición humana hacia 2030. Esto tocó la fibra sensible del informático Ben Goertzel, que empezó a trabajar con su colaborador Cassio Pennachin en la edición de un libro sobre enfoques de la IA que pudieran utilizarse ampliamente, en lugar de emplear el aprendizaje automático para abordar ámbitos específicos y limitados, como jugar al ajedrez o elaborar diagnósticos médicos.
Kurzweil se había referido a esta tecnología más amplia como “IA fuerte”, pero parecía confusa. Por su parte, Goertzel la llamó “IA real” o quizá “inteligencia sintética”. Ninguna de las dos alternativas encantó a los colaboradores del libro, así que debatieron otras ideas. Entre ellos se encontraban influyentes futuros de la IA como Shane Legg, Pei Wang y Eliezer Yudkowsky.
