Uncategorized

El llamado de Singapur para lograr una IA segura tiende un puente entre Estados Unidos y China

El Gobierno de Singapur publicó un plan de colaboración mundial en materia de seguridad de la inteligencia artificial tras una reunión de investigadores de EE UU, China y Europa.
El documento expone una visión compartida para trabajar en la seguridad de la IA mediante la cooperación internacional en lugar de la competencia.

“Singapur es uno de los pocos países del planeta que se lleva bien tanto con Oriente como con Occidente. Saben que no van a construir inteligencia artificial general (AGI) ellos mismos, por eso les interesa mucho que los países que vayan a construirla mantengan una buena relación entre sí”, afirma Max Tegmark, científico del MIT que ayudó a convocar la reunión de luminarias de la IA el mes pasado.


Visa dorada

Donald Trump quiere lanzar un programa de “visa de oro” que ofrezca la residencia estadounidense a millonarios. El DOGE, de Elon Musk, ya empezó a desplegar la tecnología necesaria.


Los países con más probabilidades de construir AGI son EE UU y China

Paradójicamente, los países con más probabilidades de construir una AGI son también los menos dispuestos a cooperar. En enero, tras el lanzamiento de un modelo de vanguardia por parte de la startup china DeepSeek, el presidente Trump lo describió como “una llamada de atención para nuestras industrias estadounidenses” y declaró que EE UU debía “centrarse en competir para ganar”.

El Consenso de Singapur sobre Prioridades Globales de Investigación en Seguridad de la IA pide a los investigadores colaborar en tres áreas clave: estudiar los riesgos que plantean los modelos de IA de frontera, explorar formas más seguras de construir esos modelos y desarrollar métodos para controlar el comportamiento de los sistemas de inteligencia artificial más avanzados.

Este consenso fue elaborado durante una reunión celebrada el 26 de abril, paralelamente a la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR), uno de los principales eventos sobre IA realizados este año en Singapur. Asistieron investigadores de OpenAI, Anthropic, Google DeepMind, xAI y Meta, así como académicos del MIT, Stanford, la Universidad de Tsinghua y la Academia China de Ciencias. También participaron expertos de institutos de seguridad de la IA de Estados Unidos, Reino Unido, Francia, Canadá, China, Japón y Corea del Sur.

“En una era de fragmentación geopolítica, esta síntesis exhaustiva de la investigación de vanguardia sobre la seguridad de la IA es una señal prometedora de que la comunidad mundial se está uniendo con un compromiso compartido para dar forma a un futuro más seguro de la inteligencia artificial”, señala un comunicado firmado por Xue Lan, decano de la Universidad de Tsinghua, China.

El desarrollo de modelos de IA cada vez más potentes, algunos con habilidades sorprendentes, ha generado preocupación por una amplia gama de riesgos. Mientras algunos se enfocan en daños a corto plazo, como sesgos en los sistemas o su posible uso por parte de delincuentes, otros creen que la IA podría representar una amenaza existencial para la humanidad si llegara a superar la inteligencia humana en múltiples áreas. Estos últimos, a menudo llamados “catastrofistas de la IA”, temen que los modelos puedan engañar o manipular a los humanos para alcanzar sus propios objetivos.


article image

¿Así como los creativos mediocres, será que las empresas que no tienen nada que decir serán las primeras en desaparecer? ¿O simplemente estamos viendo el inicio de una era donde la creatividad seguirá siendo promedio, solo que ahora impulsada por IA?


Entre catastrofistas de la IA y cautelosos de la tecnología

El potencial de la IA también ha intensificado los debates sobre una carrera armamentista entre Estados Unidos, China y otras potencias. En los círculos políticos, esta tecnología se considera clave para la prosperidad económica y el dominio militar, lo que ha llevado a varios gobiernos a definir sus propias visiones y regulaciones.

En enero, el debut de DeepSeek intensificó los temores de que China esté alcanzando, o incluso superando a EE UU, pese a los intentos estadounidenses de limitar el acceso de China al hardware de IA mediante controles de exportación. Ahora, la administración Trump estudia medidas adicionales para restringir la capacidad de China en el desarrollo de IA avanzada.

Además, esta administración ha minimizado los riesgos de la IA en favor de una postura más agresiva en su desarrollo. En una importante cumbre sobre IA celebrada en París en 2025, el vicepresidente JD Vance afirmó que el gobierno estadounidense deseaba menos restricciones sobre el desarrollo y despliegue de la IA, calificando el enfoque previo como “demasiado renuente al riesgo”.

Tegmark señala que algunos investigadores están empezando a “cambiar un poco las reglas después de París”, reenfocando la atención hacia los riesgos de una IA cada vez más poderosa. Durante la reunión en Singapur, el científico del MIT presentó un documento técnico que cuestiona ciertos supuestos sobre seguridad en IA. Algunos investigadores habían planteado que sería posible controlar modelos avanzados utilizando otros más simples. Sin embargo, el estudio demuestra que esa estrategia falla en ciertos escenarios básicos, lo que sugiere que podría no funcionar para evitar un comportamiento descontrolado. “Hemos hecho todo lo posible para cuantificar esto y, técnicamente, no funciona al nivel que nos gustaría. Hay mucho en juego”, concluye Tegmark.

Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.