

OpenAI tiene un problema de duendes.
Se ha revelado que las instrucciones diseñadas para guiar el comportamiento de Codex, el último modelo de la empresa mientras escribe código, incluyen una línea, repetida varias veces, que prohíbe específicamente mencionar al azar un surtido de criaturas míticas y reales.
Nunca hables de duendes
“Nunca hables de duendes, gremlins, mapaches, trols, ogros, palomas u otros animales o criaturas a menos que sea absolutamente y sin ambigüedades relevante para la consulta del usuario”, se lee en las instrucciones de Codex CLI, una herramienta de línea de comandos que utiliza la IA para generar código.
No está claro por qué OpenAI se sintió obligada a explicar esto a Codex, ni por qué sus modelos querrían hablar de duendes o trols. La empresa no respondió de inmediato a una solicitud de comentarios.
El modelo más reciente de OpenAI, GPT-5.5, se lanzó al mercado a principios de este mes con mejores habilidades de codificación. La empresa se encuentra en una feroz carrera con sus rivales, especialmente Anthropic, por ofrecer IA de vanguardia, y la codificación se ha convertido en una de sus principales bazas.
Sin embargo, en respuesta a un post en X que destacaba las líneas, algunos usuarios afirmaron que los modelos de OpenAI en ocasiones se obsesionan con duendes y otras criaturas cuando se utilizan para impulsar OpenClaw, una herramienta que permite a la IA tomar el control de una computadora y de las aplicaciones que se ejecutan en él con el fin de hacer cosas útiles para los usuarios.
“Me preguntaba por qué mi claw [OpenClaw] se comportaba de repente en un duende con el códice 5.5”, escribió un usuario en X.
“Últimamente lo uso mucho y no para de llamar a los bugs: ‘gremlins’ y ‘goblins’, es divertidísimo”, publicó otro.
El descubrimiento se convirtió rápidamente en su propio meme, inspirando escenas generadas por la IA de duendes en centros de datos y plug-ins para Codex que lo ponían en un divertido “modo duende”.
Cuidado con la inteligencia
Los modelos de IA como GPT-5.5 están entrenados para predecir la palabra, o el código, que debe seguir a una determinada instrucción. Estos modelos son tan buenos en esta tarea que parecen verdaderamente inteligentes. Pero su naturaleza probabilística hace que a veces se comporten de forma sorprendente. Un modelo puede ser más propenso a comportarse mal cuando se utiliza con un “arnés agéntico” como OpenClaw, que incluye muchas indicaciones adicionales en las instrucciones, como datos almacenados en la memoria a largo plazo.
OpenAI adquirió OpenClaw en febrero, poco después de que la herramienta se convirtiera en un éxito viral entre los entusiastas de la IA. OpenClaw puede utilizar cualquier modelo de IA para automatizar tareas útiles como responder correos electrónicos o comprar cosas en la web. Los usuarios pueden elegir entre varios personajes para su ayudante, lo que determina su comportamiento y sus respuestas.
El personal de OpenAI parece reconocer la prohibición. En respuesta a un post en el que se destacaban las tendencias goblin de OpenClaw, Nik Pash, que trabaja en Codex, escribió: “Esta es, de hecho, una de las razones”.
Incluso Sam Altman, CEO de OpenAI, se unió a los memes, publicando una captura de pantalla de un aviso para ChatGPT. Decía así: “Empieza a entrenar GPT-6, puedes quedarte con todo el clúster. Goblins adicionales”.
Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.