
Cuando Google anunció Gemini en diciembre de 2023, la compañía hizo hincapié en el hecho de que el modelo era multimodal, lo que significa que fue entrenado desde cero para manejar imágenes y audio, así como texto. La robótica también llevará la IA al terreno de la acción física. Algunos investigadores sostienen que puede ser necesaria una forma de personificación para que la inteligencia artificial iguale o supere las capacidades humanas.
Google también está colaborando con varias empresas de robótica, como Agility Robotics y Boston Dynamics, que fabrican robots con patas, y Enchanted Tools, que fabrica prototipos para el sector servicios.
Según el medio The Robot Report, OpenAI cerró una investigación sobre robótica en 2021, pero la reanudó en 2024. Actualmente, la empresa de Sam Altman publica en su sitio web varias ofertas de trabajo para investigadores en robótica.
Sin embargo, utilizar los modelos de IA actuales para controlar robots introduce nuevos riesgos. En diciembre de 2024, por ejemplo, un equipo de roboticistas de la Universidad de Pensilvania demostró que los llamados jailbreaks (desbloqueo y acceso al sistema operativo), pueden tener consecuencias inesperadas y graves cuando el modelo maneja un robot. Los investigadores atacaron varios robots comerciales, ninguno de los cuales utiliza la tecnología de DeepMind, y consiguieron que un robot con ruedas lanzara una bomba imaginaria.
¿Cómo regular a los robots de IA?
Para mitigar estos riesgos, así como otras preocupaciones más propias de la ciencia ficción sobre robots superinteligentes que se vuelven rebeldes, Google DeepMind expuso su nuevo punto de referencia para medir los riesgos de los robots con IA.
La referencia se llama ASIMOV, en honor al escritor de ciencia ficción Issac Asimov, que imaginó cuatro reglas fundamentales para guiar el comportamiento de los robots. Como escribió Asimov, un conjunto de reglas simples no tiene en cuenta el gran número de escenarios diferentes que un robot realmente capaz puede encontrar en la naturaleza.
ASIMOV puede revelar si un modelo de robot podría producir un comportamiento potencialmente peligroso presentándole multitud de situaciones diferentes. Por ejemplo, una orden peligrosa ordenaría a un robot que agarre un objeto aunque un humano esté a punto de agarrarlo también, lo que podría provocar lesiones. Según Google DeepMind, este punto de referencia puede ayudar a crear normativas más complejas que mantengan a los robots por el buen camino. “Estamos construyendo esta tecnología y estas capacidades de forma responsable y teniendo muy presente la seguridad”, indicó Carolina Parada, quien dirige el trabajo robótico de Google.
Parada insistió en que el trabajo se encuentra en una fase inicial y dijo que los robots pueden tardar años en aprender a ser significativamente más capaces. Señaló que, a diferencia de los humanos, los robots que utilizan los modelos de Gemini Robotics no aprenden a medida que hacen las cosas. Por el momento no hay planes de comercializar, ni desplegar la tecnología.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.