
El 16 de mayo de 2023, Sam Altman compareció ante un subcomité judicial del Senado. El título de la comparecencia era ‘Supervisión de la IA’. La sesión fue una fiesta de amor, en la que tanto Altman como los senadores celebraron lo que Altman denominó “el momento de la imprenta” de la IA, y reconocieron que Estados Unidos necesitaba leyes sólidas para evitar sus trampas. “Creemos que la intervención reguladora de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes”, afirmó. Los legisladores estaban pendientes de cada una de las palabras de Altman, que se deshacía en elogios sobre cómo unas leyes inteligentes podrían permitir el florecimiento de la IA, pero solo dentro de unas directrices firmes que tanto los legisladores como los creadores de IA consideraban vitales en ese momento. Altman hablaba en nombre del sector, que compartía ampliamente su actitud. El grito de guerra era “¡Regúlennos!”.
Dos años después, el 8 de mayo de este año, Altman estaba de nuevo frente a otro grupo de senadores. Los senadores y Altman seguían cantando la misma melodía, pero una sacada de una lista de reproducción diferente. Esta audiencia se llamaba ‘Ganar la carrera de la IA’. En DC, la palabra “supervisión” ha caído en desgracia, y el discurso de la IA no es una excepción. En lugar de abogar por organismos externos que examinen los modelos de IA para evaluar los riesgos, o por plataformas que alerten a las personas cuando están interactuando con la IA, el presidente del comité, Ted Cruz, abogó por un camino en el que el gobierno no solo impulse la innovación, sino que elimine barreras como la “sobrerregulación”. Altman estaba de acuerdo. Su mensaje ya no era “regúlame”, sino “invierte en mí”. Dijo que el exceso de regulación, como las normas adoptadas por la Unión Europea o un proyecto de ley vetado recientemente en California, sería “desastroso”. “Necesitamos espacio para innovar y movernos con rapidez”, afirmó. Las barreras de seguridad pueden ser necesarias, afirmó, pero deben implicar “una regulación sensata que no nos frene”.
¿Qué ha ocurrido? Por un lado, pasó el momento de pánico justo después de que todo el mundo se asustara con ChatGPT, y quedó claro que el Congreso no iba a avanzar rápidamente en materia de IA. Pero lo más importante es que Donald Trump ha vuelto a la Casa Blanca y ha frenado el tono matizado y favorable a la regulación de la administración Biden. La doctrina de Trump sobre la regulación de la IA parece sospechosamente cercana a la de Marc Andreessen, partidario de Trump, que declaró en su Manifiesto Tecno Optimista que la regulación de la IA era literalmente una forma de asesinato porque “cualquier desaceleración de la IA costará vidas”. El vicepresidente J.D. Vance hizo explícitas estas prioridades en un encuentro internacional celebrado en París este mes de febrero. “No estoy aquí (…) para hablar de la seguridad de la IA, que era el título de la conferencia de hace un par de años”, dijo. “Creemos que una regulación excesiva del sector de la IA podría acabar con una industria transformadora justo cuando está despegando, y haremos todo lo posible para fomentar políticas de IA favorables al crecimiento”. Más tarde, la administración dio a conocer un Plan de Acción de IA “para mejorar la posición de Estados Unidos como potencia de IA y evitar que requisitos innecesariamente onerosos obstaculicen la innovación del sector privado.”
En este movimiento han surgido dos enemigos. El primero es la Unión Europea, que ha adoptado un régimen regulador que exige transparencia y responsabilidad a las grandes empresas de IA. La Casa Blanca desprecia este enfoque, al igual que quienes crean empresas de IA en Estados Unidos.
Pero el mayor peligro es China. La perspectiva de que la República Popular supere a Estados Unidos en la “carrera de la IA” es tan impensable que la regulación debe dejarse de lado, o hacerse con lo que tanto Altman como Cruz describieron como un “toque ligero”. Parte de este razonamiento proviene de una teoría conocida como “despegue duro”, que postula que los modelos de IA pueden llegar a un punto de inflexión en el que la superación a la velocidad del rayo lance un vertiginoso giro de supercapacidad, también conocida como AGI. “Si llegas primero, no podré atraparte”, dice el ex-CEO de Google, Eric Schmidt, siendo el “tú” un competidor (Schmidt se refería a la situación de China como líder en código abierto). Schmidt es una de las voces más fuertes que advierten sobre este posible futuro. Pero la Casa Blanca probablemente esté menos interesada en la Singularidad que en la competencia económica clásica.
El miedo a que China se adelante en el campo de la inteligencia artificial es el principal motor de la actual política estadounidense, por encima de la seguridad. La línea del partido se opone incluso a que los estados individuales intenten llenar el vacío de la inacción con leyes propias. La versión del megaproyecto de ley de reducción de impuestos y recorte de Medicaid que acaba de aprobar la Cámara de Representantes incluía una moratoria obligatoria sobre cualquier legislación estatal en materia de IA durante 10 años. Eso es como una eternidad en términos de progreso de la IA. (Los expertos dicen que esta disposición no sobrevivirá a cierta oposición en el Senado, pero hay que señalar que casi todos los republicanos de la Cámara votaron a favor).
No es sorprendente que Trumpworld rechace la regulación y adopte una postura patriotera sobre la IA. Pero, ¿qué ha pasado con el aparentemente genuino apetito de la industria por normas que garanticen que los productos de IA no se desboquen? Esta semana me puse en contacto con varias de las principales empresas de IA y me remitieron a blogs publicados y transcripciones de discursos y testimonios públicos, pero ningún ejecutivo quiso pronunciarse sobre el tema. (Para ser justos, no les di mucho tiempo).