Uncategorized

X prohíbe la generación de imágenes sexualizadas con Grok, incluso para usuarios de pago

X, la red social propiedad de Elon Musk, informó que ha implementado nuevas medidas para impedir que Grok, su asistente de inteligencia artificial (IA), genere imágenes no consensuadas de personas reales con bikinis, ropa interior u otras prendas similares. La restricción aplica para todos los usuarios de la plataforma, incluidos aquellos que cuentan con planes de suscripción premium.

“Seguimos comprometidos a hacer de X una plataforma segura para todos y mantenemos una política de tolerancia cero frente a cualquier forma de explotación sexual infantil, desnudez no consensuada y contenido sexual no deseado”, señaló la compañía en su página oficial de seguridad.


Grok bikini

La creación y difusión de deepfakes sin consentimiento, tal como sucede con Grok, es un delito en diversas partes del mundo, pero gran parte de la responsabilidad para prevenir la infracción recae en los propios usuarios.


La postura se dio a conocer después de que, en semanas recientes, autoridades de protección de datos y organizaciones civiles denunciaran el uso indebido de Grok para generar versiones sexualizadas o con atuendos sugerentes de fotografías de mujeres y menores de edad sin su consentimiento. Estas prácticas encendieron las alertas sobre los riesgos asociados al uso de herramientas de IA generativa sin controles adecuados.

La organización francesa sin fines de lucro AI Forensics publicó un análisis detallado sobre este fenómeno. Tras examinar cerca de 50,000 menciones de la cuenta @Grok en X y aproximadamente 20,000 imágenes generadas por el asistente entre el 25 de diciembre de 2025 y el 1 de enero de 2026, el grupo detectó que alrededor de una cuarta parte de los resultados correspondían a solicitudes que incluían términos como “ella”, “poner”, “quitar”, “bikini” y “ropa”.

Los investigadores identificaron, además, que más de la mitad de las imágenes producidas mostraban a personas en ropa interior o trajes de baño, en su mayoría mujeres que aparentaban tener menos de 30 años. El informe subrayó que este tipo de solicitudes y resultados ponen en evidencia la facilidad con la que los sistemas de IA pueden ser utilizados para crear contenidos sexualizados sin consentimiento, incluso cuando existen supuestas barreras de seguridad integradas.

La nueva era del fitness

En este especial de WIRED en español reunimos las historias sobre los gadgets y la tecnología que quiere cambiar la forma en la que monitoreas tu salud.

Arrow

Autoridades internacionales investigan a Grok

La situación provocó una ola de indignación a nivel internacional. El gobierno de Francia fue el primero en reaccionar al presentar una denuncia formal contra Grok por facilitar la creación y difusión de “contenidos de carácter sexista y sexual”, según información de la agencia EFE. Las autoridades francesas solicitaron a la Autoridad de Regulación de la Comunicación Audiovisual y Digital (Arcom) que determine si X ha incumplido las obligaciones establecidas en el Reglamento de Servicios Digitales de la Unión Europea, en particular las relacionadas con la prevención de la difusión de contenidos ilícitos.

En el Reino Unido, la Office of Communications (Ofcom), organismo regulador de los medios, inició una investigación formal para evaluar la eficacia de las medidas de seguridad de la plataforma y delimitar responsabilidades en torno a las imágenes sugerentes, las cuales calificó como “profundamente preocupantes”. En una línea similar, Rob Bonta, fiscal general de California, adelantó que abrirá una indagatoria para abordar la “proliferación de material sexualmente explícito no consensuado producido mediante Grok”.

Como una solución inicial, X informó que la función de generación de imágenes a través de Grok estaría disponible solo para usuarios de pago. De acuerdo con la empresa, “esto añade una capa adicional de protección, ya que ayuda a garantizar que quienes intenten abusar de la cuenta de Grok para infringir la ley o nuestras políticas puedan ser identificados y responsabilizados”.