
Dinamarca es el país más reciente, y el primero de la Unión Europea, en anunciar una medida que no solo regularía, sino prohibiría el acceso a redes sociales a menores de edad. La iniciativa responde a las preocupaciones de padres de familia sobre la salud mental de sus hijos, así como otras tendencias negativas en materia de desempeño académico o ciberacoso. Aunque esta problemática ha estado presente desde la creación de dichas plataformas, nuevas tecnologías, como la IA generativa, han acentuado las alarmas.
“Dinamarca está dando un paso sin precedentes hacia la introducción de límites de edad en las redes sociales” indicó un comunicado del Ministerio de Gobierno Digital de este país. “Esto se hace para proteger a los niños y jóvenes en el mundo digital. Como punto de partida, los menores de 15 años no podrán tener acceso a plataformas que puedan exponerlos a contenido o funciones perjudiciales”.
Hasta el momento, poco se sabe sobre la manera en que esta ley sería implementada o qué plataformas de redes sociales resultarían afectadas. El gobierno solo ha adelantado que, a partir de los 13 años de edad, los menores podrán crear cuentas en sus redes sociales, siempre y cuando tengan el consentimiento de sus padres o tutores, y también ha señalado que se explorarán mecanismos de verificación de edad (por ejemplo, mediante el sistema nacional de identificación electrónica y aplicaciones de comprobación de edad).
Aunque plataformas como Instagram o TikTok suelen contar con métodos para evitar que niños puedan crear cuentas en sus plataformas, funcionarios y expertos saben que estos candados son fácilmente superados. Según Caroline Stage, la ministra danesa de Gobierno Digital, el 94% de niños menores de 13 años en su país tienen perfiles en al menos una plataforma, y más de la mitad de los menores de 10 años también tienen acceso.
“La cantidad de tiempo que pasan en línea, la cantidad de violencia y autolesiones a las que están expuestos en internet, representa un riesgo demasiado grande para nuestros hijos”, afirmó la funcionaria a The Associated Press (AP). En lo que respecta a las empresas del sector tecnológico, “disponen de una cantidad absurda de dinero, pero simplemente no están dispuestas a invertir en la seguridad de nuestros hijos, en la seguridad de todos nosotros”.
¿Nueva tendencia global hacia la prohibición?
Por lo general, las reglas sobre el uso de redes sociales entre niños y adolescentes son responsabilidad de padres, maestros o cualquier otra autoridad que trabaja directamente con infancias. En el pasado, el Estado a veces intervenía, por ejemplo, haciendo comparecer a los directivos de las empresas del big tech, o sancionando a las firmas con multas económicas, pero las promesas de autorregularse de acuerdo a las recomendaciones de funcionarios públicos eran suficiente para satisfacer a los políticos. Nuevas polémicas en torno a chatbots o deepfakes, entre otras amenazas impulsadas por herramientas de IA, han complicado ese argumento.
Una muestra es Australia. A partir del 10 de diciembre, las plataformas deberán tomar “pasos razonables” para evitar que menores de 16 años tengan cuentas. De no implementar esta medida, la ley castigará a las empresas infractoras con multas de hasta 50 millones de dólares australianos. Las plataformas afectadas por este ley ya abarcan Facebook, Instagram, Threads, Snapchat, TikTok, X, YouTube, Reddit y Kick. El gobierno australiano también quiere que las empresas desactiven las cuentas de usuarios que hoy violarían dicha ley, lo que implicaría la eliminación de más de 1 millón de cuentas. Plataformas de mensajería, como WhatsApp, Messenger y Discord, quedan exentas de la prohibición, así como otras plataformas con un diseño enfocado a la educación.
La prohibición en Australia es la primera de su tipo en el mundo, pero ya hay señales de que otros países podrían seguir su ejemplo, aunque con enfoques más flexibles. En el Reino Unido, por ejemplo, en lugar de impedir por completo que los menores usen una aplicación, la ley obliga a las plataformas a adoptar medidas de protección. Entre ellas se incluyen activar por defecto las configuraciones más estrictas de privacidad cuando un menor crea una cuenta, y evitar que las aplicaciones incentiven a los usuarios menores de edad a desbloquear funciones, descargar contenido o realizar acciones que los mantengan conectados o jugando por más tiempo.
