
Meta anunció en enero que pondría fin a algunos esfuerzos de moderación de contenidos, flexibilizaría sus normas y pondría más énfasis en apoyar la “libre expresión”. Según reveló la empresa en su “Informe de Cumplimiento de Normas Comunitarias”, los cambios se tradujeron en un menor número de publicaciones eliminadas de Facebook e Instagram.
Además, la gigante tecnológica de Mark Zuckerberg afirmó que sus nuevas políticas contribuyeron a reducir a la mitad las eliminaciones erróneas de contenidos en EE UU, sin exponer en general a los usuarios a más contenidos ofensivos que antes de los cambios.
Meta eliminó casi un tercio menos de contenido a nivel mundial
El nuevo informe, citado en una actualización de una entrada de blog de enero del jefe de asuntos globales de Meta, Joel Kaplan, muestra que la empresa eliminó casi un tercio menos de contenido en Facebook e Instagram a nivel mundial, por violaciones a sus normas, entre enero y marzo de este año, en comparación con el trimestre anterior: alrededor de 1.600 millones de elementos frente a poco menos de 2.400 millones, según un análisis de WIRED. En los últimos trimestres, las eliminaciones totales habían aumentado o se habían mantenido estables.
En Instagram y Facebook, Meta reportó una reducción del 50% en la eliminación de publicaciones por infringir sus normas sobre spam, casi un 36% menos por poner en peligro a menores, y cerca de un 29% menos por conductas de odio. Las eliminaciones solo aumentaron en una de las 11 categorías principales que enumera Meta: contenido relacionado con suicidio y autolesiones.
La cantidad de contenido retirado por Meta fluctúa regularmente de un trimestre a otro, y varios factores podrían haber contribuido a la disminución. Sin embargo, la propia empresa reconoció que “los cambios realizados para reducir los errores de aplicación” fueron una de las razones de la gran caída.
“En una serie de ámbitos de actuación, hemos observado un descenso en la cantidad de contenidos sobre los que se ha actuado y en el porcentaje de contenidos abordados antes de que un usuario los denunciara. Esto se debe, parcialmente, a los cambios que hemos realizado para asegurarnos de cometer menos errores. También vimos una disminución correspondiente en la cantidad de contenido apelado y finalmente restaurado”, indicó la empresa.
¿Alguien recuerda la “X-ificación” de Meta?
Meta relajó algunas de sus normas de contenido a principios de año, normas que Zuckerberg describió como “fuera de contacto con el discurso dominante”. Los cambios permitían a los usuarios de Instagram y Facebook utilizar cierto lenguaje que activistas de derechos humanos consideran denigrante e irrespetuoso hacia inmigrantes o personas trans. Por ejemplo, Meta permite ahora “acusaciones de enfermedad mental o anormalidad cuando se basan en el género o la orientación sexual”.
Como parte de estos cambios radicales, anunciados justo cuando Donald Trump estaba por iniciar su segundo mandato como presidente de EE, UU, Meta también dejó de depender de herramientas automatizadas de fact-chechking para identificar y eliminar publicaciones sospechosas de violaciones menores, ya que, “tenían altas tasas de error, lo que provocaba la frustración de los usuarios”.