Uncategorized

La polarización es inherente a las redes sociales, incluso sin la ayuda de un algoritmo

El conflicto y las redes sociales parecen estar fuertemente conectados entre sí. El vínculo es tan intenso que ha sido aprovechado por políticos y empresarios para ganar popularidad con discursos intencionalmente polarizantes. Cuando se busca al culpable de ese clima digital tóxico, el dedo usualmente apunta al “algoritmo”, un conjunto de reglas cuyo único propósito es el de mostrar contenido que despierta emociones intensas. Sin embargo, puede que estemos poniendo atención en el lugar equivocado. De acuerdo con un reciente artículo, la arquitectura fundamental de las redes sociales, como las funciones de comentar, compartir y seguir, por sí mismas fomentan las condiciones que dan pie a la polarización de los usuarios.

¿Por qué te peleas en una red social?

Que entres a X para indignarte sobre algo no es casualidad. Dentro de ella hay tres de los componentes fundamentales para desarrollar un clima hostil, según investigadores digitales: los usuarios quedan atrapados en cámaras de eco, existe una desigualdad en la visibilidad de los contenidos y se amplifica naturalmente las voces polarizantes o con los puntos de vista más exagerados. En respuesta, las comunidades están enganchadas a la plataforma, peleando o apoyando sus posturas preferidas.


Ilustración de un satélite, un avión de combate y una moneda de un dólar desintegrándose en pedazos.

Primero Google y Facebook, luego el mundo. Con Trump, la política estadounidense empieza a imitar las peores tendencias de las grandes tecnológicas.


Pero cuando han llegado otras redes sociales alternativas para proponer un escenario más colaborativo y pacifico, el resultado no parece cambiar. Los usuarios siguen cayendo en sitios donde se replica su ideología y se rechaza la diferencia, incluso si no hay un algoritmo que persiga los contenidos polémicos. La polarización parece ser un resultado natural del ADN de una red social tal como se concibe ahora mismo.

Redes sociales en una caja de petri virtual

Un estudio todavía en espera de ser publicado en una revista científica exploró esa hipótesis. Los investigadores crearon plazas virtuales que imitaban el funcionamiento de redes sociales, con sus conexiones, reglas y ritmos de publicación. Posteriormente insertaron dentro a 500 gemelos digitales, representaciones de personas con rasgos y preferencias realistas a partir del patrón electoral de Estados Unidos, pero controladas por modelos extensos de lenguaje como ChatGPT, DeepSeek y LLaMA,

Los gemelos digitales impulsados por IA interactuaron como usuarios comunes, publicando, reaccionando y ajustando su conducta según lo que ocurría en la plaza, lo que permitió a los científicos observar cómo evolucionaron sus discursos. Los entornos polarizantes se formaron en sus redes sociales incluso si no hubo un algoritmo diseñado para conectar contenido polémico. Los personajes quedaron enclaustrados en cámaras de eco y amplificaban el contenido extremista, lo que impulsaba la toxicidad.

El reporte permite inferir que en las redes sociales existe un bucle inherente conformado por contenido emocional, visibilidad, conexiones y nueva exposición, que forma el núcleo central de la polarización. Luego, cada red social con sus propias normas impulsa el ecosistema para impedir que los usuarios abandonen el sitio.

Un resultado no deseado de las reglas básicas del juego

Para Petter Törnberg, autor principal del estudio, el experimento indica que no hay redes sociales “puramente malvadas” o usuarios que elijan vivir en un ambiente digital tóxico. La polarización que abunda en la actualidad es un resultado no deseado de un conjunto de reglas necesarias para que existan estas plataformas y de su estructura básica.

“La gente elige retuitear o no, y sabemos que la acción tiende a ser muy reactiva. Tendemos a ser muy emocionales en esa elección. Y tiende a ser un tipo de acción altamente partidista y polarizada. Presionas retweet cuando ves a alguien enojado por algo, o haciendo algo horrible, y luego lo compartes. Es bien sabido que esto conduce a que el contenido tóxico y más polarizado se propague más”, dijo Törnberg en entrevista para Ars Technica.

“Pero lo que encontramos es que no es solo que este contenido se propague; también da forma a las estructuras de red que se forman. Así que hay una retroalimentación entre la acción emocional efectiva de elegir retuitear algo y la estructura de red que emerge. Y luego, a su vez, tienes una estructura de red que retroalimenta el contenido que ves, lo que resulta en una red tóxica. La definición de una red social en línea es que tiene dinámicas de publicación, reenvío y seguimiento. Es bastante necesario para ello. Eso parece ser suficiente para impulsar estos resultados negativos”, dijo.