No son cámaras de eco, son cámaras de conflicto: ¿por qué nos polarizan las redes sociales?

La investigación cuestiona la metáfora de las cámaras de eco tradicionales y apunta que el problema principal no es el aislamiento, sino las dinámicas de confrontación

La investigación cuestiona la metáfora de las cámaras de eco tradicionales y apunta que el problema principal no es el aislamiento, sino las dinámicas de confrontación

,

Cada vez está más claro que las redes sociales alimentan la indignación y el conflicto para maximizar el tiempo que pasan en ellas los usuarios. Este enfoque, sin embargo, choca con la popular metáfora de las cámaras de eco, que presenta a las plataformas como espacios polarizantes cerrados donde solo vemos opiniones que refuerzan nuestras propias creencias. Un informe del Joint Research Centre (JRC), el servicio de ciencia y conocimiento de la Comisión Europea, propone hablar de «cámaras de eco conflictivas» para caracterizar unas plataformas que refuerzan una condición inherente a la naturaleza humana: el conflicto.

En las redes hay más diversidad de lo que parece

La idea de que las redes nos aíslan en burbujas es popular, pero cada vez tiene más matices dentro de la comunidad científica, tal como ya hemos explicado desde Verificat. No hay una evidencia clara que lo confirme, pero sí un consenso creciente: no todo el mundo vive en espacios digitales aislados.

“La imagen clásica de las cámaras de eco como pequeñas burbujas selladas donde los usuarios solo escuchan a su propio bando siempre ha sido exagerada”, explica a Verificat Sacha Altay, experto en desinformación, confianza y redes sociales en el Digital Democracy Lab de la Universidad de Zúrich. Según el investigador, los estudios muestran que la mayoría de las personas tienen una “dieta de noticias bastante diversa” y que los “entornos ideológicamente puros son una excepción”. Para referirse a estos espacios más homogéneos, Altay propone hablar de “plataformas de eco”, como Truth Social, la red creada por Donald Trump. “Son redes mucho más homogéneas ideológicamente que las convencionales y en ellas circula una proporción más elevada de contenido poco fiable”, apunta.

Hay cámaras de eco, pero afectan a pocos usuarios

Esto no significa que no existan cámaras de eco en plataformas populares como X o TikTok. Ahora bien, una investigación de Nature, en línea con lo que propone Altay, indica que afectan, sobre todo, a una minoría (menos del 15% de los usuarios), y otra investigación de Internet Research las limita a comunidades centradas en cuestiones controvertidas (como el aborto, la religión, la raza, la política, el género, los impuestos o el control de armas).

Aun así, cuando abrimos una red social, a menudo tenemos la sensación de que el contenido es altamente polarizado. El experto lo describe como un “espejo deformante”: un pequeño porcentaje de los usuarios produce la mayor parte del contenido político, a menudo más partidista y hostil, mientras que la mayoría se mantiene en silencio. En el caso de X (antiguo Twitter), por ejemplo, una investigación del Pew Research Center ya contabilizaba en el año 2019 que el 97% de los tuits que mencionaban la política nacional durante el periodo del estudio provenía del 10% de los usuarios. También, en el contexto de la covid-19, los Centros Contra el Odio Digital identificaron que tan solo doce perfiles habían sido responsables de dos tercios del contenido antivacunas en las redes.

Sebastián Valenzuela, director científico del International Panel on the Information Environment (IPIE) y profesor de la Pontificia Universidad Católica de Chile, añade un último aspecto a tener en cuenta: el contexto social. “En época de incertidumbre económica y social hay más polarización que en época de bonanza”, apunta en conversación con Verificat.

Los algoritmos perpetuan los conflictos, que son inherentes a la condición humana

Que las cámaras de eco no sean universales, sin embargo, no implica que las redes sean espacios neutros. La polarización y la toxicidad son fenómenos reales y medibles. En este sentido, las cámaras de eco se pueden entender como bandos enfrentados que refuerzan identidades opuestas alrededor de un tema, tal como describen en el informe del Joint Research Centre (JRC), del cual Altay y Valenzuela son autores. Para Valenzuela, el principal problema de estas cámaras es la intensificación del conflicto entre usuarios que están expuestos a diferentes puntos de vista.

Los algoritmos están diseñados para maximizar la interacción y, por lo tanto, tienden a priorizar contenidos emocionales, provocadores o, incluso, indignantes (como se explica en el recurso pedagógico de Desfake La era de la desinformación). Las conversaciones más tensas generan más respuestas, se alargan más y se hacen más visibles. Así lo evidencia una investigación masiva de 34 años de datos de Nature.

Esta investigación, sin embargo, también nos recuerda que no es solo cosa de algoritmos, sino que también es un patrón humano. Altay sostiene que los factores humanos son el motor principal del conflicto, también en las redes, mientras que “los sistemas de recomendación tienen menos influencia en la polarización que el estatus, la identidad de grupo, la desconfianza en las instituciones y la necesidad de mostrar lealtad al mismo bando”, explica. Como describe Valenzuela, “la gente pone la chispa y el algoritmo la esparce”.