No són cambres d’eco, són cambres de conflicte: per què ens polaritzen les xarxes socials? 

La recerca qüestiona la metàfora de les cambres d’eco tradicionals i apunta que el problema principal no és l’aïllament, sinó les dinàmiques de confrontació

La recerca qüestiona la metàfora de les cambres d’eco tradicionals i apunta que el problema principal no és l’aïllament, sinó les dinàmiques de confrontació

,

Cada cop és més clar que les xarxes socials alimenten la indignació i el conflicte per maximitzar el temps que hi passen els usuaris. Aquesta aproximació, però, xoca amb la popular metàfora de les cambres d’eco, que presenta les plataformes com a espais polaritzants tancats on només hi veiem opinions que reforcen les nostres pròpies creences. Un informe del Joint Research Centre (JRC), el servei de ciència i coneixement de la Comissió Europea, proposa parlar de “cambres d’eco conflictives” per caracteritzar unes plataformes que reforcen una condició inherent a la naturalesa humana: el conflicte.

A les xarxes hi ha més diversitat del que sembla

La idea que les xarxes ens isolen en bombolles és popular, però cada vegada té més matisos dins la comunitat científica, tal com ja hem explicat des de Verificat. No hi ha una evidència clara que ho confirmi, però sí un consens creixent: no tothom viu en espais digitals aïllats. 

“La imatge clàssica de les cambres d’eco com a petites bombolles segellades on els usuaris només escolten el seu propi costat sempre ha estat exagerada”, explica a Verificat Sacha Altay, expert en desinformació, confiança i xarxes socials al Digital Democracy Lab de la Universitat de Zúric. Segons l’investigador, els estudis mostren que la majoria de les persones tenen una “dieta de notícies bastant diversa” i que els “entorns ideològicament purs són una excepció”. Per referir-se a aquests espais més homogenis, Altay proposa parlar de “plataformes d’eco”, com ara Truth Social, la xarxa creada per Donald Trump. “Són xarxes molt més homogènies ideològicament que les convencionals i hi circula una proporció més elevada de contingut poc fiable”, apunta.

Hi ha cambres d’eco, però afecten pocs usuaris

Això no vol dir que no hi hagi cambres d’eco en plataformes populars com X o TikTok. Ara bé, una investigació de Nature, en línia amb el que proposa Altay, indica que afecten, sobretot, una minoria (menys del 15% dels usuaris), i una altra recerca d’Internet Research les limita a comunitats centrades en qüestions controvertides (com l’avortament, la religió, la raça, la política, el gènere, els impostos o la seguretat de les armes).

Tot i això, quan obrim una xarxa social, sovint tenim la sensació que el contingut és altament polaritzat. L’expert ho descriu com un “mirall deformant”: un petit percentatge dels usuaris produeix la major part del contingut polític, sovint més partidista i hostil, mentre que la majoria es manté en silenci. En el cas d’X (antic Twitter), per exemple, una investigació del Pew Research Center ja comptabilitzava l’any 2019 que el 97% dels tuits que mencionaven la política nacional durant el període de l’estudi provenia del 10% dels usuaris. També, en el context de la covid-19, els Centres Contra l’Odi Digital van identificar que tan sols dotze perfils havien estat responsables de dos terços del contingut antivacunes a les xarxes.

Sebastián Valenzuela, director científic de l’International Panel on the Information Environment (IPIE) i professor de la Pontificia Universidad Católica de Chile, afegeix un darrer aspecte a tenir en compte: el context social. “En època d’incertesa econòmica i social hi ha més polarització que en època de bonança”, apunta en conversa amb Verificat

Els algoritmes perpetuen els conflictes, que són inherents a la condició humana

Que les cambres d’eco no siguin universals, però, no implica que les xarxes siguin espais neutres. La polarització i la toxicitat són fenòmens reals i mesurables. En aquest sentit, les cambres d’eco es poden entendre com a bàndols enfrontats que reforcen identitats oposades al voltant d’un tema, tal com descriuen a l’informe del Joint Research Centre (JRC), del qual Altay i Valenzuela en són autor. Per a Valenzuela, el principal problema d’aquestes cambres és la intensificació del conflicte entre usuaris que estan exposats a diferents punts de vista. 

Els algoritmes estan dissenyats per maximitzar la interacció i, per tant, tendeixen a prioritzar continguts emocionals, provocadors o, fins i tot, indignants (com s’explica al recurs pedagògic de Desfake L’era de la desinformació). Les converses més tenses generen més respostes, s’allarguen més i es fan més visibles. Així ho evidencia una investigació massiva de 34 anys de dades de Nature.

Aquesta recerca, però, també ens recorda que no és només cosa d’algoritmes, sinó que també és un patró humà. Altay sosté que els factors humans són el motor principal del conflicte, també a les xarxes, mentre que els sistemes de recomanació tenen menys influència en la polarització que l’estatus, la identitat de grup, la desconfiança en les institucions i la necessitat de mostrar lleialtat al mateix bàndol”, explica. Com descriu Valenzuela, “la gent posa l’espurna i l’algoritme l’escampa”.