Els vídeos generats amb IA reforcen les falsedats, fins i tot quan sabem que no són certes

L’exposició a imatges generades amb intel·ligència artificial pot transformar la nostra percepció i validar relats i prejudicis ja existents

L’exposició a imatges generades amb intel·ligència artificial pot transformar la nostra percepció i validar relats i prejudicis ja existents

, ,

Només cal entrar a qualsevol xarxa social, però sobretot a TikTok, per veure que els vídeos generats amb intel·ligència artificial ocupen gran part del contingut. Un estudi recent de l’Interactive Advertising Bureau Spain (IAB) sobre aquestes plataformes evidencia que aquesta mena de continguts és el més vist, especialment, entre els joves.  

Aquest fenomen es coneix com a AI Slop o “contingut brossa”, i es refereix a imatges o vídeos cridaners, repetitius, incoherents i produïts i compartits massivament. Nadons enredats entre espaguetis o gats jugant a fer tasques domèstiques, en són alguns exemples. Javier Cantón, doctor en Ciències Socials i màster en Intel·ligència Artificial per la UNIR, ho descriu a Verificat com a “merdificació”. “Es tracta d’inundar les xarxes amb aquest contingut massiu, creant una forma de censura envers altres continguts de més valor; una cambra d’eco”, exposa.

La majoria d’aquests vídeos estan generats amb Sora 2, una eina d’IA generativa que permet crear vídeos i àudios hiperrealistes i compartir-los en un feed similar al de TikTok. Amb aquesta aplicació, els usuaris poden generar de manera fàcil i ràpida vídeos amb IA sense gaire valor informatiu.

Sora 1 va sorgir de la mà d’OpenAI per crear vídeos. Més tard, es va desenvolupar Sora 2, l’aplicació que ha evolucionat la qualitat d’aquests vídeos i que, a més, permet compartir-los entre els teus seguidors i seguidores en el mateix portal. En el moment de la publicació d’aquest article, aquesta segona versió només està disponible a països com els Estats Units i el Canadà. En qualsevol cas, informes recents evidencien la seva popularitat: menys de cinc dies després del seu llançament, Sora ja s’havia descarregat més d’un milió de vegades, superant l’èxit de ChatGPT durant la seva estrena.

(*) Aquest passat dijous Meta va anunciar el llançament de Vibes, la nova incoporació a l’aplicació de Meta AI que permetrà les mateixes funcions que Sora: creació de vídeos amb intel·ligència artificial que es puguin compartir entre persones en un “feed”.

Continguts massius generats amb IA per promoure discursos d’odi


En aquest ecosistema del “contingut brossa” generat amb intel·ligència artificial, no tot són vídeos inofensius de nadons o animals. Cada cop més, s’hi infiltra material que difon discursos d’odi contra col·lectius com ara les persones migrades o les dones. Pel que fa al primer, de fet, l’Informe de monitorització del discurs d’odi a xarxes socials 2024, elaborat pel Ministeri d’Inclusió, Seguretat Social i Migracions, assenyala que a les xarxes socials hi predominen els missatges hostils dirigits a les persones del nord de l’Àfrica (35%), seguides de les persones afrodescendents (24%), persones migrades (21%) i les persones musulmanes (20%).

Els patrons dels vídeos es repeteixen. Un dels exemples més estès és el que mostra joves migrats vestits amb xandalls del PSG arribant a Espanya, on un grup de ciutadans els rep amb diners. En altres, se’ls veu dirigint-se a una oficina de l’administració pública, on se’ls pregunta si compleixen els “requisits per a l’empadronament”. En aquests casos, el jove respon que ha estat detingut diverses vegades, que ha ocupat pisos i que es desplaça amb patinet elèctric. La narrativa sobre l’empadronament de persones nouvingudes no és nova, tal com ja han desmentit en nombroses ocasions membres de la International Fact-Checking Network (IFCN) com Verificat (aquí, aquí, aquí i aquí). 

A més, coincidint amb el 50è aniversari de la mort de Franco, també s’han difós vídeos on es veuen dues persones barallant-se en un combat de boxa: una porta la cara de Franco i l’altra representa un jove migrant, també vestit amb un xandall del PSG.

Pel que fa als continguts que promouen els discursos misògins, un dels exemples més repetits són els vídeos que mostren suposades “Olimpíades de dones”, en què es veu com participants de diferents nacionalitats vestides amb equipació esportiva competeixen per veure qui fa millor les tasques domèstiques. Alguns d’aquests continguts acumulen més de 100.000 “m’agrada”.

Un estudi de Media Matters for America, organització periodística sense ànim de lucre, alerta que les xarxes socials estan saturades de discursos d’odi i que, sovint, els algoritmes afavoreixen la seva difusió, premiant els vídeos més polèmics i virals.

De les emocions a l’”efecte repetició”: com la IA consolida falses narratives

Silvia Martínez professora i investigadora dels Estudis de Ciències de la Informació i la Comunicació a la Universitat Oberta de Catalunya (UOC), adverteix a Verificat que aquest “contingut brossa” té dos vessants igual de perillosos. “D’una banda, hi ha les persones que encara no reconeixen que aquests vídeos han estat generats artificialment; de l’altra, aquelles que sí que ho saben, però què els ajuden a reforçar les idees prèvies que tenen al seu imaginari”, explica. 

En aquest sentit, el professor i investigador de la UNIR, Javier Cantón, se suma a la idea que l’ús d’aquestes imatges serveix per “confirmar narratives, independentment de la seva veracitat”.  “Si amb la DANA aquestes imatges generades amb IA haguessin estat a l’ordre del dia, s’haurien pogut crear fotografies dels cadàvers del pàrquing de Bonaire i molta gent les hauria donat per bones, perquè encaixen amb el relat que volen creure”. De fet, els missatges sobre les persones presumptament atrapades a l’aparcament del centre comercial d’Aldaia van ser una de les desinformacions més difoses els dies posteriors a la DANA, desmentits des de Verificat.

Aquesta és, precisament, una de les estratègies més subtils de la “AI Slop”: jugar amb els mecanismes psicològics que fan que les persones acabin creient o validant informació falsa, encara que siguin conscients que és artificial. Una investigació de la UOC ho detalla: les imatges mentals no són estàtiques i, com que tenen valor cognitiu, són manipulables.

Un d’aquests mecanismes és l’anomenat “efecte de repetició”. La investigadora de la UOC Silvia Martínez ho descriu com la reiteració d’un missatge que “acaba generant la sensació que alguna cosa és certa, encara que no ho sigui”. De fet, un informe de la Universitat de Tel Aviv (TAU) ho reafirma: en el context de la intel·ligència artificial, una imatge vista moltes vegades es converteix en realitat. 

Així, la intel·ligència artificial no només pot fabricar proves visuals falses, sinó que també pot reforçar emocions, creences i discursos preexistents, contribuint a fer que la desinformació i l’odi circulin amb aparença de veritat i de quotidianitat.

Manuel Armayones, membre del Comitè ePsicologia del Col·legi Oficial de Psicologia de Catalunya i catedràtic en Disseny del Comportament per la UOC, destaca a Verificat que “aquests vídeos estan dissenyats per generar emocions, fent que s’anul·li la capacitat de racionar”. “És a partir d’aquestes emocions des d’on aquests continguts aprofiten els biaxos de la gent, com la por a la diferència, per introduir aquestes idees”, afegeix. 

Actitud crítica davant la manipulació 

Davant les emocions que generen aquests continguts a les xarxes, les persones expertes recomanen una actitud crítica per a frenar aquest desinformació. Armayoles apel·la a un “sistema públic cognitiu” on, a part d’una “vigilància epidemiològica de verificació (fact-checking), cal una “prevenció basada en l’alfabetització mediàtica”.

En aquest sentit, promoure espais d’aprenentatge digital crític a les escoles és un pas essencial per combatre la normalització de la desinformació generada amb IA. Només amb una ciutadania informada i amb capacitat d’anàlisi es podrà reduir l’impacte dels discursos d’odi i de les falses narratives que, cada cop més, circulen amb aparença de veritat. Per aprofundir en com les imatges i els continguts digitals poden reforçar estereotips o alimentar discursos d’odi, a Desfake pots explorar càpsules com “Dels prejudicis a l’odi o “El poder de la imatge”, que t’ajudaran a entendre com la desinformació visual influeix en les nostres emocions i percepcions. Aquestes propostes formatives ofereixen eines per mirar amb més consciència allò que consumim en línia i per construir una conversa digital més informada, crítica i lliure de manipulacions.