La guerra a l’Orient Mitjà, la primera retransmesa (falsament) per la IA
Les xarxes s’han omplert de vídeos falsos i Grok, la IA d’Elon Musk, va desmentir erròniament un vídeo real de l’escola bombardejada
Les xarxes s’han omplert de vídeos falsos i Grok, la IA d’Elon Musk, va desmentir erròniament un vídeo real de l’escola bombardejada

Drons, míssils, i la intel·ligència artificial. Els avenços tecnològics, també els relacionats amb la comunicació, sempre han tingut un rol actiu en els conflictes bèl·lics, i la IA s’ha situat com a una de les protagonistes en com s’explica la guerra a l’Orient Mitjà. Des que els Estats Units i Israel van bombardejar l’Iran, i Teheran es va represaliar contra diversos països de la península aràbiga, les xarxes socials s’han inundat de vídeos i imatges falses generades per la IA. Grok, la IA de X, també ha piulat desinformacions.
No és nou que les tecnologies de comunicacions del moment s’utilitzin en un conflicte. La invasió d’Ucraïna va ser ràpidament batejada com la primera guerra de TikTok, un sobrenom creat per The New Yorker que descriu la immensa presència de vídeos de bombardejos i enfrontaments a la xarxa social. Anys abans, Facebook també va tenir un rol actiu a Síria, després de la Primavera Àrab. Mig segle enrere, la democratització de la televisió va convertir el Vietnam en una living room war (guerra de la sala d’estar), exercint gran influència sobre la societat nord-americana.
Tampoc no és una novetat que la desinformació aparegui en mig d’una guerra amb l’objectiu de generar soroll, defensar una causa o acusar l’enemic. Fact-checkers de tot el món han publicat més de 5.000 verificacions de continguts enganyosos sobre la guerra d’Ucraïna.
El que sí que és nou és la facilitat per a fer-ho: la intel·ligència artificial ha posat a l’abast de tothom la possibilitat de crear falses evidències sense necessitar coneixements d’edició fotogràfica. Unes eines que fa uns anys generaven continguts poc realistes, però que els darrers mesos han millorat substancialment.
Com més avança aquesta tecnologia, més potencial d’escampar-se tenen les imatges, i més difícil ho tenen les organitzacions de verificació per poder desmentir-les. Els continguts fets amb IA protagonitzen una de cada cinc verificacions elaborades pels membres de l’Observatori Europeu de Mitjans Digitals (EDMO) de què Verificat forma part.
La primera guerra de la IA
A principis d’any, l’atac nord-americà contra Veneçuela i la captura de Nicolás Maduro ja van ser una alerta del perill que pot causar la IA en situacions de màxima tensió. Abans que Donald Trump publiqués la fotografia del president veneçolà emmanillat (que va fer dubtar el New York Times), mitjans i xarxes van difondre un grapat d’imatges generades amb IA.
Però ha estat l’escalada bèl·lica a l’Orient Mitjà la que ha certificat les capacitats de la IA de desinformar a gran escala. Mentre que en anteriors conflictes l’engany podia adoptar moltes formes (com la republicació de vídeos antics o gravats en altres països), la major part de la desinformació gràfica compartida sobre la guerra a l’Orient Mitjà que ha analitzat Verificat inclou continguts generats amb intel·ligència artificial. Una cerca a Google sobre la guerra a l’Orient Mitjà retorna desenes de vídeos dels bombardejos fets amb IA.
Exemples en són els vídeos de míssils contra el Burj Khalifa de Dubai, les falses càmeres de seguretat enregistrant explosions en bases militars iranianes o l’aeroport de Dubai, o la fotografia del cadàver de l’aiatol·là Ali Khamenei sota les ruïnes d’un edifici. Una imatge que es va viralitzar abans que es confirmés la seva mort.
La desinformació causada per la intel·ligència artificial no s’ha limitat en la falsificació de proves gràfics. En un cas molt mediàtic, també ha succeït en l’ordre invers: negant una notícia vertadera. Grok, la IA d’Elon Musk integrada a la xarxa X, va afirmar falsament que les imatges de l’escola iraniana bombardejada durant l’atac dels Estats Units i Israel —i que va matar unes 150 persones, majoritàriament nenes—, eren en realitat de l’Afganistan. Un fals fact-check que va contribuir a la desinformació sobre els atacs.
En un altre exemple, Grok va donar per bones les imatges de suposades càmeres de seguretat que mostraven explosions a bases militars que van resultar ser falses. Grok no és un bon verificador, especialment en continguts de màxima actualitat, quan hi ha poca informació disponible.
Un “gran retrocés” en les polítiques contra la desinformació
Precisament sobre el rol de les plataformes tecnològiques davant la desinformació s’ha posicionat la xarxa de verificadors europeus. La European Fact-Checking Standards Network (EFCSN), de la qual Verificat n’és membre, ha denunciat un “gran retrocés” en les polítiques empresarials per fer front als continguts falsos i enganyosos.
Concretament, l’EFCSN ha observat un retrocés en el finançament dels mètodes de verificació, i “negligències” documentades en les obligacions imposades per la UE. Facebook, per exemple, va abandonar el programa de verificació amb fact-checkers i el va substituir per un sistema de notes de la comunitat, seguint els passos de la xarxa X. Un sistema que dificulta que les verificacions arribin ràpidament on són necessàries, ja que requereix un consens entre usuaris: tothom hi pot dir la seva.
Després de la difusió de nombrosos vídeos elaborats per IA, la xarxa X ha anunciat que suspendrà els pagaments als usuaris que comparteixin vídeos sintètics sense avisar que ho són. Des de la reforma de les insígnies blaves, els usuaris verificats poden cobrar diners de la plataforma en funció de les visites. Ara, els que desinformin amb IA, deixaran de fer-ho durant 90 dies, segons ha anunciat Nikita Bier, cap de producte de l’empresa d’Elon Musk.
Verificar la IA, cada cop més difícil (però no impossible)
Les millores tecnològiques han afavorit que imatges falsificades amb intel·ligència artificial puguin passar com a certes amb més facilitat. Cada cop cometen menys errors obvis que permetin descartar una imatge a primera vista: ja no són comunes les mans amb set dits, o les extremitats doblegades de manera antinatural.
Així i tot, encara cometen errors. Sabem que les imatges que simulen el bombardeig de l’aeroport de Dubai són falses perquè just abans de l’explosió, un passatger travessa màgicament una barrera separadora, si bé cal fixar-s’hi bé per a adonar-se’n. De manera més subtil, al rerefons d’una oficina militar bombardejada s’hi veu un mapa del Golf Pèrsic geogràficament incorrecte, i una pantalla que queda difuminada sense cap motiu.