Vídeos reals i ‘deepfakes’: quan l’excés de sospita esdevé conspiració

Com més conscienciats estem de l’existència i presència dels vídeos sintètics a xarxes, pitjor identifiquem els reals

Com més conscienciats estem de l’existència i presència dels vídeos sintètics a xarxes, pitjor identifiquem els reals

Vídeos reals confosos amb deepfakes després de rumors sobre la mort de Netanyahu. Fonts: Roda de premsa 12 març i compte d'Instagram de Benjamin Netanyahu.
, ,

En els primers dies de la guerra a l’Orient Mitjà les xarxes socials es van emplenar de continguts generats amb intel·ligència artificial. Vídeos i imatges sintètiques van construir una realitat paral·lela amb centenars d’exemples falsos que, al seu torn, enganyaven els xatbots incrustats en plataformes com X (abans Twitter) o Google i els feien donar per bones escenes que mai havien tingut lloc. Cas a cas, la idea que qualsevol element que circula per xarxes és susceptible d’haver estat fet o modificat amb IA ha arrelat en l’imaginari col·lectiu, i ha minat la confiança ciutadana en tots els materials audiovisuals, també els veraços.

L’exemple més recent són les especulacions sobre la mort de Benjamin Netanyahu, el primer ministre israelià. La reducció d’aparicions públiques des de l’inici de la guerra, unida a una campanya de propaganda iraniana, van fer créixer la sospita que el mandatari és mort o greument ferit. Els esforços israelians per desmentir-ho, amb una roda de premsa i dos vídeos com a prova de vida, han topat amb l’escepticisme de les xarxes i acusacions d’haver estat creats artificialment per ocultar la seva mort, malgrat que res ho fa pensar.

“Provar que un polític és viu usant vídeos no funciona tan bé com es podria pensar, perquè sovint aquests vídeos es desacrediten i s’hi busquen formes d’edició reals o percebudes”, explica a Verificat John Twomey, que investiga la interacció humà-ordinador a la Universitat de Limerick (Irlanda) i s’ha especialitzat en l’impacte dels deepfakes en la societat. 

Biaix de confirmació i dividend del mentider

El que descriu l’expert no deixa de ser la versió deepfake del biaix de confirmació: molts usuaris de xarxes analitzen ara els vídeos convençuts que són falsos. Comencen la cerca, per tant, amb la intenció de trobar una resposta concreta, la qual cosa els pot fer veure indicis de falsedat que, en realitat, no existeixen. En definitiva, com més conscienciat està el públic de l’existència dels deepfakes, més desconfiat esdevé respecte del contingut real.

Aquesta és, de fet, una de les conclusions a què va arribar una investigació feta per científics del MIT el 2022, que va fer un test a 15.000 persones per veure amb quina fiabilitat identificaven vídeos reals i sintètics. Els participants acabaven la prova, que alternava materials veraços amb altres de falsos, identificant qualsevol vídeo com a artificial en un 18% més de casos que a l’inici. És a dir, trobaven els deepfakes amb més eficiència, però també identificaven pitjor els vídeos reals. 

Això és perillós, apuntava Twomey amb altres científics irlandesos en un posicionament publicat el 2025 a la revista Interaction, perquè en el seu dia a dia les persones veuen molts més vídeos reals que fabricats. L’escepticisme creixent pot, per tant, portar a dubtar de la realitat de manera generalitzada i desproporcionada.

De nou, la intel·ligència artificial escala un fenomen conegut com és el dividend del mentider (liar’s dividend en anglès), que defineix la situació en què una persona qualifica de mentida una informació que la compromet i genera un ecosistema de dubtes al seu voltant en què res és creïble. És un fenomen que s’aprofita de la desconfiança en els mitjans i les institucions, i hi aprofundeix: “Fins i tot després d’exposar una mentida, pel públic esdevé més difícil confiar en les notícies sobre el tema concret”,explicava Poynter en un article del 2019 al respecte.

Menys trucs i atenció al detall, i més alfabetització mediàtica

La IA ha anat guanyant pes ràpidament com a agent de la desinformació en els darrers mesos, tal i com evidencien els darrers informes de l’Observatori Europeu de Mitjans Digitals (EDMO), de manera que és lògic que la identificació de vídeos reals com a deepfakes sigui ara comuna i estesa. Però la problemàtica no és nova. El 2018, al Gabon van circular rumors que Ali Bongo, president del país, havia mort després de patir un ictus. Fonts oficials van publicar un vídeo com a prova de vida, que part del públic va desacreditar com a deepfake (no ho era). Les especulacions van culminar una setmana després amb un intent de cop d’estat, segons va reportar Politico.

També va ser comú en els compassos inicials de la guerra d’Ucraïna, segons una investigació publicada a PLOS One que va analitzar gairebé 5.000 piulades relacionades amb deepfakes al respecte en els set primers mesos del 2022. “Vam trobar que molta de la desinformació de la nostra base de dades venia d’assenyalar vídeos reals com a deepfakes”, escrivien els autors de l’article, tot afegint que “els esforços per conscienciar sobre els deepfakes poden soscavar la confiança en vídeos legítims”.

L’impacte dels vídeos artificials, cada dia més realistes, es combina amb la pèrdua de confiança creixent en les institucions i l’evidència per alterar la percepció de la realitat, explica Twomey a Verificat. Fer la nostra pròpia recerca és útil si tenim les eines i el coneixement per fer-la. Sovint, però, no és el cas amb els deepfakes, per la qual cosa ens fixem en detalls que no són determinants i acabem caient en la desinformació.

Una investigació del 2021, de fet, fins i tot va trobar que una formació específica per detectar vídeos artificials feia que els participants identifiquessin vídeos reals com a falsos en un 9% més d’ocasions. És per això que els investigadors irlandesos apunten en el seu posicionament del 2025 que l’objectiu de les intervencions educatives “no hauria de ser transformar les persones en màquines capaces d’identificar fàcilment si un contingut és deepfake o real”. Més aviat, proposen, “haurien de motivar una sospita saludable dels audiovisuals i centrar-se en com les persones tracten desinformació potencial”.

La clau per informar-nos de conflictes i situacions amb poca informació no ha de ser, per tant, buscar detalls per tal d’identificar si un contingut és real o no. Més aviat convé que ens centrem a ubicar qui ens està informant, si és un agent fiable i què diu al respecte la nostra xarxa de fonts de confiança. Els periodistes i investigadors especialitzats, probablement, tenen més temps, recursos i expertesa que nosaltres per dur a terme una investigació exhaustiva.

Això tampoc vol dir creure cegament en el que reporten els mitjans i les institucions, sinó aplicar una confiança crítica que ens permeti ponderar la qualitat de les fonts amb la de les proves i arguments que aporten, així com amb la seva política de transparència i correcció d’errors (a la qual estan obligats pel codi deontològic). L’expertesa i el context són claus per destriar el gra de la palla, i són el focus principal de les càpsules de Desfake, el programa educatiu de Verificat, que exploren la temàtica: El poder de la imatge i Intel·ligència artificial generativa.