Els verificadors europeus denuncien un “gran retrocés” de les plataformes en la lluita contra la desinformació en ple auge de la IA
L’EFCSN, de la qual Verificat forma part, demana a la UE que investigui si la desinversió de les plataformes per frenar la desinformació vulnera la Llei de serveis digitals
L’EFCSN, de la qual Verificat forma part, demana a la UE que investigui si la desinversió de les plataformes per frenar la desinformació vulnera la Llei de serveis digitals

Les principals tecnològiques mundials s’han apartat dels compromisos per garantir la integritat informativa en les seves plataformes des de les eleccions estatunidenques de 2024. L’arribada de Donald Trump a la Casa Blanca coincideix amb un “gran retrocés” en la inversió de les “Big Tech” per frenar la difusió de desinformació, la qual cosa fa menys segurs els espais informatius, mina la legitimitat democràtica i la confiança institucional, i dispara la despesa econòmica i sanitària. És la conclusió d’un Llibre Blanc presentat avui per la European Fact-Checking Standards Network (EFCSN), de què Verificat forma part.
El document apel·la a la Comissió Europea a aplicar la Llei de serveis digitals (DSA), el marc legal que regula l’entorn digital dins la UE, per investigar si aquesta desinversió vulnera l’obligació que tenen les plataformes de mitigar els riscos sistèmics (articles 80 a 83): la disseminació de contingut il·legal; els impactes en els drets fonamentals dels ciutadans; els efectes negatius en processos democràtics, discurs cívic, processos electorals i seguretat pública; i el perjudici en violència de gènere, la protecció de la salut pública i els menors, i conseqüències serioses en el benestar mental i físic.
L’EFCSN estableix que, en aquest sentit, “les negligències de les plataformes estan ben documentades”, tot citant un informe del passat setembre en què avaluava el grau de compliment de cadascuna amb el Codi de Conducta enfront de la desinformació.
Un estudi recent de Science Feedback, també membre de la xarxa europea, va trobar que un de cada cinc posts sobre temes d’interès públic publicat a TikTok contenia desinformació. A Facebook i X (Twitter) la ràtio baixava al 13 i l’11% respectivament, i per YouTube i Instagram se situava al voltant del 8%. Els investigadors van trobar, per això, que els comptes poc fiables rebien més engagement per cada 1.000 seguidors que els molt fiables, i van concloure que les decisions rere el disseny de les plataformes poden estar deteriorant activament la integritat informativa i augmentant la visibilitat de la desinformació.
L’amenaça de la IA: pèrdua de qualitat informativa
El Llibre Blanc de l’EFCSN arriba en ple auge de la intel·ligència artificial generativa com a eina de desinformació. El contingut sintètic té cada cop més pes a les redaccions i ja protagonitza una de cada cinc verificacions dels membres de l’Observatori Europeu de Mitjans Digitals (EDMO), segons el darrer informe de l’entitat.
En aquests primers dies de guerra a l’Orient Mitjà, les xarxes socials i els motors de cerca van plens de contingut generat artificialment. Hem verificat desenes de vídeos de falsos atacs a Dubài, una imatge sintètica que mostrava l’aiatol·là Ali Khamenei mort sota les runes i una resposta falsa de Grok, el xatbot d’X, que assegurava que agències i mitjans de comunicació havien descontextualitzat una imatge.
Una simple cerca a Google torna desenes de vídeos sintètics del conflicte, en una mostra més de com “l’AI Slop” inunda internet i explota l’economia de l’atenció dels usuaris apel·lant a l’empatia i l’emoció. L’EFCSN cita el fenomen com una de les noves amenaces de la desinformació, juntament amb la “crisi dels zero clics” i la difuminació de la responsabilitat: els resums fets per IA implementats als motors de cerca sintetitzen i reinterpreten —moltes vegades amb errors— la informació produïda per les fonts informatives, la qual cosa redueix el tràfic web dels mitjans i dificulta identificar qui és el responsable d’una errada.
Verificació i notes de la comunitat: sumar i no substituir
Les grans tecnològiques han apostat en els darrers mesos per les notes de la comunitat, un sistema que implica els mateixos usuaris en la verificació dels continguts publicats a les plataformes. X, l’antic Twitter, va ser la primera plataforma en implementar-les, i el gener del 2025 Meta va anunciar que seguiria els seus passos, tot abandonant un programa de verificació amb fact-checkers que no només redueix la circulació de desinformació, sinó que implementa canvis en el comportament dels usuaris que han compartit contingut fals.
Tanmateix, la natura de les notes de la comunitat, que demanen que usuaris d’opinions diferents arribin a un consens, impedeix que arribin de manera ràpida allà on són més necessàries, tal com vàrem explicar en un reportatge a El Periódico. Els experts apuntaven ja fa un any que un sistema mixt que també inclogués els fact-checkers era una opció millor que substituir uns pels altres. L’EFCSN proposa, per exemple, que les notes elaborades pels verificadors es publiquin automàticament, sense necessitat de consens.