‘Deepfakes’ i falsedats: l’‘AI Slop’ troba un nínxol amb el contingut legal i judicial a Youtube
Una anàlisi del portal ‘Indicator’ troba 24 canals d”AI Slop’ que comparteixen a Youtube vídeos de temàtica legal i judicial, i acumulen milers de milions de visualitzacions
Una anàlisi del portal ‘Indicator’ troba 24 canals d”AI Slop’ que comparteixen a Youtube vídeos de temàtica legal i judicial, i acumulen milers de milions de visualitzacions

Ens vau preguntar a través del nostre servei de WhatsApp (+34 695 225 233) pels consells legals que ofereix un canal de YouTube. Quan vam analitzar els vídeos en detall, vam trobar que estan fets exclusivament amb intel·ligència artificial, i que no hi ha cap evidència que al darrere hi hagi ningú amb coneixement legal. De fet, estan plens de falsedats.
El canal, especialitzat a desinformar sobre les pensions i la jubilació, és bastant nou. Creat el novembre del 2025, ja acumula 440.000 visualitzacions i més de 6.500 subscriptors.
Avui sabem que aquestes característiques no són un fet aïllat. Una anàlisi del portal especialitzat en desinformació Indicator ha trobat fins a 25 canals fets amb IA que publiquen contingut legal, judicial o de càmeres ocultes. Un total de 13 s’han creat entre el 2025 i el 2026, i acumulen centenars de milers i milions de visualitzacions, malgrat ser tan recents.
El contingut detectat per Indicator, però, té un gir extra. Diversos dels canals fan servir la IA per suplantar la imatge i la veu de l’exfiscal especial Jack Smith; el director de l’FBI, Kash Patel; i altres figures del moviment MAGA, per posar en la seva boca suposades informacions que mai han compartit. Altres mostren imatges fabricades artificialment de judicis, càmeres ocultes o circuits tancats de televisió, o les barregen amb contingut real, complicant encara més poder diferenciar els fets de la ficció.
Ja vam explicar que, lluny de ser innocu, el conegut com a ‘AI Slop’ (contingut generat artificialment de mala qualitat), es pot emprar per escampar discursos d’odi i confirmar biaixos i narratives mitjançant, entre altres, l’efecte de repetició. A una conclusió similar va arribar el portal Indicator: “El resultat és un embat […] que sovint perpetuava estereotips sobre les persones de color i l’aplicació de la llei, alhora que empraven la ira com a esquer per als usuaris amb confrontacions falses entre veïns i entre acusats i jutges”. En revisar els comentaris dels vídeos, els investigadors també van trobar que “molta gent creia que eren reals”.
En reportar-los a YouTube, la plataforma ha eliminat deu dels comptes identificats per Indicator.