‘Deepfakes’ y falsedades: la ‘AI Slop’ encuentra un nicho con el contenido legal y judicial en Youtube

Un análisis del portal ‘Indicator’ encuentra 24 canales sintéticos que comparten en Youtube vídeos de temática legal y judicial, y acumulan miles de millones de visualizaciones

Un análisis del portal ‘Indicator’ encuentra 24 canales sintéticos que comparten en Youtube vídeos de temática legal y judicial, y acumulan miles de millones de visualizaciones

AI slop Youtube legal judicial
,

Hace unas semanas nos preguntasteis a través de nuestro servicio de WhatsApp (+34 695 225 233) por los consejos legales que ofrece un canal de YouTube. Cuando analizamos los vídeos con detalle, encontramos que están hechos exclusivamente con inteligencia artificial, y que no hay ninguna evidencia de que detrás haya nadie con conocimiento legal. De hecho, están llenos de falsedades.

El canal, especializado en desinformar sobre las pensiones y la jubilación, es bastante nuevo. Creado en noviembre de 2025, acumula ya 440.000 visualizaciones y más de 6.500 suscriptores.  

Hoy sabemos que estas características no son algo aislado. Un análisis del portal especializado en desinformación Indicator ha encontrado hasta 25 canales hechos con IA que publican contenido legal, judicial o de cámaras ocultas. Un total de 13 se han creado entre 2025 y 2026, y acumulan entre cientos de miles y millones de visualizaciones, a pesar de ser tan recientes.

El contenido detectado por Indicator, sin embargo, tiene un giro extra. Varios de los canales utilizan la IA para suplantar la imagen y la voz del exfiscal especial Jack Smith; el director del FBI, Kash Patel; u otras figuras del movimiento MAGA, para poner en su boca supuestas informaciones que nunca han compartido. Otros muestran imágenes fabricadas artificialmente de juicios, cámaras ocultas o circuitos cerrados de televisión, o las mezclan con contenido real, complicando aún más diferenciar los hechos de la ficción.

Ya explicamos que, lejos de ser inocuo, el contenido de la ‘AI Slop’ (generado artificialmente y de mala calidad) puede servir para esparcir discursos de odio y confirmar sesgos y narrativas mediante, entre otros, el efecto de repetición. A una conclusión similar llegó el portal Indicator: “El resultado es un embate […] que a menudo perpetuaba estereotipos sobre las personas de color y la aplicación de la ley, al tiempo que empleaban la ira como señuelo para los usuarios con confrontaciones falsas entre vecinos y entre acusados ​​y jueces”. Al revisar los comentarios de los vídeos, los investigadores también encontraron que «mucha gente creía que eran reales».

Al reportarlos a YouTube, la plataforma ha eliminado diez de las cuentas identificadas por Indicador.