Los verificadores europeos denuncian un «gran retroceso» de las plataformas en la lucha contra la desinformación en plena ola de la IA
La EFCSN, de la que Verificat forma parte, pide a la UE que investigue si la desinversión de las plataformas para frenar la desinformación vulnera la Ley de servicios digitales
La EFCSN, de la que Verificat forma parte, pide a la UE que investigue si la desinversión de las plataformas para frenar la desinformación vulnera la Ley de servicios digitales

Las principales tecnológicas mundiales se han apartado de los compromisos para garantizar la integridad informativa en sus plataformas desde las elecciones estadounidenses de 2024. La llegada de Donald Trump a la Casa Blanca coincide con un “gran retroceso” en la inversión de las “Big Tech” para frenar la difusión de desinformación, lo que hace menos seguros los espacios informativos, mina la legitimidad democrática y la confianza institucional, y dispara el gasto económico y sanitario. Es la conclusión de un Libro Blanco presentado hoy por la European Fact-Checking Standards Network (EFCSN), de la que Verificat forma parte.
El documento apela a la Comisión Europea a aplicar la Ley de servicios digitales (DSA), el marco legal que regula el entorno digital dentro de la UE, para investigar si esta desinversión vulnera la obligación que tienen las plataformas de mitigar los riesgos sistémicos (artículos 80 a 83): la diseminación de contenido ilegal; los impactos en los derechos fundamentales de los ciudadanos; los efectos negativos en procesos democráticos, discurso cívico, procesos electorales y seguridad pública; y el perjuicio en violencia de género, la protección de la salud pública y los menores, y consecuencias serias en el bienestar mental y físico.
El EFCSN establece que, en este sentido, «las negligencias de las plataformas están bien documentadas», citando un informe del pasado septiembre en el que evaluaba el grado de cumplimiento de cada una con el Código de Conducta frente a la desinformación.
Un estudio reciente de Science Feedback, también miembro de la red europea, encontró que uno de cada cinco posts sobre temas de interés público publicado en TikTok contenía desinformación. En Facebook y X (Twitter) la ratio bajaba al 13 y al 11% respectivamente, y en YouTube e Instagram se situaba en torno al 8%. Los investigadores encontraron, sin embargo, que las cuentas poco fiables recibían más engagement por cada 1.000 seguidores que las muy fiables, y concluyeron que las decisiones tras el diseño de las plataformas pueden estar deteriorando activamente la integridad informativa y aumentando la visibilidad de la desinformación.
La amenaza de la IA: pérdida de calidad de la información
El Libro Blanco de la EFCSN llega en pleno auge de la inteligencia artificial generativa como herramienta de desinformación. El contenido sintético tiene cada vez más peso en las redacciones y ya protagoniza una de cada cinco verificaciones de los miembros del Observatorio Europeo de Medios Digitales (EDMO), según el último informe de la entidad.
Estos primeros días de guerra en Oriente Medio han confirmado la tendencia. Las redes sociales y los motores de búsqueda están llenos de contenido generado artificialmente. Hemos verificado decenas de vídeos de falsos ataques a Dubai, una imagen sintética que mostraba el ayatolá Ali Jamenei muerto bajo los escombros y una respuesta falsa de Grok, el chatbot de X, que aseguraba que agencias y medios de comunicación habían descontextualizado una imagen.
Una simple búsqueda en Google devuelve decenas de vídeos sintéticos del conflicto, en una muestra más de cómo la “AI Slop” inunda internet y explota la economía de la atención de los usuarios apelando a la empatía y la emoción. La EFCSN cita el fenómeno como una de las nuevas amenazas de la desinformación, junto con la “crisis de los cero clics” y la difuminación de la responsabilidad: los resúmenes realizados por IA implementados en los motores de búsqueda sintetizan y reinterpretan —muchas veces con errores— la información producida por las fuentes informativas, lo que reduce el tráfico y dificulta identificar al responsable de un error.
Verificación y notas de la comunidad: sumar y no sustituir
Las grandes tecnológicas han apostado en los últimos meses por las notas de la comunidad, un sistema que implica a los propios usuarios en la verificación de los contenidos publicados en las plataformas. X, el antiguo Twitter, fue la primera plataforma en implementarlas, y en enero del 2025 Meta anunció que seguiría sus pasos, abandonando un programa de verificación con fact-checkers que no sólo reduce la circulación de desinformación, sino que implementa cambios en el comportamiento de los usuarios que han compartido contenido falso.
Sin embargo, la naturaleza de las notas de la comunidad, que piden que usuarios de opiniones diferentes lleguen a un consenso, impide que lleguen de forma rápida allá donde son más necesarias, tal y como explicamos en un reportaje en El Periódico. Los expertos apuntaban hace un año que un sistema mixto que también incluyera a los fact-checkers era una opción mejor que sustituir unos por otros. EFCSN propone, por ejemplo, que las notas elaboradas por los verificadores se publiquen automáticamente, sin necesidad de consenso.