Vídeos reales y ‘deepfakes’: cuando el exceso de sospecha se convierte en conspiración

Cuanto más concienciados estamos de la existencia y presencia de los vídeos sintéticos en redes, peor identificamos los reales

Cuanto más concienciados estamos de la existencia y presencia de los vídeos sintéticos en redes, peor identificamos los reales

Vídeos reals confosos amb deepfakes després de rumors sobre la mort de Netanyahu. Fonts: Roda de premsa 12 març i compte d'Instagram de Benjamin Netanyahu.
, ,

En los primeros días de la guerra en Oriente Medio las redes sociales se llenaron de contenidos generados con inteligencia artificial. Vídeos e imágenes sintéticas construyeron una realidad paralela con cientos de ejemplos falsos que, a su vez, engañaban a los chatbots incrustados en plataformas como X (antes Twitter) o Google y les hacían dar por buenas escenas que jamás habían tenido lugar. Caso a caso, la idea de que cualquier elemento que circula por redes es susceptible de haber sido hecho o modificado con IA ha arraigado en el imaginario colectivo, y ha minado la confianza ciudadana en todos los materiales audiovisuales, también los veraces.

El ejemplo más reciente son las especulaciones sobre la muerte de Benjamin Netanyahu, el primer ministro israelí. La reducción de apariciones públicas desde el inicio de la guerra, unida a una campaña de propaganda iraní, hicieron crecer la sospecha de que el mandatario está muerto o gravemente herido. Los esfuerzos israelíes por desmentirlo, con una rueda de prensa y dos vídeos como prueba de vida, se han topado con el escepticismo de las redes y acusaciones de haber sido creados artificialmente para ocultar su muerte, aunque nada lo hace pensar.

«Probar que un político está vivo usando vídeos no funciona tan bien como se podría pensar, porque a menudo estos vídeos se desacreditan y se buscan formas de edición reales o percibidas», explica a Verificat Juan Twomey, que investiga la interacción humano-ordenador en la Universidad de Limerick (Irlanda) y se ha especializado en el impacto de los deepfakes en la sociedad. 

Sesgo de confirmación y dividendo del mentiroso

Lo que describe el experto no deja de ser la versión deepfake del sesgo de confirmación: muchos usuarios de redes analizan ahora los vídeos convencidos de que son falsos. Empiezan la búsqueda, por tanto, con la intención de encontrar una respuesta concreta, lo que puede hacerles ver indicios de falsedad que, en realidad, no existen. En definitiva, cuanto más concienciado está el público de la existencia de los deepfakes, más desconfiado acaba siendo respecto del contenido real.

Ésta es, de hecho, una de las conclusiones a las que llegó una investigación realizada por científicos del MIT en 2022, que hizo un test a 15.000 personas para ver con qué fiabilidad identificaban vídeos reales y sintéticos. Los participantes terminaban la prueba, que alternaba materiales veraces con otros falsos, identificando cualquier vídeo como artificial en un 18% más de casos que al inicio. Es decir, encontraban los deepfakes con mayor eficiencia, pero también identificaban peor los vídeos reales. 

Esto es peligroso, apuntaba Twomey con otros científicos irlandeses en un posicionamiento publicado el 2025 en la revista Interaction, porque en su día a día las personas ven muchos más vídeos reales que fabricados. El escepticismo creciente puede, por tanto, llevar a dudar de la realidad de forma generalizada y desproporcionada.

De nuevo, la inteligencia artificial escala un fenómeno conocido como es el dividendo del mentiroso (liar’s dividend en inglés), que define la situación en la que una persona califica de mentira una información que la compromete y genera un ecosistema de dudas a su alrededor en el que nada es creíble. Es un fenómeno que se aprovecha de la desconfianza en los medios y las instituciones, y profundiza en ello: “Incluso después de exponer una mentira, para el público resulta más difícil confiar en las noticias sobre el tema concreto”, explicaba Poynter en un artículo de 2019 al respecto.

Menos trucos y atención al detalle, y mayor alfabetización mediática

La IA ha ido ganando peso rápidamente como agente de la desinformación en los últimos meses, tal y como evidencian los últimos informes del Observatorio Europeo de Medios Digitales (EDMO), por lo que es lógico que la identificación de vídeos reales como deepfakes sea ​​ahora común y extendida. Pero la problemática no es nueva. En 2018, en Gabón circularon rumores de que Ali Bongo, presidente del país, había fallecido tras sufrir un ictus. Fuentes oficiales publicaron un vídeo como prueba de vida, que parte del público desacreditó como deepfake (no lo era). Las especulaciones culminaron una semana después con un intento de golpe de estado, según reportó Político.

También fue común en los compases iniciales de la guerra de Ucrania, según una investigación publicada en PLOS One que analizó casi 5.000 tuits relacionados con deepfakes al respecto en los siete primeros meses de 2022. “Encontramos que mucha de la desinformación de nuestra base de datos venía de señalar vídeos reales como deepfakes”, escribían los autores del artículo, añadiendo que “los esfuerzos por concienciar sobre los deepfakes pueden socavar la confianza en vídeos legítimos”.

El impacto de los vídeos artificiales, cada día más realistas, se combina con la pérdida de confianza creciente en las instituciones y la evidencia para alterar la percepción de la realidad, explica Twomey a Verificat. Hacer nuestra propia búsqueda es útil si tenemos las herramientas y el conocimiento para realizarla. Sin embargo, a menudo no es el caso con los deepfakes, por lo que nos fijamos en detalles que no son determinantes y terminamos cayendo en la desinformación.

Una investigación de 2021, de hecho, incluso encontró que una formación específica para detectar vídeos artificiales hacía que los participantes identificaran vídeos reales como falsos en un 9% más de ocasiones. Es por eso que los investigadores irlandeses apuntan en su posicionamiento de 2025 que el objetivo de las intervenciones educativas “no debería ser transformar a las personas en máquinas capaces de identificar fácilmente si un contenido es deepfake o real». Más bien, proponen, «deberían motivar una sospecha saludable de los audiovisuales y centrarse en cómo las personas tratan desinformación potencial».

La clave para informarnos de conflictos y situaciones con poca información no debe ser, por tanto, buscar detalles para identificar si un contenido es real o no. Más bien conviene que nos centremos en ubicar a quien nos está informando, si es un agente fiable y qué dice al respecto nuestra red de fuentes de confianza. Los periodistas e investigadores especializados probablemente tienen más tiempo, recursos y experiencia que nosotros para llevar a cabo una investigación exhaustiva.

Esto tampoco significa creer ciegamente en lo que reportan los medios y las instituciones, sino aplicar una confianza crítica que nos permita ponderar la calidad de las fuentes con la de las pruebas y argumentos que aportan, así como con su política de transparencia y corrección de errores (a la que están obligados por el código deontológico). La experiencia y el contexto son claves para distinguir el grano de la paja, y son el foco principal de las cápsulas de Desfake, el programa educativo de Verificat, que exploran la temática: El poder de la imagen e Inteligencia artificial generativa.