Guerra en la era de la desinformación: cómo la IA acentúa la infoxicación
Los conflictos armados muestran cómo la IA cambia el panorama mediático y ponen de relieve la necesidad de la alfabetización mediática
Los conflictos armados muestran cómo la IA cambia el panorama mediático y ponen de relieve la necesidad de la alfabetización mediática

A raíz de los bombardeos de Estados Unidos e Israel contra Irán y de la respuesta de Teherán, las redes sociales se han llenado de contenidos engañosos o directamente falsos sobre los ataques. Este fenómeno no es nuevo. En situaciones de guerra, las redes sociales tienen un papel ambivalente: por una parte, se convierten en una herramienta clave de información y comunicación para la población civil; por otra, funcionan como canales de propaganda y de difusión de contenidos manipulados, perpetuando la infoxicación y la polarización de ideas.
Es ejemplo el pico de desinformación detectado en marzo de 2022, coincidiendo con el inicio de la guerra en Ucrania, por el Observatorio Europeo de Medios Digitales (EDMO, por sus siglas en inglés), una red de verificadores formada por 34 organizaciones, entre ellas, Verificat. Cómo recuerda Marcel Mauri, coordinador del Grupo de Investigación en Comunicación Política, Periodismo y democracia (POLCOM-GRP) de la Universitat Pompeu Fabra (UPF), «la primera víctima de un conflicto es la verdad».
Las guerras de IA: cuando la desinformación se acelera
Aunque las campañas de desinformación no son nuevas, la IA transforma profundamente el panorama informativo de las guerras, sobre todo en las redes sociales, principal vía de información de los jóvenes, según el Digital News Report del Reuters Institute. La tecnología mostró los primeros indicios de su capacidad de manipular la realidad con la guerra de Gaza, tal y como recogió Maldita, miembro como Verificat de la International Fact-Checking Network (IFCN). Ahora, sin embargo, ha tomado una nueva dimensión con el conflicto en Oriente Medio, que podría ser la primera guerra «retransmitida» falsamente por IA.
Si antes crear imágenes o vídeos manipulados requería conocimientos técnicos avanzados, hoy cualquier usuario puede generar contenidos falsos con herramientas accesibles y en pocos minutos esparcir rápidamente a través de las redes sociales. Según Xavier Giró, profesor jubilado de la Facultad de Ciencias de la Comunicación de la Universitat Autónoma de Barcelona (UAB) e impulsor del grupo de investigación Observatorio de la Cobertura de Conflictos, estos contenidos tienden a multiplicar el impacto emocional inmediato del sufrimiento, ponen los sentimientos por encima de la reflexión y aceleran la circulación de información –real y fabricada–, lo que dificulta el seguimiento pausado y crítico de los hechos.
Un informe reciente de Brookings, unthink thank (en español, laboratorio de ideas) que aborda las implicaciones de las deepfakes (vídeos generados con IA) en los conflictos internacionales, expone amenazas como «falsificar órdenes de líderes militares, sembrar confusión entre la población y las fuerzas armadas, y dar legitimación a guerras y levantamientos». Esta semana, Nikita Bier, ejecutivo de X, anunció la suspensión temporal del programa de monetización a los creadores que publiquen vídeos de conflictos armados generados con IA sin indicarlo claramente con una etiqueta.
Cuando la información satura, es necesario pensamiento crítico
La proliferación de estos contenidos generados con IA también contribuye a la infoxicación, definida como un exceso de información que el receptor no puede procesar. Esto, en parte, es una consecuencia de la falta de atención crítica en el entorno y de una pereza intelectual, donde los algoritmos tienen un papel protagonista, según un estudio de la revista Comunicación y Hombre.
Para Mauri, investigador de POLCOM-GRP, este fenómeno puede acentuar la polarización de la ciudadanía en un contexto bélico de “extrema necesidad de consumo informativo”. En la misma línea, una investigación de la Universidad de Ginebra (Suiza) prevé que la amplificación de contenidos sensacionalistas o polarizadores, a menudo premiados por los algoritmos de las plataformas, divisiones sociales acentuadas.
Ante esa saturación informativa y la fuerte polarización, el experto apunta a otro riesgo: la desconexión. Hay gente que acaba pensando que prefiere no informarse, pero alerta de que esta actitud es peligrosa: «La única manera de estar bien informado es hacerlo a través de fuentes fiables y contrastables.»
En este sentido, Mauri defiende la alfabetización mediática como clave para no caer en la vorágine de la desinformación. Tal y como también propone la OCDE con el suyo borrador del informe PISA 2019, Mauri coincide en que no se trata solo de intentar detectar vídeos que han sido generados con IA, sino desarrollar una mirada crítica que permita interpretar la información en el contexto y distinguir qué es fiable y qué no. Para Mauri, la responsabilidad es compartida: los medios deben esforzarse en identificar con rigor sus contenidos para diferenciarlos de la desinformación, pero la ciudadanía también debe buscar fuentes confiables antes de compartir cualquier información. Los jóvenes, aunque más expuestos a contenidos artificiales, explica, pueden también ser más críticos y poner en duda lo que ven, si se les ofrecen herramientas y formación adecuadas.
Proyectos pedagógicos como Desfake, impulsado por Verificado, muestran cómo aplicar AMI en el aula. Con el recurso “Investigamos en quién confiar”, el alumnado aprende a comprobar la veracidad de la información a través de cuatro preguntas clave: ¿Cómo quiere hacerme reaccionar? ¿Quién está detrás de la información? ¿Qué dicen otras fuentes fiables? ¿Qué pruebas aporta?