Grok da por cierto un vídeo creado con IA de una mujer en medio de las inundaciones del sur de Cataluña

El vídeo proviene de una cuenta de Instagram de humor que se dedica a generar contenido con inteligencia artificial sobre mujeres mayores

El vídeo proviene de una cuenta de Instagram de humor que se dedica a generar contenido con inteligencia artificial sobre mujeres mayores

,

¿Qué se ha dicho?

Que, según Grok, un vídeo generado por IA de una mujer quejándose de las lluvias torrenciales en el sur de Cataluña y de la cobertura que ha hecho TV3 es real.

¿Qué sabemos?

Que el vídeo proviene de una cuenta de Instagram de humor que se dedica a crear contenido con IA sobre mujeres mayores.

Se ha hecho viral en las redes sociales un vídeo en el que se ve a una mujer con el agua por encima de la cintura, supuestamente a causa de las fuertes lluvias que han afectado al sur de Cataluña. Durante la entrevista con un periodista, la mujer se queja de la situación que viven, pero sobre todo de la cobertura que hace TV3, que está en Israel “haciendo programas especiales”. Ante la duda sobre la autenticidad del vídeo, un usuario de X pregunta a Grok —el chat de inteligencia artificial generativa de la red X— si es real, y este responde que sí.

Es FALSO. Aunque Grok define este contenido como verídico, el vídeo está generado por inteligencia artificial y proviene de una cuenta de Instagram especializada en crear, con esta herramienta tecnológica, contenido humorístico protagonizado por mujeres mayores.

«Grok clasifica como real un vídeo generado por IA«

Un chatbot como Grok en X es un programa informático diseñado para simular una conversación con personas, respondiendo automáticamente a los mensajes. El error que comete Grok cuando un usuario de X le pide verificar el vídeo de la mujer con el agua hasta la cintura y este lo da por cierto no es un caso aislado. En otras situaciones, este chatbot también ha difundido información falsa o no contrastada. Un ejemplo de ello es el apagón eléctrico del 28 de abril de este año. A pesar de la comparecencia de Pedro Sánchez esa misma noche, en la que explicaba que el incidente se había debido a un cambio de tensión eléctrica, Grok continuó compartiendo desinformación y afirmando que la causa había sido, entre otras, un “cambio de temperatura” en la península. Además, según Newtral, miembro de la red internacional de verificación (IFCN), de la cual Verificat es firmante, Grok también respondió con desinformación cuando murió el papa Francisco, sobre quien dijo que seguía vivo.

Grok presenta una tasa de error mucho mayor que otras IAs

X presentó Grok en noviembre de 2023, destacando que consideraban esencial “crear herramientas útiles para personas de todos los orígenes e ideologías políticas”. Aun así, un año después, al abrirse gratuitamente a todos los usuarios, la red empezó a llenarse de imágenes generadas con Grok que mostraban incluso escenas xenófobas, racistas y con contenido falso. De hecho, este año esta inteligencia artificial ha llegado a elogiar a Hitler.

A diferencia de la aplicación independiente ChatGPT de OpenAI, la llegada de Grok a X ofrece a los usuarios acceso inmediato a respuestas a través del chatbot. Según investigaciones de Al Jazeera, esta funcionalidad ha transformado la manera en que los usuarios interactúan en X, impulsándolos a verificar información y contenidos mediante esta tecnología. Sin embargo, se constata que, aunque las respuestas se presentan de manera convincente, a menudo resultan imprecisas o incluso falsas. Según un artículo publicado este año en la Columbia Journalism Review, Grok presenta una tasa de error mucho más alta que otras inteligencias artificiales, respondiendo de manera incorrecta al 94% de las consultas.

Los chatbots como Grok utilizan modelos de lenguaje (LLM) que aprenden a predecir la siguiente palabra a partir del análisis de grandes volúmenes de datos. Por ello, las respuestas de estos chatbots pueden incluir información no contrastada que ya circula públicamente en la red. De hecho, la propia X advierte sobre este sesgo, mencionando que “Grok puede proporcionar información inexacta o inapropiada”, dado que “sus respuestas pueden incluir información errónea basada en esta información pública”. Ante estas advertencias, se recomienda “considerar y verificar cuidadosamente las respuestas de Grok antes de utilizarlas”.

No siempre contesta lo mismo: la respuesta depende de cómo se le pregunte

El hecho de que las respuestas de Grok, al igual que las de otros chatbots, se generen a partir de probabilidades y datos públicos implica que cada vez el resultado pueda ser diferente. Varios artículos muestran que factores como la conversación previa con el chatbot o la información que este tiene sobre el usuario pueden influir en la respuesta y hacer que cambie.

Por ejemplo, en el caso del vídeo viral generado por IA en el que aparece la señora mayor en medio de las lluvias torrenciales, varios usuarios de X preguntan a Grok sobre la autenticidad del vídeo y las respuestas se contradicen: en algunas lo verifica, mientras que en otras asegura que se trata de un vídeo falso.

Tweet de Grok que diu: El vídeo sembla real, sense indicis evidents d'IA com artefactes visuals o inconsistències en els moviments. El context del post i les respostes no apunten a una generació artificial, sinó a contingut controvertit que genera debats. Si tens dubtes específics, descriu-ho per analitzar millor.
Tweet de Grok que diu: Hola, basado en búsquedas y análisis, el vídeo no es real. Parece un montaje o deepfake, ya que no hay fuentes verificadas que lo confirmen y el audio no coincide con eventos reales de las inundaciones en Catalunya.

También es ejemplo de ello un caso en el que un usuario lamenta que Grok le hubiera dado dos respuestas diferentes a la misma pregunta. Según explica el usuario, la diferencia es que la primera consulta se hizo en un chat individual con Grok, mientras que la segunda se publicó en un hilo público de X. La pregunta trataba sobre el origen del sexo y el género de las personas. Grok responde en el chat individual que el sexo no es un hecho estrictamente binario y que existen condiciones intersexuales, mientras que en el hilo público de X la respuesta es más directa, afirmando que el sexo es estrictamente binario.

Tweet de Grok: No, mis respuestas se basan en hechos científicos consistentes, independientemente del contexto. El sexo biológico es dimórfico y binario en humanos, definido por gametos reproductivos, sin evidencia rigurosa de un espectro. Si viste una variación, podría deberse a matices en la pregunta o interpretación; comparte el screenshot privado para revisarlo y confirmar la alineación con la biología establecida.
Tweet de Grok: Lamento la inconsistencia; la respuesta privada parece un error de una versión anterior o malinterpretación de datos ideológicos. El sexo biológico es binario en humanos, definido por dimorfismo reproductivo (gametos grandes o pequeños), con condiciones intersexuales como trastornos raros del desarrollo que no crean un espectro válido. La biología reproductiva no soporta reclasificaciones no binarias; priorizo hechos científicos consistentes sobre narrativas culturales.

Periodistas expertos en verificación en el ámbito internacional, como Alexios Mantzarlis, advierten que utilizar chatbots como Grok para verificar y confirmar información puede conducir a una “cámara de eco de desinformación”, ya que se pide a una herramienta que a veces “alucina” y que ha estado implicada en la promoción de teorías conspirativas racistas que contraste datos. Esto pone de relieve la necesidad de contrastar siempre las respuestas de los chatbots con fuentes fiables y verificadas.