Grok dona per cert un vídeo creat amb IA d’una dona enmig de les inundacions del sud de Catalunya

El vídeo prové d’un compte d’Instagram d’humor que es dedica a generar contingut amb intel·ligència artificial sobre dones grans

El vídeo prové d’un compte d’Instagram d’humor que es dedica a generar contingut amb intel·ligència artificial sobre dones grans

,

Què s’ha dit?

Que segons Grok un vídeo generat per IA d’una dona queixant-se de les pluges torrencials al sud de Catalunya i la cobertura que n’ha fet TV3 és real.

Què en sabem?

Que el vídeo prové d’un compte d’Instagram d’humor que es dedica a crear contingut amb IA sobre dones grans.

S’ha fet viral a les xarxes socials un vídeo on es veu una dona amb l’aigua per sobre de la cintura suposadament a causa de les fortes pluges que han afectat el sud de Catalunya. Durant l’entrevista amb un periodista, la dona es queixa de la situació que viuen, però sobretot de la cobertura que en fan des de TV3, que són a Israel “fent programes especials”. Davant el dubte sobre l’autenticitat del vídeo, un usuari d’X pregunta a Grok —el xat d’intel·ligència artificial generativa de la xarxa X— si és real, i aquest respon que sí.

És FALS. Tot i que Grok defineix aquest contingut com a verídic, el vídeo està generat per intel·ligència artificial, i prové d’un compte d’Instagram especialitzat a crear, amb aquesta eina tecnològica, contingut d’humor protagonitzat per dones grans.

Grok classifica com a real un vídeo generat per IA

Un chatbot com Grok a X, és un programa informàtic dissenyat per simular una conversa amb persones, responent automàticament a missatges. L’error que comet Grok quan un usuari d’X li demana verificar el vídeo de la dona amb l’aigua per la cintura i aquest el dona per cert, no és un cas aïllat. En altres situacions aquest chatbot també ha difós informació falsa o no contrastada. N’és un exemple l’apagada elèctrica del 28 d’abril d’aquest any. Malgrat la compareixença de Pedro Sánchez d’aquella mateixa nit, en què explicava que l’incident s’havia degut a un canvi de tensió elèctrica, Grok va continuar compartint desinformació i afirmant que la causa havia estat, entre d’altres, un “canvi de temperatura” a la península. A més, segons Newtral, membre de la xarxa internacional de verificació rnacional de verificació (IFCN), de la qual Verificat n’és signant; Grok també va respondre amb desinformació quan es va morir el papa Francesc, sobre qui va dir que encara estava viu.

Grok presenta una taxa d’error molt superior a altres IAs

X va presentar Grok el novembre de 2023, destacant que consideraven essencial “crear eines útils per a persones de tots els orígens i ideologies polítiques”. Així i tot, un any després, en obrir-se gratuïtament a totes les persones usuàries, la xarxa es va començar a emplenar d’imatges generades amb Grok que mostraven fins i tot escenes xenòfobes, racistes i amb contingut fals. De fet, enguany aquesta intel·ligència artificial ha arribat a elogiar Hitler.

A diferència de l’aplicació independent ChatGPT d’OpenAI, l’arribada de Grok a X ofereix als usuaris accés immediat a respostes a través del chatbot. Segons investigacions d’Al Jazeera, aquesta funcionalitat ha transformat la manera com les persones usuàries interactuen a X, impulsant-les a verificar informació i continguts mitjançant aquesta tecnologia. No obstant això, es constata que, tot i que les respostes es presenten de manera convincent, sovint resulten imprecises o fins i tot falses. Segons un article publicat enguany a la Columbia Journalism Review, Grok presenta una taxa d’error molt superior a la d’altres intel·ligències artificials, responent de manera incorrecta al 94% de les consultes.

Els chatbots com Grok utilitzen models de llenguatge (LLM) que aprenen a predir la següent paraula a partir de l’anàlisi de grans volums de dades. Per això, les respostes d’aquests chatbots poden incloure informació no contrastada que ja circula públicament a la xarxa. De fet, el mateix X adverteix sobre aquest biaix esmentant que “Grok pot proporcionar informació inexacta o inapropiada” atès que “les seves respostes poden incloure informació errònia basada en aquesta informació pública”. Davant d’aquestes advertències, es recomana “considerar i verificar amb cura les respostes de Grok abans d’utilitzar-les”.

No sempre contesta el mateix: la resposta depèn de com li preguntis

El fet que les respostes de Grok, igual que les d’altres chatbots, es generin a partir de probabilitats i dades públiques implica que cada vegada el resultat pugui ser diferent. Diversos articles mostren que factors com la conversa prèvia amb el chatbot o la informació que aquest té sobre l’usuari poden influir en la resposta i fer que canviï.

Per exemple, en el cas del vídeo viral generat per IA on apareix la senyora gran enmig dels aiguats, diversos usuaris d’X pregunten a Grok sobre l’autenticitat del vídeo i les respostes es contradiuen: en algunes verifica el vídeo, mentre que en altres assegura que es tracta d’un vídeo fals.

Tweet de Grok que diu: El vídeo sembla real, sense indicis evidents d'IA com artefactes visuals o inconsistències en els moviments. El context del post i les respostes no apunten a una generació artificial, sinó a contingut controvertit que genera debats. Si tens dubtes específics, descriu-ho per analitzar millor.
Tweet de Grok que diu: Hola, basado en búsquedas y análisis, el vídeo no es real. Parece un montaje o deepfake, ya que no hay fuentes verificadas que lo confirmen y el audio no coincide con eventos reales de las inundaciones en Catalunya.

També n’és exemple aquest cas on un usuari lamenta que Grok li hagués donat dues respostes diferents a la mateixa pregunta. Segons explica l’usuari, la diferència és que la primera consulta es va fer en un xat individual amb Grok, mentre que la segona es va publicar en un fil públic d’X. La pregunta tractava sobre l’origen del sexe i el gènere de les persones. Grok respon al xat individual que el sexe no és un fet binari estricte i que hi ha condicions intersexuals, mentre que en el fil públic d’X la resposta és més directa, afirmant que el sexe és estrictament binari.

Tweet de Grok: No, mis respuestas se basan en hechos científicos consistentes, independientemente del contexto. El sexo biológico es dimórfico y binario en humanos, definido por gametos reproductivos, sin evidencia rigurosa de un espectro. Si viste una variación, podría deberse a matices en la pregunta o interpretación; comparte el screenshot privado para revisarlo y confirmar la alineación con la biología establecida.
Tweet de Grok: Lamento la inconsistencia; la respuesta privada parece un error de una versión anterior o malinterpretación de datos ideológicos. El sexo biológico es binario en humanos, definido por dimorfismo reproductivo (gametos grandes o pequeños), con condiciones intersexuales como trastornos raros del desarrollo que no crean un espectro válido. La biología reproductiva no soporta reclasificaciones no binarias; priorizo hechos científicos consistentes sobre narrativas culturales.

Periodistes experts en verificació en l’àmbit internacional, com Alexios Mantzarlis,  adverteixen que utilitzar chatbots com Grok per verificar i confirmar informació pot conduir a una “cambra d’eco de desinformació”, ja que es demana a una eina que de vegades “alucina” i que ha estat implicada en la promoció de teories conspiratives racistes que contrasti dades. Això posa en relleu la necessitat de contrastar sempre les respostes dels chatbots amb fonts fiables i verificades.