Grok dona per cert un vídeo creat amb IA d’una dona enmig de les inundacions del sud de Catalunya
El vídeo prové d’un compte d’Instagram d’humor que es dedica a generar contingut amb intel·ligència artificial sobre dones grans
El vídeo prové d’un compte d’Instagram d’humor que es dedica a generar contingut amb intel·ligència artificial sobre dones grans

Què s’ha dit?
Que segons Grok un vídeo generat per IA d’una dona queixant-se de les pluges torrencials al sud de Catalunya i la cobertura que n’ha fet TV3 és real.
Què en sabem?
Que el vídeo prové d’un compte d’Instagram d’humor que es dedica a crear contingut amb IA sobre dones grans.
S’ha fet viral a les xarxes socials un vídeo on es veu una dona amb l’aigua per sobre de la cintura suposadament a causa de les fortes pluges que han afectat el sud de Catalunya. Durant l’entrevista amb un periodista, la dona es queixa de la situació que viuen, però sobretot de la cobertura que en fan des de TV3, que són a Israel “fent programes especials”. Davant el dubte sobre l’autenticitat del vídeo, un usuari d’X pregunta a Grok —el xat d’intel·ligència artificial generativa de la xarxa X— si és real, i aquest respon que sí.
És FALS. Tot i que Grok defineix aquest contingut com a verídic, el vídeo està generat per intel·ligència artificial, i prové d’un compte d’Instagram especialitzat a crear, amb aquesta eina tecnològica, contingut d’humor protagonitzat per dones grans.
“Grok classifica com a real un vídeo generat per IA“
Un chatbot com Grok a X, és un programa informàtic dissenyat per simular una conversa amb persones, responent automàticament a missatges. L’error que comet Grok quan un usuari d’X li demana verificar el vídeo de la dona amb l’aigua per la cintura i aquest el dona per cert, no és un cas aïllat. En altres situacions aquest chatbot també ha difós informació falsa o no contrastada. N’és un exemple l’apagada elèctrica del 28 d’abril d’aquest any. Malgrat la compareixença de Pedro Sánchez d’aquella mateixa nit, en què explicava que l’incident s’havia degut a un canvi de tensió elèctrica, Grok va continuar compartint desinformació i afirmant que la causa havia estat, entre d’altres, un “canvi de temperatura” a la península. A més, segons Newtral, membre de la xarxa internacional de verificació rnacional de verificació (IFCN), de la qual Verificat n’és signant; Grok també va respondre amb desinformació quan es va morir el papa Francesc, sobre qui va dir que encara estava viu.
Grok presenta una taxa d’error molt superior a altres IAs
X va presentar Grok el novembre de 2023, destacant que consideraven essencial “crear eines útils per a persones de tots els orígens i ideologies polítiques”. Així i tot, un any després, en obrir-se gratuïtament a totes les persones usuàries, la xarxa es va començar a emplenar d’imatges generades amb Grok que mostraven fins i tot escenes xenòfobes, racistes i amb contingut fals. De fet, enguany aquesta intel·ligència artificial ha arribat a elogiar Hitler.
A diferència de l’aplicació independent ChatGPT d’OpenAI, l’arribada de Grok a X ofereix als usuaris accés immediat a respostes a través del chatbot. Segons investigacions d’Al Jazeera, aquesta funcionalitat ha transformat la manera com les persones usuàries interactuen a X, impulsant-les a verificar informació i continguts mitjançant aquesta tecnologia. No obstant això, es constata que, tot i que les respostes es presenten de manera convincent, sovint resulten imprecises o fins i tot falses. Segons un article publicat enguany a la Columbia Journalism Review, Grok presenta una taxa d’error molt superior a la d’altres intel·ligències artificials, responent de manera incorrecta al 94% de les consultes.
Els chatbots com Grok utilitzen models de llenguatge (LLM) que aprenen a predir la següent paraula a partir de l’anàlisi de grans volums de dades. Per això, les respostes d’aquests chatbots poden incloure informació no contrastada que ja circula públicament a la xarxa. De fet, el mateix X adverteix sobre aquest biaix esmentant que “Grok pot proporcionar informació inexacta o inapropiada” atès que “les seves respostes poden incloure informació errònia basada en aquesta informació pública”. Davant d’aquestes advertències, es recomana “considerar i verificar amb cura les respostes de Grok abans d’utilitzar-les”.
No sempre contesta el mateix: la resposta depèn de com li preguntis
El fet que les respostes de Grok, igual que les d’altres chatbots, es generin a partir de probabilitats i dades públiques implica que cada vegada el resultat pugui ser diferent. Diversos articles mostren que factors com la conversa prèvia amb el chatbot o la informació que aquest té sobre l’usuari poden influir en la resposta i fer que canviï.
Per exemple, en el cas del vídeo viral generat per IA on apareix la senyora gran enmig dels aiguats, diversos usuaris d’X pregunten a Grok sobre l’autenticitat del vídeo i les respostes es contradiuen: en algunes verifica el vídeo, mentre que en altres assegura que es tracta d’un vídeo fals.


També n’és exemple aquest cas on un usuari lamenta que Grok li hagués donat dues respostes diferents a la mateixa pregunta. Segons explica l’usuari, la diferència és que la primera consulta es va fer en un xat individual amb Grok, mentre que la segona es va publicar en un fil públic d’X. La pregunta tractava sobre l’origen del sexe i el gènere de les persones. Grok respon al xat individual que el sexe no és un fet binari estricte i que hi ha condicions intersexuals, mentre que en el fil públic d’X la resposta és més directa, afirmant que el sexe és estrictament binari.


Periodistes experts en verificació en l’àmbit internacional, com Alexios Mantzarlis, adverteixen que utilitzar chatbots com Grok per verificar i confirmar informació pot conduir a una “cambra d’eco de desinformació”, ja que es demana a una eina que de vegades “alucina” i que ha estat implicada en la promoció de teories conspiratives racistes que contrasti dades. Això posa en relleu la necessitat de contrastar sempre les respostes dels chatbots amb fonts fiables i verificades.