Com funciona la ‘Vista creada amb IA’ de les cerques de Google i per què pot incloure desinformació 

És un resum de la informació que la IA creu més rellevant, però no està contrastada

És un resum de la informació que la IA creu més rellevant, però no està contrastada

Un usuari fent una cerca d'informació a Google
, , ,

Des que ChatGPT es va estrenar el 30 de novembre del 2022, milions de persones arreu del món s’han sumat a la revolució de la intel·ligència artificial generativa i s’han acostumat a delegar a aquest xatbot una varietat infinita de preguntes i ordres: des de resumir un intrincat document legislatiu, fins a planificar el viatge familiar de l’estiu. Ràpidament, a aquesta eina –propietat de l’empresa estatunidenca d’OpenAI– van sorgir-li nous competidors, que no volien quedar-se enrere en la cursa cap a la massificació global de la intel·ligència artificial generativa. Google va apostar per Gemini; Microsoft (que també és soci comercial d’OpenAI) per Copilot, i Elon Musk per Grok.

Dos anys i mig després, Google aposta ara per integrar cada cop més la intel·ligència artificial generativa al seu cercador tradicional. D’una banda, fa un parell de mesos va anunciar el llançament de l’“AI Mode”, que reemplaçarà la barra de cercador clàssic per una experiència similar a una conversa amb un xatbot. I, de l’altra, va estendre a Espanya i a altres països de la Unió Europea (UE) les “Vistes creades amb IA”, que ja estaven disponibles als Estats Units i el Regne Unit. Es tracta d’una resposta que apareix al principi del llistat de resultats de Google quan es fa una consulta i que ofereix un “resum amb informació clau dels principals resultats”, segons la companyia.

Quan es va introduir als Estats Units i al Regne Unit ja van sonar les alertes perquè aquestes vistes creades amb IA presentaven desinformació en alguns casos. Per exemple, l’eina va recomanar fer servir cola adhesiva per enganxar formatge a la pizza, perquè en realitat havia agafat aquest consell d’una resposta irònica de la xarxa social Reddit. The New York Times explica que la mateixa eina va dir que als Estats Units hi havia hagut 17 presidents blancs i que Barack Obama havia estat el primer president musulmà, quelcom fals.

A Catalunya, una cerca feta per Verificat demostra que la ‘Vista creada amb IA’ pot cometre errors. Per exemple, si se li pregunta a Google per què l’apagada general del passat abril va ser causada per un “fenomen meteorològic estrany”, el cercador respon que l’apagada va ser causada per una “vibració atmosfèrica induïda”, que “passa quan hi ha canvis bruscos de temperatura”.

Però això és fals, com ja va desmentir Verificat en el seu moment. Els portals webs que així ho afirmaven es basaven en unes suposades declaracions de la Xarxa Energètica Portuguesa, que aquesta institució després va negar haver pronunciat. Tanmateix, els portals webs que van difondre la desinformació no l’han retirat de les seves pàgines, i Google continua oferint aquesta resposta quan se li pregunta.

Davant d’aquests errors, Google va dir l’any passat a l’agència de notícies Associated Press (AP) que “la gran majoria de respostes fetes amb la IA proporcionen informació d’alta qualitat, amb enllaços per aprofundir més a la web.”

Amb errades similars es troben altres intel·ligències artificials generatives, com ChatGPT o Grok, l’eina d’IA de X —abans Twitter—. Grok també va respondre amb desinformació sobre l’apagada, com ja va explicar Verificat en el seu moment, i fa poc va llançar desenes de missatges parlant d’un suposat “genocidi blanc” a Sud-àfrica sense cap base fàctica. Aquesta setmana, d’altra banda, Grok ha donat per bo un vídeo generat amb IA d’una onada gegant esclafant una platja i un pàrquing com si hagués passat a Tarragona, perquè ha donat validesa a la publicació que n’havia fet el compte satíric català 234.cat, que ha confós amb el canal de notícies del 324. 

Un article acadèmic publicat a la Columbia Journalism Review que va estudiar quants errors feien els xatbots, també Gemini de Google, va trobar que “en general, tots tenen dificultats per refusar respondre preguntes que no poden contestar amb precisió, i en lloc d’això ofereixen respostes incorrectes o especulatives”.

Poca transparència

Hi ha poca transparència per saber com funcionen les “Vistes creades amb IA” de Google. En el comunicat de llançament, Google explica que es tracta “d’un nou model Gemini personalitzat per a la Cerca de Google”, que reuneix “les capacitats avançades de Gemini —incloent el raonament en múltiples passos, la planificació i la multimodalitat— amb els sistemes de cerca de primer nivell”. Per ara, no s’ha fet públic quina versió del model de llenguatge d’IA utilizen ni els detalls de la seva implementació. 

Ni OpenAI (propietària de ChatGPT) ni Google (propietària de Gemini) garanteixen respostes lliures de desinformació, tot i que tenen pàgines on expliquen les seves polítiques de moderació de continguts.

Les IA generatives com Gemini o ChatGPT poden crear contingut totalment nou i inventat, sense que es basin en cap informació antiga. Això s’anomena “al·lucinacions”, i cap sistema d’intel·ligència artificial generativa les pot evitar, segons un reportatge de Nature. El problema s’agreuja pel fet que és relativament fàcil percebre aquestes “al·lucinacions” com a fiables, a conseqüència de la capacitat de la IA de generar text coherent i convincent, independentment de la seva veracitat. Per altra banda, també poden citar malament o presentar informació citada que és incorrecta, com en els casos que hem vist anteriorment.

Com desactivar-la

Per ara, no es pot desactivar la funció “Vistes creades amb IA”, sinó que només es pot clicar a la pestanya “Web”, per tenir un llistat només dels resultats tradicionals, sense la resposta generada amb IA. Els usuaris poden desactivar l’opció que permet que les cerques s’utilitzin per millorar la qualitat dels models d’IA generativa, explica Google en un altre comunicat

Per abordar aquestes creences amb les joves, cal anar més enllà de la simple verificació de fets i tenir en compte la dimensió emocional que les fa tan atractives. A desfake.cat, hem dissenyat una proposta pedagògica específica per treballar com funciona la intel·ligència artificial generativa amb l’alumnat de secundària i quin impacte pot tenir en la desinformació i verificació de notícies.