Cómo funciona la ‘Vista creada con IA’ en las búsquedas de Google y por qué puede incluir desinformación
Es un resumen de la información que la IA cree más relevante, pero no está contrastada.
Es un resumen de la información que la IA cree más relevante, pero no está contrastada.

Desde que ChatGPT se estrenó el 30 de noviembre de 2022, millones de personas en todo el mundo se han sumado a la revolución de la inteligencia artificial generativa y se han acostumbrado a delegar a este chatbot una variedad infinidad de preguntas y órdenes: desde resumir un sesudo documento legislativo, hasta plantificar el viaje familiar de verano. Rápidamente, a esta herrramienta –propiedad de la empresa estadounidense de OpenIA– le surgieron nuevos competidores, que no querían quedarse atrás en la carrera hacia la masificación global de la inteligencia artificial generativa. Google apostó por Gemini; Microsoft (que también es socio comercial de OpenIA) por Copoilot, y Elon Musk por Grok.
Dos años y medio después, Google apuesta ahora para integrar cada vez más la inteligencia artificial generativa en su buscador tradicional. Por un lado, hace un par de meses anunció el lanzamiento de la «AI Mode», que reemplazará la barra de buscador clásico por una experiencia similar a una conversación con un chatbot. Y, de la otra, extendió a España y a otros países de la Unión Europea (UE) las «Vistas creadas con IA», que ya estaban disponibles en Estados Unidos y Reino Unido. Se trata de una respuesta que aparece al principio del listado de resultados de Google cuando se hace una consulta y que ofrece un «resumen con información clave de los principales resultados», según la compañía.
Cuando se introdujo en Estados Unidos y Reino Unido, ya sonaron las alertas, ya que estas vistas creadas con IA presentaban desinformación en algunos casos. Por ejemplo, la herramienta recomendó usar pegamento para pegar queso a la pizza: en realidad, había tomado este consejo de una respuesta irónica de la red social Reddit. The New York Times explica que la misma herramienta dijo que en Estados Unidos hubo 17 presidentes blancos y que Barak Obama había sido el primer presidente musulmán, algo falso.
En Catalunya, una búsqueda hecha por Verificat muestra que la «Vista creada con IA» puede cometer errores. Por ejemplo, si se le pregunta a Google por qué el apagón general del pasado mes de abril fue causado por un «fenómeno meteorológico extraño», el buscador responde que fue causado por una «vibración atmosférica inducida», que «sucede cuando hay cambios bruscos de temperatura». Pero esto es falso, como ya desmentimos en Verificat en su momento. Los portales web que así lo afirmaban se basaban en unas supuestas declaraciones de la Red Energética Portuguesa, que la propia institución negó haber pronunciado poco después. Sin embargo, los portales que difundieron la desinformación no la han retirado de sus páginas, y Google sigue ofreciendo esta respuesta cuando se le pregunta.
Ante estos errores, Google dijo el pasado año a la agencia de noticias Associated Press (AP) que «la gran mayoría de las respuestas hechas con IA proporcionan información de alta calidad, con enlaces para profundizar más en la web».
Con errores similares se encuentran otras inteligencias artificiales generativas, como ChatGPT o Grok, la herramienta de IA de X (antes Twitter). Grok también respondió con desinformación sobre el apagón, como ya explicó Verificat, y hace poco lanzó decenas de mensajes hablando de un supuesto «genocidio blanco» en Sudáfrica sin ninguna base fáctica. Por otra parte, esta semana Grok ha dado por bueno un vídeo generado con IA en el que se ve una ola gigante aplastando una playa y un parking como si hubiese pasado en Tarragona. ¿Cómo ha sucedido? Porque Grok ha dado validez a la publicación que había hecho la cuenta satírica catalana 234.cat, confundiéndola con el canal de noticias 324.
Un artículo académico publicado en la Columbia Journalism Review que estudió cuántos errores cometían los chatbots, también Gemini de Google, falló que «en general, todos tienen dificultad para evitar responder preguntas que no pueden contestar con precisión, y en lugar de eso ofrecen respuestas incorrectas o especulativas».
Poca transparencia
Hay poca transparencia para saber cómo funcionan las «Vistas creadas con IA» de Google. En el comunicado de lanzamiento, Google explica que se trata «de un modelo Gemini personalizado para la Búsqueda de Google», que reúne «las capacidades avanzadas de Gemini –incluyendo el razonamiento en múltiples pasos, la planificación y la multimodalidad– con los sistemas de búsqueda de primer nivel». Por ahora, no se ha hecho público qué versión del modelo de lenguaje de IA usan ni los detalles de su implementación.
Ni OpenAI (propietaria de ChatGPT), ni Google (propietaria de Gemini), garantizan respuestas libres de desinformación, aunque tienen páginas donde explican sus políticas de moderación de contenidos.
Las IA generativas como Gemini o ChatGPT pueden crear contenido totalmente nuevo e inventado sin que se basen en ninguna información antigua. Esto se llama «alucinaciones», y ningún sistema de inteligencia artificial generativa las puede evitar, según un reportaje de Nature. El problema se agrava por el hecho de que es relativamente fácil percibir estas «alucinaciones» como fiables, a consecuencia de la capacidad de la IA de generar un texto coherente y convincente, independientemente de su veracidad. Por otra parte, también pueden citar mal o presentar información citada que es incorrecta, como en los casos que hemos visto anteriormente.
Cómo desactivarla
Por ahora, no se puede desactivar la función «Vistas creadas con IA», solamente se puede pinchar en la pestaña «Web» para tener un listado exclusivo de los resultados tradicionales, sin la respuesta generada con IA. Los usuarios pueden desactivar la opción que permite que las búsquedas se usen para mejorar la calidad de los modelos de IA generativa, explica Google en otro comunicado.
Para abordar estas creencias con los jóvenes, cal ir más allá de la simple verificación de hechos y tener en cuenta la dimensión emocional que las hace tan atractivas. En Desfake.cat hemos diseñado una propuesta pedagógica específica para trabajar cómo funciona la inteligencia artificial generativa con alumnado de secundaria y qué impacto puede tener en la desinformación y verificación de noticias.