¿Cómo detectar a los falsos médicos hechos con IA que llenan las redes sociales?

Desde Verificat, hemos identificado decenas de cuentas en YouTube que se hacen pasar por médicos expertos en personas mayores, pero que en realidad están generadas con IA y difunden desinformación

Desde Verificat, hemos identificado decenas de cuentas en YouTube que se hacen pasar por médicos expertos en personas mayores, pero que en realidad están generadas con IA y difunden desinformación

Un telèfon mòbil amb un vídeo d'un fals metge creat amb IA
, ,

A través del WhatsApp de Verificat (+34 695 225 233), nos hizo llegar un vídeo publicado en YouTube de un supuesto médico de Perú que recomendaba el consumo de plátano en mayores de sesenta años como un “alimento milagroso”, un concepto que no existe. El vídeo estaba generado con inteligencia artificial, a pesar de no explicitarlo en la descripción, y detectamos que formaba parte de una mayor tendencia. 

Una investigación de Verificat ha analizado 14 canales en esta plataforma y casi un millar de vídeos, y ha descubierto que se trata de perfiles muy similares entre ellos: se presentan como doctores expertos en salud y envejecimiento, comparten supuestos hábitos para prevenir enfermedades, a menudo contienen desinformación, y están generados con IA a pesar de no indicarlo en la descripción del canal ni en la mayoría de vídeos.

Según los expertos y estudios consultados por Verificat, los contenidos generados con inteligencia artificial son cada vez más difíciles de detectar por todos los públicos, pero esta dificultad se acentúa entre algunos colectivos como las personas mayores. Cuando, además, estos contenidos se dirigen específicamente a ellos y difunden desinformación sobre temas de salud, pueden perjudicar la vida de las personas. Por eso es muy importante siempre consultar con un médico antes de seguir cualquier consejo que encontramos por internet. Te explicamos las claves para conseguir detectar a los falsos médicos hechos con IA.

Identificar falsos médicos realizados con IA

La presencia de contenidos generados con IA en las redes ha ido en aumento en los últimos años, y ha permitido crear avatares muy verosímiles. Maite López, catedrática en Inteligencia Artificial de la Universidad de Barcelona, ​​explica a Verificat que precisamente «estos algoritmos se entrenan para que parezcan reales y no se puedan distinguir».

En el caso de los vídeos de supuestos médicos que nos hacen recomendaciones sobre cómo prevenir o curar ciertas enfermedades, puede haber indicios visuales y contextuales que nos pueden ayudar a sospechar, tal y como explica la guía de Verificat para detectar contenidos generados con IA.

Si nos encontramos ante un vídeo que nos lleva a una reacción emocional o que nos genera duda, podemos fijarnos en los siguientes aspectos:

  • Compruebe si lleva etiquetas como “generado con IA”. 

En el caso de YouTube, los creadores deben incluir la etiqueta de “Contenido alterado o sintético«en los vídeos creados de esta manera que produzcan «contenido realista». Por tanto, si un vídeo de un supuesto médico lleva esta etiqueta, es necesario saber que se puede tratar de una persona simulada, y no de un médico real. Sin embargo, en cuanto a los vídeos de YouTube de falsos médicos generados analizados por Verificat, sólo tres de cada cuatro llevaban esta etiqueta.

  • Detecte si el médico se identifica como colegiado

La profesión médica está regulada por los colegios profesionales, y todos los médicos tienen su código de colegiado único, como recuerda Gustavo Tolchinsky, médico internista y vicepresidente de la Comisión de Deontología del Colegio de Médicos de Barcelona (CoMB). “Te da la tranquilidad de que estás en manos de una persona en la que confiar”, explica en declaraciones a Verificat. Aunque en las redes, a menudo no hay ubicación específica, y los nombres son genéricos, cosa que hace que sea más difícil contrastar que quien está detrás es un profesional real, ninguno de los canales analizados por Verificat mostraba un número de colegiado. 

  • Revise si el contenido y las recomendaciones concuerda con lo que dicen las instituciones sanitarias oficiales y fuentes confiables.

López, experta en IA y ética, remarca la importancia de verificar las fuentes que hay detrás de los vídeos y hacerse preguntas como “¿en base a qué información dan estos consejos?” y “¿quién apoya esta información?”.  «Yo a nivel personal, cuando alguien me envía alguna información, intento contrastar la fuente. Si hay una agencia europea de salud, alguien que acredite lo que se dice, es para mí garantía de que viene de alguien con entidad, con conocimiento», comparte López. 

Desde el Colegio de Médicos de Barcelona existe la iniciativa Web Médica Acreditada, un sello que garantiza a los usuarios que el contenido de una web es de confianza y de calidad. «Demostramos que lo que estamos ofreciendo no lleve al engaño», señala Tolchinsky, que coordina el programa. Algunas webs en las que encontrar también información verificada sobre salud son Canal Salut, del Departamento de Salud; Estilos de Vida Saludable, del Ministerio de Salud; o la web de la Organización Mundial de la Salud.

«Si ves cualquier cosa en las redes, comenta con el médico de cabecera o el especialista para que contraste si es real o no», recomienda Tolchinsky, y recuerda que la información en salud en las redes y en los medios puede ser orientativa, pero sobre todo hay que contrastarlo con el profesional de confianza.

  • Observe si existen elementos borrosos, deformados o incoherentes: objetos mal definidos, caras extrañas o textos imposibles de leer.

Entre los vídeos analizados, destacan a veces carteles o títulos de médicos en el fondo. Quizás a primera vista, pueden parecer reales, pero si podemos ampliar la imagen veremos que los textos son borrosos o que incluyen letras que no pertenecen a ningún alfabeto, lo que es una evidencia clara de que es IA.

Captura de un vídeo de falsos médicos con evidencia que está hecho con IA.

  • Detecte posibles contradicciones con la ley física o la lógica en la imagen y en el sonido.

Algunos de los vídeos muestran imágenes de médicos sentados que se mueven de forma robótica, y el sonido tampoco concuerda con el movimiento de los labios.

  • Utilice detectores de contenido generado con IA como soporte, pero teniendo presente que no son infalibles y que siempre es necesario contrastar sus resultados.

Las dificultades para detectar desinformación

Cabe destacar que las personas sólo pueden distinguir el contenido generado por IA del contenido auténtico la mitad de las veces, según un estudio del King’s College de Londres y el Centro de Estudios Estratégicos e Internacionales de Washington. 

Además, el grupo demográfico al que se dirigen los vídeos de falsos doctores analizados, las personas mayores, «es uno de los menos preparados para reconocer que el contenido es sintético», explica en Verificat Di Cooke, investigadora del estudio. «Cuando esto se combina con la confianza inherente de que la gente deposita en las figuras de autoridad médica, el potencial de daños es grave», remarca.

En el caso de los vídeos de falsos médicos analizados, presentan consejos genéricos, y hablan a menudo de alimentos “milagrosos”, un concepto que no existe. Desde Verificat hemos desmontado con anterioridad algunas de las desinformaciones como el caso del falso mito de que la ducha con agua fría aumenta el riesgo de sufrir un ictus, qué la chia no es un superalimento que permite curar o prevenir enfermedades por sí solo. Por otra parte, también existen casos en los que recomiendan no seguir determinados tratamientos, vacunas o cirugías que pueden haber sido indicados por un médico real. 

«Si se detecta o vemos que hay figuras como estas que hacen recomendaciones de tratamientos específicos para las personas o que dirigen a los pacientes a una clínica, tienes una situación de mayor riesgo», remarca Tolchinsky.

El médico internista detalla que las “enfermedades te ponen en desesperación por encontrar respuestas” y eso también contribuye a que las personas sean más vulnerables ante este tipo de desinformaciones. «La frustración cuando la enfermedad te planta un escenario intolerable, o cuando el sistema genera frustración por el acceso, es el perfil de persona que tiene más riesgo de estar expuesta a buscar soluciones por otras vías», explica.

La catedrática de la UB en IA, Maite López, que centra su investigación en IA y ética, señala que “vamos hacia un estado en el que ni siquiera los expertos somos capaces de discernir según qué imágenes generadas con IA”. Por eso, reclama que se establezcan mecanismos que lo señalen para que la persona pueda saber cuándo es IA, a través del etiquetado, ya que es un «requerimiento ético que no está implantado, pero que se ha pedido mucho». En el marco de la Ley sobre IA de la Unión Europea, debe publicarse entre mayo y junio de este año un código de buenas prácticas que, a pesar de no ser de aplicación obligada, pedirá a las plataformas marcar el contenido realizado con IA.

“No podemos confiar en que la gente detecte ese contenido por sí misma”, coincide Cooke a partir de las conclusiones de su estudio. “Es necesaria una combinación de medidas: una detección y una supervisión de contenido más sólidas a nivel de plataforma, requisitos reglamentarios para etiquetar el contenido generado por IA e iniciativas educativas centradas no sólo en la concienciación sobre los deepfakes, sino también en habilidades prácticas como la verificación de fuentes y la comparación de afirmaciones médicas”, pide. Por eso es especialmente importante, siempre consultar con un médico antes de seguir cualquier consejo que encontramos por internet y realizar ningún cambio importante en la dieta o tratamiento.