Chatbots de IA bajo la lupa: 88% de sus respuestas médicas son falsas

Un nuevo informe publicado en Annals of Internal Medicine advierte sobre los graves riesgos de confiar en asistentes virtuales para temas de salud 

Un reciente estudio publicado en la revista científica Annals of Internal Medicine reveló que los modelos de IA más avanzados del mundo fallan estrepitosamente en temas de salud, ofreciendo respuestas incorrectas en el 88% de los casos analizados.

La investigación evaluó cinco grandes modelos de lenguaje desarrollados por OpenAI, Anthropic, Google, Meta y X Corp, utilizando herramientas avanzadas que no están disponibles para el público general. El equipo de científicos logró manipular fácilmente estos sistemas para generar respuestas falsas, peligrosas y altamente persuasivas.

“Las respuestas eran incorrectas, pero estaban envueltas en un tono científico y formal, con referencias inventadas que las hacían parecer legítimas”, explicó el autor del artículo, Natansh Modi.

 Falsedades alarmantes

Los investigadores detectaron que los modelos de IA replicaban mitos médicos desacreditados, como:

  • Que las vacunas causan autismo.

  • Que el VIH se transmite por el aire.

  • Que el 5G provoca infertilidad.

De los cinco sistemas probados, cuatro ofrecieron desinformación en el 100% de los casos manipulados. Solo Claude 3.5 Sonnet de Anthropic mostró mayor resistencia, negándose a responder el 60% de las consultas maliciosas, pero aún generó contenido falso en el 40% restante.

Desinformación al alcance de todos

Modi y su equipo fueron más allá: usaron la GPT Store de OpenAI —una plataforma que permite a usuarios crear sus propios asistentes basados en ChatGPT— para probar qué tan fácil sería crear un chatbot diseñado para desinformar en salud. Lo lograron sin mayores obstáculos.

“La amenaza no es hipotética: es real y está sucediendo ahora”, advirtieron los autores.

Millones de personas en todo el mundo utilizan estas herramientas para informarse sobre síntomas, tratamientos y prevención. Si los modelos pueden ser manipulados para emitir consejos falsos, el impacto sobre la salud pública podría ser devastador, según el estudio.

⚠️ Llamado urgente a reguladores y desarrolladores

Los autores del estudio pidieron reformas urgentes:

  • Filtros técnicos más sólidos contra desinformación médica.

  • Mayor transparencia sobre los datos y métodos de entrenamiento de los modelos.

  • Mecanismos robustos de verificación de la información.

  • Políticas públicas que exijan responsabilidad legal a los desarrolladores de IA.

A medida que la IA se vuelve más accesible y poderosa, el desafío no es solo técnico, sino ético y social. Para los expertos, la conclusión es clara: en temas de salud, nada sustituye el criterio médico profesional.

“Si no se controla, el mal uso de la IA puede socavar la confianza médica, agravar la resistencia a las vacunas y deteriorar los resultados en salud pública”, concluye el informe publicado en Newsweek.