ChatGPT, Copilot, Gemini y Perplexity frente a una enfermedad falsa: un repaso a una experiencia reveladora de los límites de las IA

ChatGPT, Copilot, Gemini y Perplexity frente a una enfermedad falsa: un repaso a una experiencia reveladora de los límites de las IA

Tabla de contenidos

Los avances en inteligencia artificial han transformado muchos sectores, pero no están exentos de fallas. Un experimento realizado por investigadores suecos expuso vulnerabilidades preocupantes en la forma en que los chatbots validan la información médica. Al inventar una enfermedad ficticia, la «bixonimanía», estos investigadores demostraron que las IA podían ser fácilmente engañadas, lo que plantea preguntas sobre su uso en contextos sensibles. Descubra cómo este experimento puso de manifiesto las limitaciones de los sistemas de inteligencia artificial actuales.

Lo esencial a recordar

  • Investigadores crearon una enfermedad ficticia para probar la credibilidad de las IA, revelando fallas importantes en su capacidad para discernir lo verdadero de lo falso.
  • Los chatbots como ChatGPT, Copilot, Gemini y Perplexity trataron la «bixonimanía» como una patología real, ilustrando los riesgos de la automatización sin verificación humana.
  • Dos años después del experimento, algunos chatbots aún no han corregido su base de datos, destacando un problema persistente en la gestión de la información errónea.

Las IA atrapadas por una enfermedad ficticia

En 2024, Almira Osmanovic Thunström, investigadora de la Universidad de Gotemburgo, diseñó un experimento para probar los límites de los chatbots. Inventó la «bixonimanía», una enfermedad ficticia, y la integró en preprints académicos llenos de signos evidentes de falsedad. A pesar de estas pistas, chatbots renombrados validaron esta patología, considerándola como real.

Copilot, por ejemplo, describía la bixonimanía como «intrigante y relativamente rara», mientras que Gemini recomendaba consultar a un oftalmólogo. Esto muestra que las IA pueden ser engañadas por contenidos bien formateados, que perciben como legítimos.

À lire  Google AI Overviews: la eliminación de información médica incorrecta

Consecuencias para la investigación y la salud

El error no se limitó a los chatbots. Investigadores del Instituto de Ciencias Médicas de Mullana en India citaron los falsos preprints en un estudio, demostrando que incluso los expertos pueden ser engañados por información generada por IA. Cureus, la revista donde se publicó el artículo, retractó el documento en marzo de 2026, pero el incidente reveló una falla sistémica en la verificación de las fuentes académicas.

Elisabeth Bik, especialista en integridad de la investigación, expresó sus preocupaciones sobre la automatización de las indexaciones académicas. Subrayó el riesgo de que la información errónea se propague sin intervención humana, un problema exacerbado por el uso de los LLMs (modelos de lenguaje de gran tamaño) en la investigación.

Reacciones y ajustes de los chatbots

Desde el experimento, algunos chatbots han actualizado sus respuestas. Copilot y Perplexity reconocieron que habían sido engañados y corrigieron sus bases de datos. Gemini, por su parte, ahora aconseja consultar a profesionales para temas médicos sensibles.

En cambio, ChatGPT continúa eludiendo la cuestión proporcionando respuestas elaboradas sin admitir el error. Esta reticencia a reconocer las fallas subraya la necesidad de una mejor gestión de la información en los sistemas de IA.

Las implicaciones para el futuro de las IA en el ámbito médico

Este experimento plantea importantes consideraciones para el futuro de la IA, especialmente en el ámbito médico. A medida que los chatbots y otros sistemas basados en IA se convierten en herramientas cada vez más comunes, es crucial mejorar su capacidad para discernir la información confiable de la errónea. La colaboración entre expertos humanos y sistemas de IA podría ser un camino prometedor para garantizar la precisión y seguridad de los datos médicos en el futuro.

À lire  OpenAI Sora: el fin de una era para el video generativo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *