El uso de chatbots de IA como ChatGPT, Copilot o Gemini como asistentes médicos es, sin duda, una práctica que en algún momento una gran cantidad de usuarios ha realizado, especialmente en jóvenes. Sin embargo, una nueva investigación revela que emplear la opción de Microsoft (Copilot, basado en el motor GPT de OpenAI) como asesor puede causar daños graves, e incluso la muerte en más del 20% de sus respuestas.
Este es el resultado de un estudio realizado por investigadores alemanes y belgas, quienes señalan que no se debe confiar en la IA para obtener información precisa y segura sobre medicamentos, ya que la información proporcionada puede ser errónea y potencialmente peligrosa.
En este trabajo, publicado en la revista BMJ Quality & Safety, se concluye que los pacientes no deben confiar en los motores de búsqueda ni en los chatbots, debido a que una cantidad considerable de sus respuestas eran incorrectas y ponían en riesgo la salud de los usuarios. Además, al dar respuestas complejas, estas resultaban difíciles de comprender para pacientes que no cuentan con un nivel educativo universitario.
El contexto de la investigación
Según el sitio Scimex, los investigadores partieron de la premisa de que los chatbots impulsados por IA prometían mejores resultados de búsqueda, respuestas integrales y experiencias interactivas.
Estos chatbots pueden entrenarse con amplios conjuntos de datos para conversar sobre cualquier tema, incluidas consultas médicas. Sin embargo, los investigadores señalan que también son capaces de "generar desinformación, contenido …