Aunque los chatbots de inteligencia artificial (IA) utilizados en la atención médica suelen acertar el diagnóstico cuando disponen de la información clínica completa, siguen mostrando deficiencias importantes cuando tienen que diagnosticar con poca información o cuando tienen que hacer un diagnóstico diferencial.
Según un estudio publicado este lunes en JAMA Network Open y realizado por investigadores del la incubadora de innovación MESH de la red de hospitales de Boston Mass General Brigham (Estados Unidos), la IA aún no está preparada para tomar decisiones médicas sin la supervisión constante de un profesional humano.
El equipo llegó a esta conclusión tras evaluar 21 de los modelos de lenguaje grandes (LLM) más avanzados del mercado -entre ellos GPT-5, Grok 4, Claude, DeepSeek y Gemini- mediante una metodología específica desarrollada para evaluar la competencia clínica de estos modelos de IA.
Fuente: Yahoo