Aunque los chatbots de inteligencia artificial (IA) utilizados en la atención médica suelen acertar el diagnóstico cuando disponen de la información clínica completa, siguen mostrando deficiencias importantes cuando tienen que diagnosticar con poca información o cuando tienen que hacer un diagnóstico diferencial.
Según un estudio publicado este lunes en JAMA Network Open y realizado por investigadores del la incubadora de innovación MESH de la red de hospitales de Boston Mass General Brigham (Estados Unidos), la IA aún no está preparada para tomar decisiones médicas sin la supervisión constante de un profesional humano.
El equipo llegó a esta conclusión tras evaluar 21 de los modelos de lenguaje grandes (LLM) más avanzados del mercado -entre ellos GPT-5, Grok 4, Claude, DeepSeek y Gemini- mediante una metodología específica desarrollada para evaluar la competencia clínica de estos modelos de IA.
Fuente: Yahoo
¿Qué consecuencias tiene el problema de la IA en el sector editorial para autores y…
En 2026, la IA en ventas B2B opera en dos capas: lo que ya es…
En pocos años, la discusión ya no será si la inteligencia artificial puede asistir a…
Durante una conferencia en el marco del Foro Económico Mundial, Demis Hassabis, cofundador y CEO…
Crypto.com, el exchange de monedas digitales, lanzó un nuevo producto basado en IA para educar a…
Google cuenta con 61 cursos online, algunos de ellos son gratuitos y otros de pago,…