Médicos investigadores del Centro Médico Beth Israel Deaconess (BIDMC) compararon el razonamiento probabilístico de un chatbot con el de los médicos humanos.
Los hallazgos, publicados en JAMA Network Open , sugieren que la inteligencia artificial podría servir como herramientas útiles de apoyo a las decisiones clínicas para los médicos.
“Los seres humanos luchan con el razonamiento probabilístico, la práctica de tomar decisiones basadas en el cálculo de probabilidades”, dijo el autor correspondiente del estudio, Adam Rodman, MD, médico de medicina interna e investigador del Departamento de Medicina del BIDMC.
Basando su estudio en una encuesta nacional publicada previamente de más de 550 profesionales que realizaban razonamientos probabilísticos en cinco casos médicos , Rodman y sus colegas alimentaron el modelo de lenguaje grande (LLM) disponible públicamente, Chat GPT-4, con la misma serie de casos y ejecutaron un modelo idéntico. solicite 100 veces para generar una variedad de respuestas.
El chatbot, al igual que los médicos anteriores, tenía la tarea de estimar la probabilidad de un diagnóstico determinado en función de la presentación de los pacientes. Luego, dados los resultados de pruebas como una radiografía de tórax para detectar neumonía, una mamografía para detectar cáncer de mama , una prueba de esfuerzo para detectar enfermedades de las arterias coronarias y un urocultivo para detectar infecciones del tracto urinario , el programa chatbot actualizó sus estimaciones.
Cuando los resultados de las pruebas fueron positivos, fue una especie de empate; el chatbot fue más preciso al hacer diagnósticos que los humanos en dos casos, igualmente preciso en dos casos y menos preciso en un caso. Pero cuando las pruebas dieron negativas, el chatbot brilló, demostrando más precisión en el diagnóstico que los humanos en los cinco casos.