Asistentes de IA cometen errores en la información de noticias

Asistentes de IA cometen errores en la información de noticias

Los principales asistentes de inteligencia artificial (IA) tergiversan el contenido de las noticias en casi la mitad de sus respuestas, según un nuevo estudio publicado el miércoles por la Unión Europea de Radiodifusión (UER) y la BBC.

La investigación internacional estudió 3.000 respuestas a preguntas sobre noticias de los principales asistentes de inteligencia artificial, aplicaciones informáticas que utilizan la IA para entender órdenes en lenguaje natural y completar tareas para un usuario.

Se evaluó la precisión, el origen y la capacidad de distinguir entre opiniones y hechos de los asistentes de inteligencia artificial en 14 idiomas, entre ellos ChatGPT, Copilot, Gemini y Perplexity.

En general, el 45% de las respuestas de IA que se analizaron contenían al menos un error significativo, y el 81% presentaba algún tipo de problema, según la investigación.

Reuters se ha puesto en contacto con las empresas para recabar sus comentarios sobre los resultados.

OpenAI y Microsoft han afirmado anteriormente que las alucinaciones —cuando un modelo de IA genera información incorrecta o engañosa, a menudo debido a factores como datos insuficientes— son un problema que están intentando resolver.

Facebook
Twitter
LinkedIn
Pinterest
Email

RELACIONADOS