Los principales asistentes de inteligencia artificial (IA) tergiversan el contenido de las noticias en casi la mitad de sus respuestas, según un nuevo estudio publicado el miércoles por la Unión Europea de Radiodifusión (UER) y la BBC.
La investigación internacional estudió 3.000 respuestas a preguntas sobre noticias de los principales asistentes de inteligencia artificial, aplicaciones informáticas que utilizan la IA para entender órdenes en lenguaje natural y completar tareas para un usuario.
Se evaluó la precisión, el origen y la capacidad de distinguir entre opiniones y hechos de los asistentes de inteligencia artificial en 14 idiomas, entre ellos ChatGPT, Copilot, Gemini y Perplexity.
En general, el 45% de las respuestas de IA que se analizaron contenían al menos un error significativo, y el 81% presentaba algún tipo de problema, según la investigación.
Reuters se ha puesto en contacto con las empresas para recabar sus comentarios sobre los resultados.
OpenAI y Microsoft han afirmado anteriormente que las alucinaciones —cuando un modelo de IA genera información incorrecta o engañosa, a menudo debido a factores como datos insuficientes— son un problema que están intentando resolver.
Una brusca caída de las acciones de las empresas de software, análisis de datos y…
Hace una semana, la comunidad tecnológica debatía sobre OpenClaw, un asistente de IA de código…
Davos colocó nuevamente a la inteligencia artificial (IA) en el centro del debate global. Bajo…
Israel y Azerbaiyán firmaron este martes, en la Oficina del Primer Ministro en Jerusalén, un…
Los títulos de compañías en Inteligencia Artificial (IA), de fabricantes de chips y los gigantes…
La inteligencia artificial (IA) debe dejar de verse como una herramienta casi mágica o una…