Los principales asistentes de inteligencia artificial (IA) tergiversan el contenido de las noticias en casi la mitad de sus respuestas, según un nuevo estudio publicado el miércoles por la Unión Europea de Radiodifusión (UER) y la BBC.
La investigación internacional estudió 3.000 respuestas a preguntas sobre noticias de los principales asistentes de inteligencia artificial, aplicaciones informáticas que utilizan la IA para entender órdenes en lenguaje natural y completar tareas para un usuario.
Se evaluó la precisión, el origen y la capacidad de distinguir entre opiniones y hechos de los asistentes de inteligencia artificial en 14 idiomas, entre ellos ChatGPT, Copilot, Gemini y Perplexity.
En general, el 45% de las respuestas de IA que se analizaron contenían al menos un error significativo, y el 81% presentaba algún tipo de problema, según la investigación.
Reuters se ha puesto en contacto con las empresas para recabar sus comentarios sobre los resultados.
OpenAI y Microsoft han afirmado anteriormente que las alucinaciones —cuando un modelo de IA genera información incorrecta o engañosa, a menudo debido a factores como datos insuficientes— son un problema que están intentando resolver.
Un equipo internacional de científicos desarrolló un atlas digital interactivo, como un Google Earth del…
El Instituto Tecnológico de California (Caltech), en colaboración con equipos de investigación internacionales, presentó este…
La integración de la inteligencia artificial en Semana Santa abarca desde la recreación histórica y…
El investigador del Instituto Politécnico Nacional (IPN), Jesús Alejandro Acosta Franco, desarrolló una herramienta tecnológica…
En el marco de la 89ª Convención Bancaria, Banco Azteca se presenta como una institución…
Con el objetivo de sentar las bases para la construcción de un marco jurídico moderno…