Los principales asistentes de inteligencia artificial (IA) tergiversan el contenido de las noticias en casi la mitad de sus respuestas, según un nuevo estudio publicado el miércoles por la Unión Europea de Radiodifusión (UER) y la BBC.
La investigación internacional estudió 3.000 respuestas a preguntas sobre noticias de los principales asistentes de inteligencia artificial, aplicaciones informáticas que utilizan la IA para entender órdenes en lenguaje natural y completar tareas para un usuario.
Se evaluó la precisión, el origen y la capacidad de distinguir entre opiniones y hechos de los asistentes de inteligencia artificial en 14 idiomas, entre ellos ChatGPT, Copilot, Gemini y Perplexity.
En general, el 45% de las respuestas de IA que se analizaron contenían al menos un error significativo, y el 81% presentaba algún tipo de problema, según la investigación.
Reuters se ha puesto en contacto con las empresas para recabar sus comentarios sobre los resultados.
OpenAI y Microsoft han afirmado anteriormente que las alucinaciones —cuando un modelo de IA genera información incorrecta o engañosa, a menudo debido a factores como datos insuficientes— son un problema que están intentando resolver.
La llegada de 007 First Light a Nintendo Switch 2 generó emoción entre los fans…
En un futuro, los vehículos eléctricos (VE) suministrarán energía a los hogares durante los cortes…
La compañía Acciona ha dado un paso decisivo al adjudicarse la construcción de la mayor…
Las empresas fabricantes enfrentan dos retos para tener un crecimiento en los próximos doce meses.…
Un medio construía la falsa noticia de la reconciliación como padres de Julián Gil y…
Colin Angle presentó el lunes un prototipo de cuatro patas de esa mascota artificial, llamada…