Los principales asistentes de inteligencia artificial (IA) tergiversan el contenido de las noticias en casi la mitad de sus respuestas, según un nuevo estudio publicado el miércoles por la Unión Europea de Radiodifusión (UER) y la BBC.
La investigación internacional estudió 3.000 respuestas a preguntas sobre noticias de los principales asistentes de inteligencia artificial, aplicaciones informáticas que utilizan la IA para entender órdenes en lenguaje natural y completar tareas para un usuario.
Se evaluó la precisión, el origen y la capacidad de distinguir entre opiniones y hechos de los asistentes de inteligencia artificial en 14 idiomas, entre ellos ChatGPT, Copilot, Gemini y Perplexity.
En general, el 45% de las respuestas de IA que se analizaron contenían al menos un error significativo, y el 81% presentaba algún tipo de problema, según la investigación.
Reuters se ha puesto en contacto con las empresas para recabar sus comentarios sobre los resultados.
OpenAI y Microsoft han afirmado anteriormente que las alucinaciones —cuando un modelo de IA genera información incorrecta o engañosa, a menudo debido a factores como datos insuficientes— son un problema que están intentando resolver.
El periodismo, garante de las democracias modernas, está obligado a repensar su estrategia si quiere…
El uso de herramientas de inteligencia artificial (IA) se ha vuelto cada vez más popular…
Una semana trascendental en el sector tecnológico dejó en claro que no hay señales de…
Esta semana, Amazon anunció el despido de 14 mil empleados corporativos, citando una razón que…
La inteligencia artificial (IA) ya no es una utopía futurista que veamos de lejos, es…
La transformación digital del sistema financiero mexicano avanza a paso firme, pero pocas instituciones han…