Los asistentes de inteligencia artificial, herramientas que cada vez más personas utilizan para mantenerse informadas, aún están lejos de alcanzar la precisión periodística que prometen.
Una investigación internacional encabezada por la Unión Europea de Radiodifusión (UER) y la BBC reveló que los principales modelos de IA tergiversan o inventan información en casi la mitad de sus respuestas relacionadas con noticias recientes.
El estudio analizó 3.000 respuestas generadas por los asistentes ChatGPT, Copilot, Gemini y Perplexity en 14 idiomas. Los resultados muestran que el 45% de las respuestas presentaban errores importantes y que el 81% tenía algún tipo de problema de precisión, contexto o atribución. Los expertos advierten que estos fallos podrían poner en riesgo la confianza de los usuarios que utilizan estas plataformas para informarse sobre temas de actualidad.
Las compañías detrás de estos sistemas, como OpenAI, Microsoft y Google, han reconocido en diversas ocasiones que el fenómeno conocido como “alucinaciones” —cuando la IA genera información falsa o no verificada— sigue siendo un desafío técnico y ético por resolver.
Los deepfakes cada vez más realistas y capaces de modificarse en tiempo real figuran entre…
Aunque estos matrimonios no son reconocidos legalmente, encuestas recientes muestran un crecimiento del interés en…
Cada vez hay más casos de canciones falsas que fueron generadas con Inteligencia Artificial (IA)…
El Instituto Estatal Electoral de Chihuahua (IEE), en coordinación con la Universidad Tecnológica de Parral…
El estudio analizó la efectividad fisiológica y psicológica de los estímulos publicitarios y sugiere que…
El secretario general del Sindicato Nacional Alimenticio y del Comercio (SNAC), Alejandro Martínez Araiza, acudió…