Sam Altman advierte que sigue siendo posible que haya alucinaciones, aún a pesar de que se hayan actualizado varios modelos y lleguen nuevos modelos de IA más avanzados como el GPT-5.
Cuidado con lo que crees sobre lo que dice la inteligencia artificial, pues parece que todavía es muy temprano como para tener un 100% de confianza con este tipo de tecnología. Hay limitaciones y falta mucho tiempo como para poder validar por completo la información que te otorgan los chatbots, o al menos eso es lo que menciona el director ejecutivo de OpenAI en una reciente entrevista.
ChatGPT todavía es muy “joven” como para salvarse de las alucinaciones
¿Le pides cartas del Tarot a la IA? ¿Le confiesas tus sentimientos? ¿La usas para una investigación importante del trabajo? Tal vez deberías empezar a desconfiar un poco más de ella. No hay que malinterpretar las cosas, es una herramienta sumamente útil que se está implementando en muchas áreas laborales y en la actividad diaria.
Funciona para bastantes cosas y, de hecho, los expertos recomiendan usarla para aumentar la productividad y hacer cosas de manera más eficiente. El problema de estas plataformas son las alucinaciones, un error en las respuestas donde las IAs otorgan información errónea, se salen del tema hablado o genera cosas incorrectas.
En el podcast oficial de OpenAI, Sam Altman ha hablado sobre este fenómeno en los modelos, mencionando que le parece curioso que cada vez hay más personas dándole confianza al chatbot de la compañía, cuando en realidad no es un humano.
Fuente: computerhoy.20minutos.es