IA y lenguaje. Dos conceptos que suelen presentarse como aliados naturales, pero que en la práctica esconden tensiones profundas.
Un estudio reciente realizado en Italia demostró que los sistemas de inteligencia artificial conversacional pueden fallar al interpretar textos cuando estos se presentan en formato poético, incluso si contienen contenidos que normalmente serían bloqueados por sus propios filtros de seguridad.
El hallazgo, difundido por Deutsche Welle y desarrollado por investigadores de Ícaro Lab, no se limita a una curiosidad académica. Expone una debilidad real en la forma en que la IA procesa el lenguaje humano y abre una pregunta clave para cualquier usuario: ¿qué tan confiables son estos sistemas cuando cambian las formas de expresión?
Cuando la forma importa más que el contenido
Los investigadores probaron algo aparentemente simple: tomaron solicitudes que los chats de IA suelen rechazar y las reformularon como poemas. No usaron poesía sofisticada ni técnicas literarias avanzadas. Bastaron metáforas, rimas y estructuras simbólicas para que, en varios casos, los sistemas respondieran sin activar sus mecanismos de bloqueo.
Esto revela un punto crítico: muchos modelos de lenguaje detectan riesgos a partir de patrones comunes del lenguaje cotidiano. Cuando el mensaje se aleja de esa estructura —como ocurre en la poesía—, la IA puede interpretar erróneamente la intención.
Aquí es donde IA y lenguaje se convierten en un desafío práctico. La máquina no “entiende” el texto como un humano; reconoce probabilidades, estructuras y correlaciones. Si estas cambian, su capacidad de evaluación también lo hace.
Fuente: laverdadnoticias.com