Los grandes modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés) no comprenden realmente los juegos de palabras, según un estudio académico realizado por investigadores de la Universidad de Cardiff (Reino Unido) y la Universidad Ca’ Foscari de Venecia (Italia), liderados por el profesor José Camacho Collados.
El trabajo fue presentado a principios de noviembre de 2025 en la Conferencia sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural. Los resultados evidencian las limitaciones de la inteligencia artificial en tareas que requieren interpretación del humor, empatía y matices culturales.
El estudio analizó la capacidad de los LLM para identificar y comprender juegos de palabras, un reto que va más allá de la simple detección de estructuras lingüísticas. El equipo diseñó experimentos en los que se presentaron a los modelos frases con juegos de palabras y versiones modificadas de esas mismas frases.
Por ejemplo, se utilizó la oración “Era comediante, pero mi vida se volvió un chiste” y, posteriormente, se reemplazó el remate por “caótica”. A pesar de la ausencia del doble sentido, los modelos continuaron identificando la frase como un juego de palabras.
La inteligencia artificial ya sirve como una herramienta para realizar ciberataques. El Informe Internacional Sobre…
Vivir de la creatividad en México ha sido durante décadas una lógica de resistencia más…
El Gobierno estadounidense podría haber utilizado herramientas de Anthropic, una empresa de inteligencia artificial con…
El papa León XIV pidió a los sacerdotes que no utilicen herramientas de inteligencia artificial…
La inteligencia artificial que usamos a diario funciona como un gigantesco cerebro virtual. Aprende analizando…
Los cilios son estructuras biológicas de tamaño micrométrico bastante comunes. Sin ir más lejos, sus…