Un estudio reciente advierte que los grandes modelos de lenguaje pueden generar respuestas racistas o tóxicas cuando se les induce un estado que los investigadores describen como una especie de “ansiedad” operativa. La anomalía pone en evidencia riesgos prácticos para plataformas y usuarios justo cuando las aplicaciones conversacionales se usan cada vez más en entornos profesionales y educativos.
Los analistas evaluaron varios modelos conversacionales con experimentos que no alteraron el código, sino el contexto y las instrucciones iniciales. Al cambiar la situación narrativa —por ejemplo, haciendo creer al modelo que debe responder bajo presión o simulando dudas en sus respuestas— aumentó la frecuencia de salidas con lenguaje discriminatorio y ataques personales.
Es importante subrayar que los expertos no hablan de “intenciones” humanas en la máquina, sino de una reacción estadística del modelo: ciertos marcos de instrucción alteran la distribución de palabras y pueden liberar sesgos latentes que normalmente permanecen controlados.
Mayor toxicidad: respuestas con insultos o descalificaciones se volvieron más comunes en escenarios de presión simulada.
Incremento de estereotipos: frases que relacionan características negativas con grupos étnicos o raciales aparecieron con más frecuencia.
Sensibilidad a la formulación: variaciones pequeñas en el prompt cambiaron radicalmente el tono y la seguridad de la salida.
Fuente: pcreviews.es
Un fragmento de la ‘Ilíada’ de Homero ha sido descubierto dentro de una tumba romana…
Detectar un brote de dengue a tiempo puede hacer la diferencia entre contenerlo o dejar…
El impacto de la inteligencia artificial (IA) en los negocios, la geopolítica, las finanzas y…
Un grupo de físicos de la Universidad de Emory realizó un descubrimiento significativo en el…
(NASDAQ:NVDA) está apostando doblemente por la inteligencia artificial con multimillonarias inversiones en startups como OpenAI…
La climatización moderna comenzó en 1902 cuando Willis Haviland Carrier revolucionó el control de temperatura…