En Estados Unidos, un reportaje reciente encendió focos rojos: proliferan chatbots “con ideología” que se venden como alternativa a las IA´s más consolidades, a quienes acusan de tener un sesgo “liberal”.
El caso de Arya (la IA de la red social Gab, competencia de Threads y X) y la conversación en torno a Grok (IA de X antes Twitter) sugieren algo más que una moda: estamos frente a la programación y venta de sesgos ideológico-político-electorales como propuesta de valor para las empresas tecnológicas.
Ese precedente, bien documentado por medios y agregadores tecnológicos en las últimas semanas, importa mucho a México porque adelanta cómo se moverá el mercado de la atención electoral en los próximos comicios.
Esto ya no se trata de una hipótesis abstracta o un caso aislado. La prestigiosa revista Wired mostró en 2024 que Gab lanzó decenas de “celebrity chatbots” y un bot por defecto (Arya) con instrucciones internas que niegan el Holocausto, rechazan vacunas y repiten conspiraciones electorales. Es decir, tienen un sesgo explícito desde su programación.
Claudia Sheinbaum llegó a la Presidencia de México en 2024 de la mano de Morena,…
Golazo24 le consultó a la IA sobre el posible resultado del River-Boca del domingo y…
Los científicos utilizan la IA para crear acero ultrarresistente e inoxidable para piezas impresas en…
Un equipo de científicos ha confirmado que un nanorrobot de menos de una micra puede…
Un equipo internacional coordinado por investigadores de la Universidad de Konstanz presentó un nuevo método…
La integración de la Inteligencia Artificial (IA) en las industrias creativas no es una simple…