ChatGPT
Inteligencia Artificial y la manipulación de votantes

Inteligencia Artificial y la manipulación de votantes

En Estados Unidos, un reportaje reciente encendió focos rojos: proliferan chatbots “con ideología” que se venden como alternativa a las IA´s más consolidades, a quienes acusan de tener un sesgo “liberal”.

El caso de Arya (la IA de la red social Gab, competencia de Threads y X) y la conversación en torno a Grok (IA de X antes Twitter) sugieren algo más que una moda: estamos frente a la programación y venta de sesgos ideológico-político-electorales como propuesta de valor para las empresas tecnológicas.

Ese precedente, bien documentado por medios y agregadores tecnológicos en las últimas semanas, importa mucho a México porque adelanta cómo se moverá el mercado de la atención electoral en los próximos comicios.

Esto ya no se trata de una hipótesis abstracta o un caso aislado. La prestigiosa revista Wired mostró en 2024 que Gab lanzó decenas de “celebrity chatbots” y un bot por defecto (Arya) con instrucciones internas que niegan el Holocausto, rechazan vacunas y repiten conspiraciones electorales. Es decir, tienen un sesgo explícito desde su programación.

Facebook
Twitter
LinkedIn
Pinterest
Email

RELACIONADOS