En Estados Unidos, un reportaje reciente encendió focos rojos: proliferan chatbots “con ideología” que se venden como alternativa a las IA´s más consolidades, a quienes acusan de tener un sesgo “liberal”.
El caso de Arya (la IA de la red social Gab, competencia de Threads y X) y la conversación en torno a Grok (IA de X antes Twitter) sugieren algo más que una moda: estamos frente a la programación y venta de sesgos ideológico-político-electorales como propuesta de valor para las empresas tecnológicas.
Ese precedente, bien documentado por medios y agregadores tecnológicos en las últimas semanas, importa mucho a México porque adelanta cómo se moverá el mercado de la atención electoral en los próximos comicios.
Esto ya no se trata de una hipótesis abstracta o un caso aislado. La prestigiosa revista Wired mostró en 2024 que Gab lanzó decenas de “celebrity chatbots” y un bot por defecto (Arya) con instrucciones internas que niegan el Holocausto, rechazan vacunas y repiten conspiraciones electorales. Es decir, tienen un sesgo explícito desde su programación.
Meta (Facebook), el gigante de redes sociales, se está posicionando en lugar de privilegio en…
La inteligencia artificial ya sirve como una herramienta para realizar ciberataques. El Informe Internacional Sobre…
Vivir de la creatividad en México ha sido durante décadas una lógica de resistencia más…
El Gobierno estadounidense podría haber utilizado herramientas de Anthropic, una empresa de inteligencia artificial con…
El papa León XIV pidió a los sacerdotes que no utilicen herramientas de inteligencia artificial…
La inteligencia artificial que usamos a diario funciona como un gigantesco cerebro virtual. Aprende analizando…