En Estados Unidos, un reportaje reciente encendió focos rojos: proliferan chatbots “con ideología” que se venden como alternativa a las IA´s más consolidades, a quienes acusan de tener un sesgo “liberal”.
El caso de Arya (la IA de la red social Gab, competencia de Threads y X) y la conversación en torno a Grok (IA de X antes Twitter) sugieren algo más que una moda: estamos frente a la programación y venta de sesgos ideológico-político-electorales como propuesta de valor para las empresas tecnológicas.
Ese precedente, bien documentado por medios y agregadores tecnológicos en las últimas semanas, importa mucho a México porque adelanta cómo se moverá el mercado de la atención electoral en los próximos comicios.
Esto ya no se trata de una hipótesis abstracta o un caso aislado. La prestigiosa revista Wired mostró en 2024 que Gab lanzó decenas de “celebrity chatbots” y un bot por defecto (Arya) con instrucciones internas que niegan el Holocausto, rechazan vacunas y repiten conspiraciones electorales. Es decir, tienen un sesgo explícito desde su programación.
La inteligencia artificial comienza a posicionarse como una aliada para fortalecer la planeación financiera y…
El Gobierno de Indonesia ha anunciado el bloqueo provisional de la inteligencia artificial de la…
Telefónica Movistar México advirtió que el nuevo proceso de identificación obligatoria de líneas móviles implica…
Spotify emitió una declaración tras la decisión de Café Tacvba de solicitar el retiro de…
Inteligencia Artificial (IA) se ha convertido en parte del día a día de las personas,…
El director de Divinity, el nuevo título de Larian Studios recién anunciado, habló recientemente sobre…