“La inteligencia artificial es tan inteligente que quedará a merced de malas personas”, dijo Steve Wozniak, cofundador de Apple.
Refleja una inquietud que no ha dejado de crecer entre científicos, programadores y tecnólogos. Y lo dijo no ayer ni hoy, sino en 2023, cuando ya vislumbraba el abismo al que nos acercamos con fascinación y temor.
La advertencia de Wozniak resuena con más fuerza hoy que nunca, en un contexto en el que incluso líderes de empresas punteras en IA admiten su desconcierto ante los modelos que ellos mismos han desarrollado.
Dario Amodei, CEO de Anthropic, la compañía detrás del modelo Claude, reconocía hace poco: “No tenemos ni idea de cómo funciona la Inteligencia Artificial”. Esta afirmación, lejos de ser tranquilizadora, siembra aún más dudas sobre un fenómeno que evoluciona con una rapidez vertiginosa y con un nivel de opacidad alarmante.
Tergiversando la realidad
Para Steve Wozniak, la amenaza más insidiosa de la inteligencia artificial no reside en su inteligencia per se, sino en la maleabilidad con la que puede ser dirigida hacia fines oscuros. En sus propias palabras, la IA “está abierta a los malos jugadores”, un eufemismo para referirse a estafadores, desinformadores y agentes maliciosos que ya no necesitan grandes infraestructuras ni habilidades técnicas sofisticadas para sembrar el caos.
La capacidad de estos sistemas para generar texto, voz e incluso imágenes indistinguibles de lo humano convierte el fraude digital en un fenómeno mucho más difícil de detectar, elevando el engaño a una escala industrial.
Ya no se trata de simples correos electrónicos con errores ortográficos; ahora hablamos de mensajes persuasivos, vídeos con rostros clonados o declaraciones falsas atribuidas a figuras públicas que circulan con la apariencia de autenticidad total.