Aplicaciones

3 usos de la inteligencia artificial para vulnerar la ciberseguridad

Tiempo de lectura: 2 minutos

Especialistas en ciberataques explican cómo la inteligencia artificial y el machine learning pueden evadir las defensas de ciberseguridad.

Envenenamiento de datos

Elham Tabassi, del National Institute of Standards and Technology, indica que el envenenamiento de datos permite manipular una base de datos para controlar la predicción de las acciones de un modelo entrenado, de manera que engaña al modelo para que responda de manera incorrecta, por ejemplo, que clasifique como correos electrónicos de contenido seguro a correos spam.

Hay dos tipos de envenenamiento de datos: los ataques a la disponibilidad de un algoritmo de ML y los ataques a su integridad.

La investigación arroja que un 3% de envenenamiento de datos conlleva una caída de 11% en la precisión. Con ataques en puertas traseras, un intruso puede añadir al algoritmo desconocido para el diseñador del modelo.

Después, el atacante usa la puerta trasera para lograr que el sistema de ML clasifique cierto elemento como benigno cuando en realidad puede transportar información dañina.

Bots manipuladores

Greg Foss, estratega senior de ciberseguridad de VMware Carbon Black, afirma que si los algoritmos de inteligencia artificial toman decisiones, pueden ser manipulados para tomar la decisión equivocada: “Si los atacantes entienden estos modelos, pueden vulnerarlos”.

Foss describe un ataque reciente a un sistema de trading de criptomonedas realizado por bots: «Los atacantes entraron y entendieron cómo los bots realizaban el trading y usaron a los bots para engañar al algoritmo”.

También destaca que estas acciones pueden aplicarse a otros ámbitos. El estratega de ciberseguridad añade que esta técnica no es nueva, sin embargo, ahora los algoritmos están encargados de decisiones más inteligentes, lo que incrementa el riesgo de que tomen malas decisiones.

Redes adversarias generativas

Las redes adversarias generativas (GAN por sus siglas en inglés) son sistemas de inteligencia artificial que se atacan entre sí, una simula el contenido original y la otra detecta sus errores. Al competir una contra la otra, en conjunto generan contenido lo suficientemente convincente para semejar contenido original.

Tim Bandos, jefe de información de seguridad en Digital Guardian, señala que los criminales usan las GAN para simular patrones de tráfico normales, para desviar la atención de los ataques, después encuentran y filtran información importante con rapidez.

Por otra parte, las GAN también se pueden usar para quebrar contraseñas, evadir detección de malware y engañar la detección de rostro.

Redaccion

Entradas recientes

Netflix incorpora la IA en sus producciones

El codirector ejecutivo de Netflix, Ted Sarandos, declaró que se empleó inteligencia artificial (IA) en…

2 semanas hace

WeTransfer utilizará archivos de usuarios para entrenar su IA

WeTransfer, la popular plataforma para enviar archivos de gran tamaño, anunció un cambio significativo en…

3 semanas hace

Trump invertirá 92.000 millones de dólares en IA en Pensilvania

El presidente estadounidense, Donald Trump, acompañado del senador republicano por Pensilvania Dave McCormick, anunció una…

3 semanas hace

IA de Elon Musk consigue contrato con el Pentágono

La compañía de inteligencia artificial de Elon Musk, xAI, firmó un contrato con el Departamento…

3 semanas hace

Videojuegos generan signos de ansiedad

Menores de edad, quienes practican videojuegos 10 horas o más, presentan signos de ansiedad y…

3 semanas hace

Así funciona la IA de la UNAM para buscar niños desaparecidos

La Universidad Nacional Autónoma de México (UNAM) ha desarrollado un proyecto pionero que utiliza inteligencia…

3 semanas hace