IA de startup expone a estafadores

Tiempo de lectura: < 1 minuto

Todo parecía ir bien cuando uno de los clientes de Eran Barak, una empresa de servicios financieros, contrató a un teletrabajador para la administración de Salesforce.

En la entrevista, el hombre parecía capaz de realizar lo que debería haber sido un trabajo rutinario y superó todas las verificaciones de antecedentes. Sin embargo, dos semanas después de empezar el trabajo, Barak afirma que su software de inteligencia artificial, llamado MIND, detectó al empleado enviando datos altamente sensibles de la empresa a su cuenta personal en la nube.

La persona que entró en la oficina resultó no ser la misma que había sido entrevistada, afirma Barak. «Era una persona completamente diferente que había ‘comprado’ el trabajo a un estafador profesional».

Con tantos riesgos nuevos para los datos de las empresas, desde contratar accidentalmente a un estafador o perder datos a manos de espías norcoreanos con un modus operandi similar, o empleados que revelan secretos de la empresa a chatbots de inteligencia artificial como ChatGPT, las empresas necesitan nueva tecnología de seguridad que las ayude a monitorear y señalar estos riesgos.

Barak, quien cofundó la startup cibernética MIND con sede en Seattle en 2023, dijo que la IA de su empresa puede prevenir costosas fugas de datos con un “piloto automático” que identifica de forma autónoma datos confidenciales y ayuda a los equipos de TI a protegerlos, afirmando que puede reducir las falsas alertas sobre fugas de datos “a casi cero”.

About Silvia Chavela

Ver también

Trump invertirá 92.000 millones de dólares en IA en Pensilvania

Tiempo de lectura: < 1 minutoEl presidente estadounidense, Donald Trump, acompañado del senador republicano por Pensilvania Dave McCormick, anunció una …