La semana pasada, se publicó una nueva investigación que muestra que los modelos de lenguaje grande realmente pueden convertirse en puertas traseras maliciosas, cuales podrían causar un poco de caos para los usuarios.
La investigación fue publicada por Anthropic, la startup de IA detrás del popular chatbot claude, cuyos financiadores incluyen Amazon y Google.
En su artículo, los investigadores de Anthropic argumentan que los algoritmos de IA se pueden convertir en lo que son efectivamente “células durmientes”.
Esas células pueden aparecer son inofensivos, pero pueden programarse para participar en comportamientos maliciosos, como insertar código vulnerable en una base de código, si se activan de maneras específicas.
Por ejemplo, el estudio imagina un escenario en el que un LLM ha sido programado para comportarse normalmente durante el año 2023, pero cuando 2024 Cuando aparece, el “durmiente” malicioso se activa repentinamente y comienza a producir código malicioso.
Estos programas también podrían diseñarse para comportarse mal si están sujetos a ciertas indicaciones específicas, las la investigación sugiere.
Dado el hecho de que los programas de IA se han convertido inmensamente popular entre los desarrolladores de software Durante el último año, los resultados de este estudio parecerían bastante preocupantes.
Es fácil imaginar un escenario en el que un El programador podría elegir un algoritmo popular de código abierto para ayudarlo con sus tareas de desarrollo, solo para que se vuelva malicioso en algún punto y comenzar a hacer que su producto sea menos seguro y más pirateable.
Fuente: gizmodo.com