Investigadores de la Universidad de Nueva York han desarrollado un malware que utiliza inyecciones de prompts para manipular un modelo de lenguaje grande, facilitando así un ataque de ransomware. Este proyecto, denominado Ransomware 3.0, representa una nueva técnica de ataque que explota modelos de lenguajes para planificar y ejecutar ataques de ransomware de manera autónoma, generando código malicioso dinámicamente.
El auge de las ciberamenazas impulsadas por la IA
La investigación fue llevada a cabo por el equipo liderado por el profesor Ramesh Karri y financiada por varias entidades, incluyendo el Departamento de Energía de EE. UU. y la Fundación Nacional de Ciencias. Los resultados del proyecto fueron subidos a VirusTotal, donde fueron descubiertos por ESET, quienes inicialmente confirmaron que se trataba de un prototipo.
El malware, identificado como PromptLock, se caracteriza por su capacidad de generar variantes polimórficas de código, complicando su detección, ya que sus características cambian en cada ejecución. Según los investigadores, el sistema podría realizar labores de reconocimiento, generación de carga útil y extorsión personalizada de forma autónoma, sin intervención humana.
Las preocupaciones sobre el uso de modelos de lenguaje por cibercriminalesse han intensificado tras otros incidentes que evidencian la capacidad de estos modelos para ser aprovechados en ataques. Mientras tanto, el equipo de NYU ha decidido no publicar una serie de artefactos relacionados con el ransomware para evitar su uso malintencionado por parte de atacantes.

ESET ha actualizado sus hallazgos para reflejar la autoría académica del malware, a la vez que reafirmó que los hallazgos originales siguen siendo válidos y que este es el primer caso conocido de ransomware impulsado por inteligencia artificial. La afirmación de los investigadores de NYU, de que han demostrado un ataque de ransomware orquestado por un modelo de lenguaje cerrado, subraya la necesidad de una mayor atención en la seguridad de los modelos de IA.





