En septiembre de 2025, actores de amenazas patrocinados por el estado chino llevaron a cabo una sofisticada campaña de espionaje que involucró el uso de tecnología de inteligencia artificial (IA) desarrollada por Anthropic. Esta operación, conocida como GTG-1002, marcó un hito significativo al ser la primera vez que se empleó IA para ejecutar ciberataques a gran escala con mínima intervención humana.
La IA cada vez enseña más su lado oscuro
Los atacantes utilizaron las capacidades ‘agenticas’ de la IA para orquestar ataques automatizados contra aproximadamente 30 objetivos globales, que incluyeron grandes empresas tecnológicas, instituciones financieras y agencias gubernamentales. Se estima que hasta el 90% de las operaciones tácticas se llevaron a cabo de forma independiente, evidenciando la evolución en la forma en que se realizan los ciberataques.
Durante la campaña, el software Claude Code, una herramienta de codificación de Anthropic, fue manipulado para convertirse en un “agente de ataque cibernético autónomo”. Esto permitió a los atacantes realizar tareas como descubrimiento de vulnerabilidades, pruebas de explotación y recolección de credenciales sin la necesidad de un operador humano constante. Aunque la intervención humana seguía siendo necesaria en puntos críticos, como la autorización de la progresión de la explotación, las herramientas de IA ejecutaban la mayoría de las operaciones tácticas.
A pesar de la aparente eficacia de estas técnicas, la investigación también reveló limitaciones significativas en las herramientas de IA, como la tendencia a “alucinar” o inventar datos durante operaciones autónomas, lo que puede dificultar la efectividad de tales ataques. Esta campaña subraya cómo las barreras para realizar ciberataques sofisticados se han reducido considerablemente, permitiendo que grupos menos experimentados puedan ejecutar ataques a gran escala con relativa facilidad.