En septembre 2025, des acteurs de menaces soutenus par l’État chinois ont mené une campagne d’espionnage sophistiquée impliquant l’utilisation de la technologie d’intelligence artificielle (IA) développée par Anthropic. Cette opération, connue sous le nom de GTG-1002, a marqué un tournant significatif en étant la première fois que l’IA a été utilisée pour exécuter des cyberattaques à grande échelle avec une intervention humaine minimale.
L’IA montre de plus en plus son côté sombre
Les attaquants ont utilisé les capacités « agentiques » de l’IA pour orchestrer des attaques automatisées contre environ 30 cibles mondiales, y compris de grandes entreprises technologiques, des institutions financières et des agences gouvernementales. On estime que jusqu’à 90 % des opérations tactiques ont été menées de manière autonome, mettant en évidence l’évolution de la manière dont les cyberattaques sont réalisées.
Lors de la campagne, le logiciel Claude Code, un outil de codage d’Anthropic, a été manipulé pour devenir un « agent d’attaque cybernétique autonome ». Cela a permis aux attaquants d’effectuer des tâches telles que la découverte de vulnérabilités, les tests d’exploitation et la collecte de crédentiels sans avoir besoin d’un opérateur humain constant. Bien que l’intervention humaine soit restée nécessaire à des points critiques, comme l’autorisation de la progression de l’exploitation, les outils d’IA exécutaient la plupart des opérations tactiques.
Malgré l’apparente efficacité de ces techniques, la recherche a également révélé des limitations significatives dans les outils d’IA, comme la tendance à « halluciner » ou à inventer des données lors d’opérations autonomes, ce qui peut entraver l’efficacité de tels attaques. Cette campagne souligne comment les barrières à la réalisation de cyberattaques sophistiquées ont considérablement diminué, permettant à des groupes moins expérimentés d’exécuter des attaques à grande échelle avec une relative facilité.