Les chatbots ne servent pas qu’à éviter de faire ses devoirs ou à faire du « vibe coding ». L’intelligence artificielle est de plus en plus utilisée dans le monde de la cybersécurité, par les spécialistes et par les criminels. Plus tôt dans le mois, Google avait alerté sur une nouvelle génération de malwares qui utilisent l’IA pour réécrire leur code afin de contourner les systèmes de sécurité. Et désormais, les hackers utilisent l’IA pour automatiser les attaques à grande échelle.
Anthropic, le développeur du chatbot Claude, vient de révéler la première campagne de cyberespionnage à grande échelle menée presque exclusivement par une IA. Des pirates ont détourné l’outil de codage Claude Code, afin d’attaquer une trentaine de cibles : de grandes entreprises technologiques, des institutions financières, des sociétés de fabrication de produits chimiques et des agences gouvernementales.
La première campagne massive de cyberespionnage autonome
Le groupe derrière l’attaque a été baptisé GTG-1002 par Anthropic, et serait parrainé par l’État chinois. Cette campagne de cyberespionnage a été menée grâce à de nouvelles fonctionnalités des derniers modèles, et notamment les capacités « agentiques » de Claude, autrement dit lorsqu’il fonctionne de manière autonome avec la possibilité d’effectuer des tâches complexes sur une durée prolongée. Le chatbot a aussi pu utiliser des outils externes, comme des outils de craquage de mots de passe et des scanners de réseau. Et l’attaque a réussi dans « un petit nombre de cas » !
Un groupe chinois a détourné Claude Code pour mener la première cyberattaque massive par IA. © Image générée par Gemini
Dans le cas présent, l’opérateur humain fournit la cible au chatbot. Pour contourner la sécurité de Claude, qui a été entraîné afin de ne pas répondre à ce type de requête, les hackers ont divisé l’attaque en de multiples tâches à l’apparence anodine, et informé l’IA qu’il s’agissait d’un exercice défensif. Le chatbot effectue ensuite une reconnaissance de la victime, pour repérer les bases de données les plus intéressantes. La prochaine étape consiste à rechercher des failles dans les systèmes de la cible, et écrit son propre code pour mener l’attaque. L’IA a pu ainsi obtenir des noms d’utilisateur et des mots de passe afin de voler des données privées. Claude a terminé en organisant les données dans des fichiers, et en fournissant une documentation complète sur l’attaque.
Une attaque bien plus rapide, mais pas encore parfaite
Anthropic estime que l’IA a pu effectuer 80 à 90 % des opérations, avec seulement quatre à six décisions critiques prises par l’opérateur humain. En plus d’automatiser l’attaque, le recours à Claude a permis d’effectuer des actions bien plus rapidement. Selon Anthropic, l’IA a pu réaliser des milliers de requêtes, souvent plusieurs par seconde, soit un rythme impossible pour un humain. Toutefois, les pirates ont aussi été confrontés à l’une des principales faiblesses des grands modèles de langage (LLM) : les hallucinations. Claude a inventé des identifiants, ou alors affirmait avoir obtenu des informations secrètes qui étaient en réalité disponibles publiquement.
Lire l’article
Il s’agit d’une nouvelle escalade de ce que la firme appelle le « vibe hacking ». Les avancées de l’IA ont permis de limiter les interactions nécessaires de la part d’opérateurs humains. Il est désormais beaucoup plus facile pour des groupes avec peu de ressources ou de connaissances de mener des campagnes de ce type à grande échelle. Anthropic souligne toutefois que l’inverse est également vrai, que l’IA aide aussi à améliorer la cybersécurité, et que Claude a même été utilisé pour analyser les grandes quantités de données générées par ces attaques.