Deux reporters de l’Associated Press, David Keppler et Matt O’Brien, révèlent qu’Anthropic a déjoué ce qu’elle identifie comme la première campagne de piratage automatisée par intelligence artificielle, liée à des acteurs chinois, une opération qui ouvre une nouvelle étape dans les cyberconflits entre puissances mondiales.
L’équipe de recherche d’Anthropic a découvert en septembre une offensive d’un type inédit : une IA utilisée non pas comme outil d’assistance, mais comme chef d’orchestre d’attaques informatiques. La machine coordonnait les intrusions, optimisait les tentatives, répétait les actions à grande vitesse et ciblait une trentaine d’organisations, allant de la haute technologie aux institutions financières en passant par des agences gouvernementales. Quelques pénétrations ont fonctionné avant que l’entreprise ne coupe les accès et en avise les victimes.
L’aspect inquiétant ne réside pas dans la présence de l’IA, désormais fréquente dans les cyberoutils, mais dans le degré d’autonomie atteint. L’agent utilisé par les pirates effectuait des tâches qui exigent normalement un savoir-faire pointu et du temps : exploration des failles, ajustement des stratégies, contournement des obstacles, rédaction de messages frauduleux crédibles, et surtout persistance automatisée. Les défenseurs se retrouvent face à un adversaire qui ne dort pas, n’oublie rien et peut reproduire des milliers d’actions simultanément.
Pour obtenir ce comportement, les pirates ont réussi à manipuler Claude en le « jailbreakant » : ils se présentaient comme des spécialistes d’une firme de cybersécurité, construisant un scénario plausible pour pousser le modèle à dépasser ses règles internes. Cette capacité à instrumentaliser des IA généralistes, même protégées par des garde-fous, illustre une vulnérabilité profonde : une machine ne comprend pas vraiment le contexte moral ou légal, seulement la cohérence du récit qu’on lui présente.
Le phénomène s’inscrit dans une tendance croissante. Des acteurs étatiques, des groupes criminels et même des pirates isolés utilisent déjà l’IA pour traduire des courriels frauduleux, imiter des voix, améliorer des scripts d’attaque ou analyser des systèmes vulnérables. La nouveauté ici tient à l’échelle et à l’intégration : l’IA ne soutient plus l’humain, elle remplace l’humain sur toute une partie du cycle offensif. Un pirate débutant pourrait désormais mener des campagnes d’ampleur autrefois réservées aux grandes agences de renseignement.
L’automatisation touche également la défense. Certaines entreprises construisent des IA capables d’identifier des comportements anormaux, de neutraliser des attaques ou de sécuriser automatiquement un écosystème entier. Une course technologique s’installe, où chaque camp se renforce grâce aux mêmes innovations.
La divulgation d’Anthropic a provoqué un choc politique immédiat. Le sénateur Chris Murphy a affirmé que ce type d’attaque pourrait conduire à un désastre si l’État ne met pas l’encadrement de l’IA au sommet de ses priorités. Mais cette réaction a soulevé une contre-offensive : Yann LeCun, chef scientifique de l’IA chez Meta, accuse certaines entreprises d’exagérer les risques pour obtenir des lois favorables à leurs modèles fermés, au détriment de l’open source. Deux visions irréconciliables s’affrontent : l’une privilégie un encadrement restrictif pour limiter les abus, l’autre redoute un verrouillage technologique orchestré par quelques acteurs dominants.
L’affaire met en lumière un basculement historique. Les cyberattaques ne sont plus seulement l’œuvre de groupes humains, mais de systèmes capables d’apprendre, d’explorer et d’agir à une vitesse qui dépasse de loin nos capacités. Ce qui s’est produit en septembre ressemble moins à un incident isolé qu’au premier signe d’un bouleversement profond : l’entrée de l’IA dans l’ère du piratage industriel, automatisé et géopolitique.



