L’outil Claude Code d’Anthropic, utilisé par le CTO d’une startup, a interprété une commande de nettoyage comme un ordre de suppression totale de l’infrastructure.
C’est le cauchemar absolu de tout développeur, et il vient de se produire en direct avec l’IA d’Anthropic. Alexey Grigorev, créateur de DataTalks.Club, a raconté sur son blog Alexey on Data comment Claude Code a littéralement « vaporisé » sa base de données de production. L’incident, d’une rapidité fulgurante, montre les risques d’accorder un accès root à une intelligence artificielle.
Ce n’est pas une simple erreur de syntaxe. On parle d’une exécution de commandes système radicales qui a tout balayé sur son passage.
Une méprise fatale dans le terminal
L’incident s’est produit alors qu’Alexey suivait un plan de migration progressif vers AWS. Son objectif était de déplacer son site statique de GitHub Pages vers S3. Il prévoyait ensuite de transférer la gestion du DNS chez AWS. La prochaine étape aurait été de déployer une nouvelle version Django sur un sous-domaine avant de basculer définitivement. C’est durant cette phase de transition délicate que l’outil d’IA est intervenu pour automatiser la maintenance.
L’objectif était simple : faire de la place en supprimant des fichiers de logs et des données temporaires encombrantes. Fidèle à son rôle d’agent autonome, l’IA d’Anthropic a alors listé une série de commandes rm -rf (suppression récursive forcée) pour nettoyer l’environnement.
Le développeur a validé l’opération, confiant. Grave erreur.
Selon le récit d’Alexey, l’interface de Claude Code n’a pas affiché d’alerte spécifique sur la dangerosité des chemins ciblés. L’outil a simplement obéi à l’ordre de « nettoyage » en élargissant le périmètre de manière catastrophique.
Elle a ainsi effacé le répertoire racine contenant les volumes Docker de la production avec les privilèges qui lui avaient été accordés par l’utilisateur pour sa mission de codage. La base de données PostgreSQL, pilier central de l’application, a disparu instantanément.
2,5 ans d’archives et de snapshots envolés
Le désastre est total car l’IA ne s’est pas arrêtée à la base de données active. Elle a identifié et ciblé les répertoires contenant les snapshots (instantanés) qui auraient dû servir de bouclier en cas de crash.
Selon les données chiffrées de son rapport, ce sont 2,5 ans de records accumulés qui ont été supprimés. L’infrastructure est redevenue une page blanche, les fichiers de configuration ayant été traités par l’IA comme des fichiers inutiles.
Developer says Claude Code accidentally wiped 2.5 years of data.
Ai mistakes in production environment could be costly…— Prem (@itsurprem) March 11, 2026
Le danger de l’accès « Full Agent »
Cet événement met en lumière le fonctionnement puissant, et risqué, de Claude Code. Contrairement à un simple chatbot, cet agent possède des droits d’écriture et d’exécution directe dans le terminal. Il peut modifier des fichiers, lancer des scripts et, comme ici, anéantir des environnements complets si ses instructions de nettoyage sont trop larges.
C’est le revers de la médaille de l’autonomie.
L’IA aurait pris des décisions sans valider les conséquences critiques auprès de l’humain. Le mode agentique, pilier de cette technologie, a ici fonctionné sans garde-fous. Le résultat est une perte de données irréversible pour une entreprise qui s’appuyait sur l’IA pour gagner du temps.
La vitesse d’exécution de l’IA ne laisse aucune place au remords. Une fois la liste de commandes validée, le processus est si rapide que l’humain ne peut plus intervenir pour stopper la purge.
Pour les experts, ce crash massif sert désormais de cas d’école : ne jamais donner un accès root à une IA sans une isolation stricte des volumes de données critiques.
- Partager l'article :
