Le protocole MCP (Model Context Protocol) d’Anthropic s’est imposé comme le standard pour connecter Claude, ChatGPT et Gemini à nos données, certes. Mais les chercheurs en sécurité de la société Ox viennent de révéler une faille systémique terrifiante. Il ne s’agit pas d’un bug ordinaire. C’est plutôt un choix architectural ancré dans les kits de développement officiels qui permettrait une prise de contrôle totale de centaines de milliers de serveurs.
Face à l’alerte, Anthropic reste de marbre, affirmant que le protocole fonctionne comme prévu.
Le choix architectural d’Anthropic expose 200 000 instances
La découverte de la société Ox porte davantage sur la structure même du protocole MCP d’Anthropic.
Ce pont technique, indispensable pour que les IA puissent interagir avec des sources de données externes ou des services tiers, a été conçu avec une vulnérabilité héritée directement par tous les développeurs utilisant les SDK officiels d’Anthropic (en Python, TypeScript, Java et Rust).
Mais les chiffres qu’ont avancés les chercheurs donnent le vertige. 7 000 serveurs publics sont immédiatement identifiables comme vulnérables. Et jusqu’à 200 000 instances sont potentiellement exposées dans le monde.
Des outils piliers de l’industrie comme LangChain et LiteLLM sont également directement touchés.
L’équipe d’Ox a d’ailleurs prouvé la dangerosité de la faille en prenant le contrôle de six plateformes en production lors de leurs tests.
🚨😅 Anthropic nous avait promis l’IA "la plus sécurisée du monde"… et elle s’est jailbreakée toute seule en 20 minutes !!
— Kruptos (@KuptoKosmos) April 19, 2026
Claude Opus 4.7, le modèle "aligné", "safe" et "responsable" que Anthropic nous vend à prix d’or avec des garde-fous en béton… vient de se faire self-pwn… https://t.co/Pfq0hFcqkH pic.twitter.com/ByD2ga20Wl
Mais est-ce vraiment un bug ou fonctionnalité ?
C’est ici que le bât blesse et que le ton monte entre la communauté cyber et les laboratoires d’IA.
Après avoir été alertée par Ox, Anthropic a répondu que le comportement du protocole MCP était conforme à ses attentes.
Si certains bugs mineurs ont été corrigés au cas par cas, le cœur de l’architecture, que les chercheurs jugent dangereuse, reste inchangé.
Cette posture de Working as Intended (fonctionne comme prévu) passe mal auprès des experts.
Pour Ox, sans une révision profonde de la racine du protocole, les entreprises qui connectent leurs systèmes aux grandes IA avancent les yeux fermés sur un champ de mines.
La surface d’attaque est désormais mondiale, et le périmètre de confiance entre l’IA et les données de l’entreprise semble plus poreux que jamais.
- Partager l'article :
