Quatre jours après la sortie de Claude Opus 4.7, un détail n’a pas échappé aux experts : l’arrivée du « Cyber Verification Program ». Ce formulaire, loin d’être une simple formalité administrative, révèle la stratégie d’Anthropic pour museler les capacités offensives de son IA tout en gardant une porte ouverte pour les professionnels de la défense. À se demander si Opus 4.7 serait le nouveau standard de l’ingénierie appliquée ?
Anthropic a lancé Claude Opus 4.7 le 16 avril 2026 et l’entreprise a été on ne peut plus clair face à la question de sécurité.
Claude Opus 4.7 n’est donc pas un modèle dédié à la cybersécurité, mais un outil de raisonnement multidisciplinaire surpuissant.
Les améliorations sur trois axes majeurs en sont la preuve
Le modèle peut désormais bâtir des moteurs complexes (comme un moteur de synthèse vocale en Rust) en toute autonomie, en vérifiant lui-même ses sorties.
Sa capacité de traitement d’image a triplé, acceptant des résolutions jusqu’à 2 576 pixels. Il peut désormais lire du texte minuscule ou analyser des schémas d’architecture d’une densité extrême.
Un nouveau niveau d’effort permet aussi un contrôle chirurgical sur les tâches de longue durée pour éviter les oublis de contexte qui handicapent les versions précédentes.
Le « Cyber Verification Program » : la soupape des professionnels
La véritable surprise de ce lancement réside dans le Cyber Verification Program (CVP). Anthropic a conscience que ses nouveaux garde-fous, plus stricts que jamais, pourraient bloquer des usages légitimes.
Ce programme permet aux chercheurs en sécurité, aux pentesters et aux équipes de réponse à incident de demander un ajustement manuel des filtres.
Pour s’inscrire, les professionnels doivent fournir leur Organization ID et détailler leurs cas d’usage.
Anthropic examine alors la demande pour accorder, ou non, une dérogation aux blocages automatiques liés aux requêtes « à haut risque ».
C’est un aveu de la part de l’entreprise. L’IA est devenue si capable en matière de code qu’elle pourrait être une arme redoutable si elle n’était pas bridée par défaut.
🚨 Anthropic just did something no other AI lab has the guts to do.
— Poonam Soni (@CodeByPoonam) April 18, 2026
They deliberately made Claude Opus 4.7 dumber at cybersecurity before releasing it.
Read that again. A frontier lab intentionally suppressed a capability in their own model.
Here's what happened. Last week… pic.twitter.com/CeYh8FLpns
L’exclusion du Zero Data Retention (ZDR)
Un autre point technique soulève des questions chez les grands comptes en ce qui concerne Claude Opus 4.7. Et les organisations opérant sous un contrat Zero Data Retention (ZDR) sont pour l’instant exclues du CVP.
Comme le ZDR garantit qu’aucune donnée n’est conservée par Anthropic, l’entreprise ne peut pas assurer le monitoring nécessaire pour vérifier que les privilèges de cybersécurité ne sont pas détournés.
Pour ces clients ultra-sensibles, Anthropic impose un passage par un représentant commercial dédié, illustrant la difficulté de concilier confidentialité absolue et accès aux fonctions « dual-use » les plus puissantes.
Entre Opus 4.7 et le spectre de Mythos
Cette stratégie de « filtrage par formulaire » s’inscrit dans le cadre plus large du Project Glasswing.
Alors que le modèle Claude Mythos Preview (capable de découvrir des failles zero-day vieilles de 30 ans) reste jalousement gardé dans un cercle d’élites vérifiées, Opus 4.7 sert de compromis pour le grand public.
En durcissant les filtres de l’Opus 4.7 tout en créant le CVP, Anthropic tente de maintenir l’équilibre.
Il est alors question d’offrir une IA incroyablement intelligente pour la création, tout en s’assurant que la destruction numérique reste l’apanage de ceux qui ont montré patte blanche.
- Partager l'article :

