OpenAI lance GPT-5.4-Cyber, une IA spécialisée dans la traque de vulnérabilités, réservée aux experts de la défense pour contrer l’offensive d’Anthropic.
OpenAI dévoile GPT-5.4-Cyber, une version de son modèle dernier cri spécifiquement entraînée pour identifier les failles informatiques. Cette offensive directe contre Anthropic vise à armer les professionnels de la défense avec des outils jusqu’ici jugés trop sensibles pour être diffusés.
GPT-5.4-Cyber, le nouveau garde du corps numérique d’OpenAI
Le duel des géants de l’IA bascule sur le terrain de la sécurité informatique. En effet, OpenAI a officialisé le lancement de GPT-5.4-Cyber, une version de son modèle phare spécifiquement modifiée pour la cybersécurité défensive. Cette annonce intervient seulement une semaine après le séisme provoqué par Anthropic et son modèle Claude Mythos.
L’objectif de Sam Altman est clair : ne pas laisser son rival préserver le monopole de la super-défense automatisée. Alors qu’Anthropic limite son outil à un cercle ultra-fermé de douze partenaires, OpenAI choisit une voie plus large. La start-up de San Francisco déploie cette variante cyber-permissive pour épauler les chercheurs face à des menaces de plus en plus sophistiquées.
La rétro-ingénierie est l’arme secrète du modèle
La grande nouveauté technique réside dans la capacité du modèle à effectuer de la rétro-ingénierie binaire (binary reverse engineering). Concrètement, GPT-5.4-Cyber peut analyser un logiciel déjà compilé pour y débusquer des malwares ou des failles critiques, sans jamais avoir besoin de consulter le code source original.
Cette version lève les verrous habituels de ChatGPT. Là où le modèle classique refuse d’analyser des séquences de code suspectes par sécurité, la variante Cyber abaisse le seuil de refus pour permettre des travaux de recherche légitimes. Selon OpenAI, l’IA peut identifier des milliers de vulnérabilités à haut risque dans les systèmes d’exploitation et les navigateurs web actuels.
Un accès Trusted mais très surveillé
Pas question pour autant de mettre un tel outil entre toutes les mains. OpenAI a mis en place le programme Trusted Access for Cyber (TAC) pour filtrer les utilisateurs. Ce dispositif fonctionne selon un système de paliers d’authentification :
- Vérification d’identité : les experts doivent prouver leur légitimité via le portail dédié.
- Accès progressif : seul le niveau le plus élevé donne accès à la version la plus puissante de GPT-5.4-Cyber.
- Cibles autorisées : le programme vise des milliers de défenseurs individuels et des centaines d’équipes protégeant des infrastructures critiques (hôpitaux, collectivités, PME spécialisées).
Cette stratégie s’oppose radicalement à celle d’Anthropic. Si Claude Mythos reste la chasse gardée de géants comme Amazon, Apple ou Microsoft, OpenAI affirme qu’il n’est pas approprié de décider de manière centralisée qui a le droit de se défendre.
We’re expanding Trusted Access for Cyber with additional tiers for authenticated cybersecurity defenders.
— OpenAI (@OpenAI) April 14, 2026
Customers in the highest tiers can request access to GPT-5.4-Cyber, a version of GPT-5.4 fine-tuned for cybersecurity use cases, enabling more advanced defensive workflows.…
Des chiffres qui témoignent d’une accélération brutale
La progression des capacités cyber des modèles est exponentielle. Selon les données partagées par OpenAI et les benchmarks récents :
- Performances CTF : en août 2025, GPT-5 atteignait 27 % sur les tests « Capture-The-Flag ». En novembre 2025, la version 5.1-Codex-Max grimpait déjà à 76 %.
- Correctifs en série : l’outil Codex Security, précurseur de cette annonce, a déjà permis de corriger plus de 3 000 vulnérabilités critiques sur plus de 1 000 projets open source.
- Investissement : Le programme TAC a été initialement lancé en février 2026 avec une enveloppe de 10 millions de dollars.
Un virage stratégique vers le monde pro
Ce lancement marque aussi un pivot pour OpenAI. Pour se concentrer sur les outils professionnels et le développement logiciel, la firme a mis fin à plusieurs projets annexes, dont son réseau social Sora. L’entreprise cherche à intégrer l’IA au cœur des flux de travail (workflows) de sécurité.
Les experts préviennent : l’avantage de cette IA défensive pourrait être de courte durée. Si les défenseurs s’arment aujourd’hui, les attaquants finiront inévitablement par disposer de capacités similaires. Pour les responsables de la sécurité (RSSI), le message est limpide : la fenêtre entre la découverte d’une faille et son exploitation par un pirate va bientôt se réduire à quelques minutes.
- Partager l'article :
