in

Le Pentagone autorise OpenAI à déployer des modèles pour des opérations classifiées de niveau 6 et 7

Sécurité modèle GPT-5.5 OpenAI

OpenAI vient de lancer GPT-5.5, un modèle Cyber si puissant qu’il commence à faire trembler les experts. Entre une capacité de rétro-ingénierie qui pulvérise les records humains et des tests gouvernementaux qui le placent au sommet, ce nouveau moteur rivalise frontalement avec le célèbre Claude Mythos. Mais attention, ces outils ne sont pas pour tout le monde.

Leur déploiement reste ultra-verrouillé, alors que les enjeux se déplacent désormais sur le terrain militaire et les opérations classifiées du Pentagone.

Des performances qui équivaut celles de l’élite des hackers humains

Les derniers tests de l’AI Security Institute (AISI) britannique sont sans appel. En plus d’être bon en informatique, GPT-5.5 est aussi efficace sur la résolution des tâches de cybersécurité.

YouTube video

Je ne suis pas vraiment fan ni un grand utilisateur de ChatGPT. Mais certains chiffres publiés dans le rapport d’AISI m’ont intrigué.

Pour une tâche de rétro-ingénierie complexe, le travail va prendre près de 12 heures pour un expert humain. Mais cela ne prend qu’environ 10 minutes à GPT-5.5, avec un coût d’exécution de seulement 1,73 $.

Que vaut GPT-5.5 face à Claude Mythos ?

Sur une batterie de tests avancés, OpenAI reprend de justesse la tête face à son rival de chez Anthropic.

Métrique / TestGPT-5.5 (OpenAI)Claude Mythos (Anthropic)
Taux de réussite moyen71,4 %68,6 %
Test « The Last Ones » (32 étapes)2 / 103 / 10
Autonomie des attaquesÉlevéeÉlevée

Si Mythos garde un léger avantage sur la simulation d’attaque de réseau la plus complexe (The Last Ones), GPT-5.5 s’impose globalement par sa polyvalence sur l’ensemble des tâches de sécurité testées par le gouvernement britannique.

Une diffusion sous haute surveillance

N’espérez pas installer GPT-5.5 Cyber sur votre ordinateur portable demain matin. Sam Altman a été clair sur le déploiement du modèle.

L’outil est trop sensible et trop puissant pour le grand public. OpenAI calque alors sa stratégie sur celle d’Anthropic.

Ce qui veut dire que seul un groupe d’institutions de confiance et de partenaires gouvernementaux peut utiliser GPT-5.5.

Et comme l’a souligné Sam Altman, le but officiel est de permettre à ces organismes de renforcer leurs propres infrastructures avant que des attaquants malveillants ne développent des outils similaires.

Aussi, OpenAI travaille main dans la main avec les régulateurs pour définir ce qu’est un accès sécurisé pour ce type de puissance de calcul.

Le Pentagone a choisi son camp

Comme la cybersécurité n’est plus seulement une affaire de serveurs mais un enjeu de défense nationale, le ministère américain de la Défense a récemment choisi son camp.

OpenAI fait désormais partie des sept entreprises autorisées à déployer leurs modèles pour des opérations classifiées de niveau 6 et 7, les échelons les plus sensibles du Pentagone.

À l’inverse, Anthropic reste sur la touche. En raison de son refus d’autoriser certains usages militaires de sa technologie (notamment sur le champ de bataille), l’entreprise est entrée en contentieux avec le gouvernement américain

Restez à la pointe de l'information avec INTELLIGENCE-ARTIFICIELLE.COM !