Menacé d’éviction totale au profit d’OpenAI, Dario Amodei reprend les négociations avec Trump malgré l’usage controversé de Claude dans des opérations militaires américaines.
L’ambiance a changé dans la Silicon Valley. Après avoir claqué la porte du Pentagone pour des raisons éthiques, le patron d’Anthropic, Dario Amodei, est de retour à la table des négociations avec l’administration de Donald Trump. Ce revirement survient alors que les agences fédérales cherchent déjà des remplaçants à l’IA Claude.
Le pragmatisme avant l’éthique ?
Le PDG de Anthropic a repris langue avec Washington par crainte d’être définitivement évincé des contrats militaires au profit de OpenAI. Selon BFMTV, Amodei aurait mis de côté ses critiques acerbes.
Il avait auparavant suggéré que Donald Trump attendait des formes de loyauté politique strictes. Selon lui, ces exigences étaient proches de celles observées dans des régimes autoritaires.
La pression est montée d’un cran le 4 mars. Selon Reuters, des géants de la défense comme Lockheed Martin ont commencé à retirer activement Claude de leurs systèmes. Cette purge technologique fait suite à un décret présidentiel ordonnant l’exclusion d’Anthropic de plusieurs programmes fédéraux sensibles.
Toujours d’après Reuters, plusieurs sous-traitants de la défense auraient reçu des instructions internes. Ces directives leur demanderaient d’identifier puis de remplacer progressivement les technologies liées à Anthropic dans leurs infrastructures.
Pour Anthropic, l’enjeu dépasse désormais la simple bataille commerciale : il s’agit de rester présent dans l’écosystème stratégique de l’IA militaire américaine.
Le risque de voir OpenAI s’emparer d’une grande partie des budgets militaires liés à l’intelligence artificielle a poussé la start-up à revoir sa position sur certaines restrictions concernant l’usage de ses modèles.
Claude au cœur de la planification militaire
C’est le point qui fait scandale aujourd’hui. Selon plusieurs révélations de presse, l’administration Trump aurait continué à s’appuyer sur Claude pour des tâches d’analyse stratégique liées aux opérations militaires américaines contre l’Iran début mars.
Cela se serait produit alors même que la Maison‑Blanche affirmait vouloir se passer de cette technologie jugée trop restrictive.
L’IA ne serait pas utilisée pour décider directement des frappes, mais pour assister les militaires dans l’analyse de données, la simulation de scénarios et la planification opérationnelle. Une fonction devenue difficile à remplacer à court terme pour le Pentagone.
Cette dépendance technologique s’explique aussi par le fait que Claude avait déjà été utilisé dans certaines opérations militaires américaines. Le modèle aurait notamment servi d’outil d’analyse stratégique au Venezuela.
Cet épisode aurait marqué un tournant dans les relations entre Washington et Anthropic, plusieurs responsables politiques estimant que les restrictions imposées par l’entreprise limitaient l’usage militaire de ses technologies.
Anthropic risque de perdre d'autres contrats, après avoir refusé de livrer son IA Claude au Pentagone.
— Jonathan Chan 💡📣 (@ChanPerco) March 3, 2026
Alors que Donald Trump a suspendu tout contrat avec Anthropic, qui refuse de livrer son IA sans contrôle au Pentagone, le secteur de l'intelligence artificielle est dans… pic.twitter.com/UljUwuJsNa
L’ultimatum de Washington
Cet épisode aurait déclenché une crise ouverte entre Washington et Anthropic. Après l’opération menée au Venezuela, le gouvernement des États-Unis avait posé un ultimatum à l’entreprise. Il lui demandait de lever certaines restrictions sur l’usage militaire de ses modèles, sous peine de risquer l’exclusion totale des contrats fédéraux.
Le gouvernement a classé Anthropic comme « risque pour la chaîne d’approvisionnement » après que l’entreprise a refusé d’autoriser certains usages jugés contraires à ses principes de sécurité.
Cette décision a entraîné une réaction en chaîne chez plusieurs sous-traitants militaires qui ont commencé à retirer Claude de leurs systèmes.
Cette dépendance technique crée une situation paradoxale. Washington veut se débarrasser d’un prestataire jugé peu fiable, mais ses militaires dépendent encore de ses algorithmes pour certaines analyses opérationnelles déjà en cours.
Un fossé d’intégration critique
Ce chaos illustre la difficulté d’intégrer l’IA dans des systèmes critiques. Si 90 % des leaders utilisent l’IA en 2026, seuls 16 % ont réussi à l’intégrer durablement dans leurs infrastructures lourdes. Ce gap de 74 % explique pourquoi le Pentagone peine à remplacer Claude du jour au lendemain.
OpenAI et xAI, la société fondée par Elon Musk, observent la scène avec attention. Ils se positionnent déjà pour récupérer les contrats et les infrastructures laissés vacants par Anthropic. Le patron d’OpenAI, Sam Altman, a déjà indiqué être prêt à répondre aux besoins liés à la sécurité nationale.
Le département de la Défense maintient toutefois sa classification d’Anthropic comme « risque pour la chaîne d’approvisionnement ». Les discussions actuelles visent à lever cette étiquette en échange de concessions majeures sur le contrôle des algorithmes par les militaires.
Bataille juridique et technique
Anthropic ne compte pas se laisser faire sur le plan légal. L’entreprise maintient sa plainte contre le gouvernement. Elle juge la qualification de « risque de sécurité » totalement infondée. Selon l’entreprise, cette technologie a été développée aux États-Unis, dans ses bureaux de San Francisco.
Les prochains 48 heures pourraient être décisives. Un accord confidentiel pourrait permettre de maintenir Claude sous des conditions strictes. Dans le cas contraire, le modèle sera progressivement remplacé par d’autres IA.
Dans les bureaux de San Francisco, l’ambiance est électrique. Les ingénieurs voient leur création utilisée dans des opérations militaires qu’ils avaient justement tenté d’encadrer. C’est le dilemme auquel est confrontée Anthropic : défendre ses principes ou risquer de disparaître du paysage technologique fédéral.
- Partager l'article :

