Alors qu’Anthropic subit les foudres de l’administration Trump pour avoir refusé l’usage militaire de ses modèles, OpenAI a immédiatement comblé le vide en signant un accord controversé avec le Pentagone. Ce revirement éthique a provoqué une réaction immédiate du public. Pour la première fois de son histoire, Claude a détrôné ChatGPT au sommet des téléchargements de l’App Store américain.
Le département de la Défense américain a en effet banni Anthropic de toutes les agences fédérales après le refus de Dario Amodei de céder à un ultimatum.
En réponse, Sam Altman a scellé un pacte avec Washington, acceptant les conditions mêmes que son concurrent jugeait éthiquement inacceptables.
Le refus d’Anthropic face aux pressions de la Défense
Tout a commencé par un ultimatum du département de la Défense. Le Pentagone exigeait d’Anthropic un accès total à ses modèles pour « toutes fins légales ».
Dario Amodei, le P.-D.G. de la start-up, a refusé de céder. Il s’oppose alors à l’usage de l’IA pour des combats autonomes ou la surveillance de masse.
En représailles, l’administration Trump a banni Claude de toutes les agences fédérales.
Cette décision représente en effet une perte commerciale majeure pour Anthropic. Mais la firme ne compte pas en rester là.
Or, l’entreprise prévoit déjà de porter l’affaire devant la justice. La situation a pris une tournure ironique dès le lendemain.
Et Sam Altman, patron d’OpenAI, a signé l’accord que son concurrent venait de rejeter. Il a accepté les conditions imposées par la Défense américaine.
Le sursaut éthique des utilisateurs sur l’App Store
La réaction du public a été immédiate et massive. Durant le week-end du 28 février, Claude a entamé une ascension fulgurante.
D’après les observations des médias, l’application a fini par ravir la première place à sa rivale. Les utilisateurs semblent privilégier la conception éthique d’Anthropic.
Les performances techniques jouent aussi un rôle clé. Claude permet de traiter des fichiers de 100 000 tokens, soit environ 75 000 mots, comme le précise la fiche technique de l’article.
Face à ce succès, Sam Altman a tenté de calmer le jeu sur X. Il a admis que son accord avec l’armée était « clairement précipité ».
Et selon ses propres mots, cette alliance affuble son entreprise d’une « mauvaise apparence ».
🇺🇸 Anthropic : quand l'armée américaine contourne ses propres interdits
— Les Echos (@LesEchos) March 3, 2026
🪖 Le département de la Défense américain a utilisé l'IA Claude d'Anthropic pour préparer une opération militaire contre l'Iran… quelques heures seulement après avoir interdit son usage. Explications. pic.twitter.com/9Ge4QDK3CU
Soupçons de surveillance et enjeux politiques
Le malaise des utilisateurs va au-delà de l’éthique militaire. Un mouvement de boycott contre ChatGPT prend de l’ampleur aux États-Unis. À en juger que Sam Altman est jugé trop complice avec le gouvernement actuel.
Le président d’OpenAI, Greg Brockman, a d’ailleurs versé 25 millions de dollars à une structure pro-Trump selon nos sources.
Le contenu du contrat avec l’administration Trump inquiète également. Le texte permettrait à la NSA de surveiller des citoyens américains via des serveurs étrangers. .
Pour beaucoup, le choix de Claude est devenu un acte de protection de la vie privée. La bataille pour la domination de l’IA se joue désormais sur le terrain de la confiance.
- Partager l'article :
