La Silicon Valley vient de vivre l'une de ses semaines les plus tumultueuses. Le 27 février 2026, le président Donald Trump a ordonné à l'ensemble des agences fédérales américaines de cesser immédiatement toute utilisation de la technologie d'Anthropic. Quelques heures plus tard, OpenAI annonçait la signature d'un accord avec le département de la Défense (DoD) pour déployer ses modèles sur les réseaux classifiés du Pentagone. Cette séquence, aussi rapide que brutale, a mis en lumière une fracture profonde au sein de l'industrie de l'intelligence artificielle : jusqu'où les entreprises technologiques doivent-elles aller pour servir les intérêts militaires de leur pays ?
Le bras de fer entre Anthropic et le Pentagone
Le conflit couvait depuis plusieurs mois. Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI, avait signé un contrat pouvant atteindre 200 millions de dollars avec le Pentagone pour fournir des services d'IA en partenariat avec Palantir sur des réseaux classifiés. Deux clauses de sauvegarde figuraient dans l'accord : l'interdiction d'utiliser Claude pour la surveillance de masse des citoyens américains et l'obligation de maintenir un contrôle humain sur tout système d'arme.
Le 24 février, le secrétaire à la Défense Pete Hegseth a rencontré le PDG d'Anthropic, Dario Amodei, et lui a adressé un ultimatum : retirer ces restrictions avant le vendredi 27 février, 17 h 01. Pour appuyer sa demande, Hegseth a brandi la menace du Defense Production Act, une loi de 1950 habituellement réservée aux situations de mobilisation industrielle en temps de guerre. « Les combattants américains ne seront jamais pris en otage par les caprices idéologiques de la Big Tech », a déclaré Hegseth dans un communiqué officiel.
Amodei a refusé. « Je crois profondément en l'importance existentielle d'utiliser l'IA pour défendre les États-Unis et les autres démocraties, mais utiliser ces systèmes pour la surveillance de masse intérieure est incompatible avec les valeurs démocratiques », a expliqué le dirigeant d'Anthropic. Son entreprise a également souligné que les modèles d'IA actuels ne sont pas suffisamment fiables pour piloter des systèmes d'armes entièrement autonomes.
La riposte de Washington
La réponse de la Maison Blanche a été immédiate et sans nuance. « Je demande à CHAQUE agence fédérale du gouvernement des États-Unis de CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic. Nous n'en avons pas besoin, nous n'en voulons pas, et nous ne ferons plus jamais affaire avec eux ! », a publié le président Trump sur Truth Social.
Au-delà de cette interdiction, le Pentagone a désigné Anthropic comme « risque pour la chaîne d'approvisionnement en matière de sécurité nationale », un statut normalement réservé aux adversaires étrangers comme Huawei ou Kaspersky. Cette classification interdit à tout contractant, fournisseur ou partenaire travaillant avec l'armée américaine de mener des activités commerciales avec Anthropic. Les agences fédérales disposent d'un délai de six mois pour supprimer progressivement les systèmes d'Anthropic déjà intégrés.
Emil Michael, sous-secrétaire à la Défense pour la recherche et l'ingénierie, a qualifié Amodei de « menteur avec un complexe divin » qui « ne souhaite rien d'autre que de contrôler personnellement l'armée américaine ». Cette escalade verbale, inhabituelle entre un responsable gouvernemental et le dirigeant d'une entreprise technologique américaine, a choqué une partie de l'écosystème technologique.
OpenAI comble le vide en quelques heures
Sam Altman, PDG d'OpenAI, a annoncé le même jour un accord avec le département de la Défense pour déployer les modèles de son entreprise dans des environnements classifiés. L'accord couvre la logistique, l'analyse de renseignements, la cybersécurité et la planification opérationnelle.
Le paradoxe : OpenAI a obtenu exactement les mêmes garanties qu'Anthropic exigeait. Les deux lignes rouges sont identiques : pas de surveillance de masse des citoyens américains, et maintien de la responsabilité humaine dans l'usage de la force. « La sécurité de l'IA et la large distribution de ses bénéfices sont au cœur de notre mission. Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse intérieure et la responsabilité humaine dans l'usage de la force, y compris pour les systèmes d'armes autonomes », a écrit Altman.
Altman a néanmoins reconnu la précipitation de l'accord : « C'était définitivement précipité, et les apparences ne sont pas bonnes. » Il a ajouté : « Si nous avons raison et que cela mène à une désescalade, nous passerons pour des génies. »
Katrina Mulligan, responsable de la sécurité nationale chez OpenAI, a précisé les mécanismes techniques : « Nous avons accepté la formulation \"tous les usages légaux\", mais nous avons exigé qu'ils définissent les lois qui les contraignent. » OpenAI conserve le contrôle total de son infrastructure de sécurité, déploie ses modèles via le cloud, et dispose de personnel habilité intégré au processus.
Des protections contractuelles jugées fragiles
Plusieurs experts ont néanmoins soulevé une faille critique dans l'accord d'OpenAI. Charles Bullock, de l'Institute for Law & AI, a noté que « le département de la Défense peut, bien entendu, modifier ses propres politiques quand il le souhaite ». En d'autres termes, les restrictions acceptées par le Pentagone reposent sur des politiques internes, pas sur des lois immuables. Mulligan elle-même a admis : « Nous ne pouvons pas empêcher une agence gouvernementale d'acheter des jeux de données disponibles commercialement » pour la surveillance.
L'effet boomerang : Claude conquiert le grand public
L'interdiction gouvernementale a produit un effet exactement inverse sur le marché grand public. Claude, le chatbot d'Anthropic, a bondi à la première place de l'App Store américain, dépassant ChatGPT pour la première fois. Les inscriptions quotidiennes ont triplé depuis novembre, la base d'utilisateurs gratuits a progressé de plus de 60 % depuis janvier, et les abonnements payants ont plus que doublé en 2026, selon les données communiquées par Anthropic.
La demande a été telle que Claude a connu des pannes de service, Anthropic signalant des « erreurs élevées » liées à l'afflux massif de nouveaux utilisateurs. Sur les réseaux sociaux, une vague de soutien s'est formée, certains utilisateurs appelant à annuler leurs abonnements ChatGPT pour migrer vers Claude.
La valorisation d'Anthropic, qui a atteint 380 milliards de dollars après une levée de fonds de 30 milliards de dollars en février 2026 (souscrite six fois), n'a pas fléchi. Nvidia a investi 10 milliards et Microsoft 5 milliards dans ce tour de table. L'entreprise, qui génère 14 milliards de dollars de revenus annuels, prépare une introduction en Bourse prévue entre fin 2026 et 2027.
La Silicon Valley se fracture
Onze employés d'OpenAI, dont le chercheur en alignement et sécurité Boaz Barak, ont signé une lettre ouverte défendant la position d'Anthropic : « Sanctionner une entreprise américaine pour avoir refusé d'accepter des modifications à un contrat envoie un message clair à toutes les entreprises technologiques en Amérique : acceptez toutes les conditions imposées par le gouvernement, ou subissez des représailles. »
Dean Ball, ancien conseiller politique de l'administration Trump pour l'IA, a qualifié la situation de « tentative de meurtre d'entreprise ». Il a ajouté : « Je ne pourrais recommander à aucun investisseur d'investir dans l'IA américaine ; je ne pourrais recommander à personne de créer une entreprise d'IA aux États-Unis. »
Le sénateur Mark Warner, chef de file démocrate au Comité du renseignement, a déclaré que « la directive du président de stopper l'utilisation d'une entreprise d'IA américaine de premier plan dans l'ensemble du gouvernement fédéral, combinée à une rhétorique incendiaire attaquant cette entreprise, soulève de sérieuses interrogations quant à savoir si les décisions de sécurité nationale sont guidées par une analyse rigoureuse ou par des considérations politiques ».
L'Europe trace sa propre voie
Ce conflit met en perspective les approches divergentes entre les États-Unis et l'Europe en matière d'IA militaire. Le règlement européen sur l'intelligence artificielle (AI Act) exclut explicitement les usages militaires de son champ d'application, laissant chaque État membre libre de définir ses propres règles.
La France a fait le choix d'une souveraineté technologique. Mistral AI a signé un contrat avec le ministère des Armées français, avec une caractéristique clé : le déploiement s'effectue entièrement sur les infrastructures nationales françaises, sans recours aux clouds commerciaux étrangers. La France a également créé l'AMIAD (Agence ministérielle de l'intelligence artificielle de Défense) pour coordonner et accélérer l'usage de l'IA dans les forces armées, tout en l'alignant sur des exigences éthiques.
Le Parlement européen, pour sa part, reconnaît l'importance stratégique de l'IA dans la défense tout en appelant à une réglementation et à l'interdiction des systèmes d'armes létales autonomes (SALA). Le secrétaire général des Nations unies, António Guterres, milite pour l'adoption d'un traité juridiquement contraignant sur les SALA d'ici 2026.
Les enjeux pour les investisseurs et les épargnants
Cette crise soulève plusieurs questions directes pour les marchés financiers. L'introduction en Bourse d'Anthropic, attendue à une valorisation de 380 milliards de dollars, s'effectuera sous le poids de cette incertitude réglementaire. Le précédent créé par la désignation « risque pour la chaîne d'approvisionnement » pourrait affecter la perception du risque politique pour l'ensemble du secteur de l'IA.
Pour les investisseurs exposés aux grandes valeurs technologiques, la séquence révèle un nouveau facteur de risque : la capacité d'un gouvernement à exclure brutalement une entreprise de 380 milliards de dollars des marchés publics pour avoir défendu des principes éthiques. Cette dynamique pourrait peser sur les valorisations des entreprises d'IA qui maintiennent des garde-fous face aux demandes gouvernementales.
Le marché de l'IA de défense, estimé à plusieurs dizaines de milliards de dollars, devient un terrain de compétition où les considérations éthiques se heurtent aux impératifs stratégiques. Google, xAI (la société d'Elon Musk) et OpenAI disposent tous de contrats avec le département de la Défense autorisant des usages « légaux » de leurs technologies. La question centrale reste de savoir si les protections contractuelles suffisent face à un gouvernement déterminé à obtenir un accès sans restriction.
Ce qu'il faut surveiller
Plusieurs développements méritent une attention particulière dans les semaines à venir. Anthropic a annoncé contester devant les tribunaux la désignation « risque pour la chaîne d'approvisionnement », arguant que le secrétaire à la Défense n'a pas l'autorité statutaire pour empêcher les contractants d'utiliser ses produits en dehors du cadre militaire. L'issue de cette procédure juridique pourrait redéfinir les rapports de force entre le gouvernement et le secteur technologique.
La réaction du marché à l'introduction en Bourse d'Anthropic constituera un test décisif : les investisseurs valoriseront-ils la posture éthique de l'entreprise comme un atout de marque, ou la considéreront-ils comme un risque réglementaire majeur ? Les premiers signaux sont contradictoires : la base d'utilisateurs explose, mais l'exclusion des marchés publics représente un manque à gagner significatif.
Sur le plan géopolitique, le précédent américain pourrait accélérer la course à la souveraineté numérique en Europe et en Asie, chaque bloc cherchant à développer ses propres capacités d'IA militaire sans dépendre d'entreprises soumises à des pressions politiques étrangères.