Le conflit entre Anthropic et le Pentagone autour de l’usage militaire de son grand modèle de langage (LLM) constitue un moment charnière pour la gouvernance de l’intelligence artificielle en matière de défense. Au‑delà d’un simple différend contractuel, il révèle la manière dont un État peut tenter d’imposer à ses prestataires privés un alignement total sur ses priorités sécuritaires, y compris lorsqu’ils revendiquent des garde‑fous éthiques forts face à la surveillance de masse et aux armes autonomes. L’exclusion d’Anthropic suite à sa désignation comme « risque pour la chaîne d’approvisionnement », la bascule rapide vers un contrat avec OpenAI, et l’intervention inattendue de Microsoft en soutien à Anthropic illustrent la coercition politique que le gouvernement Trump est en train de mettre en place sur les géants du numérique. Lors d’un entretien avec CBS News, le PDG d’Anthropic Dario Amodei a présenté le différend de sa société avec l’administration Trump comme un combat pour la démocratie : « Désobéir au gouvernement est la chose la plus américaine qui soit […]. Nous sommes des patriotes. Dans tout ce que nous avons fait, nous avons défendu les valeurs de ce pays. »
De partenaire privilégié à fournisseur à risque : l’escalade du conflit Anthropic-Pentagone
Depuis 2024, Anthropic s’est imposé comme l’un des principaux fournisseurs d’intelligence artificielle du gouvernement américain, grâce au déploiement de son modèle Claude sur des réseaux classifiés, notamment via un partenariat avec Palantir et un contrat d’environ 200 millions de dollars avec le Département de la Défense. L’entreprise a bâti son identité sur une promesse de sécurité, articulée autour de principes fondateurs et d’engagements publics visant à limiter certains usages jugés trop risqués, notamment la surveillance de masse domestique et les systèmes d’armes autonomes capables de tuer sans intervention humaine significative.
C’est précisément cette posture qui a mené au bras de fer avec le Pentagone. Dès 2025, ce dernier intensifie ses partenariats avec des fournisseurs d’intelligence artificielle tels que Microsoft, OpenAI, Meta, ou Anthropic pour intégrer leurs modèles dans des missions militaires. Anthropic accepte de collaborer avec les unités déjà équipées d’outils d’intelligence artificielle, mais pose des limites contractuelles sur l’usage de ses modèles, en interdisant leur utilisation par des armes entièrement autonomes, ou pour la surveillance de masse des citoyens américains.
En janvier 2026, le secrétaire à la Défense Pete Hegseth publie une stratégie d’intelligence artificielle pour le Département de la guerre qui impose, dans tous les contrats avec les fournisseurs, une clause type « any lawful use » : le système doit pouvoir être utilisé pour toutes fins légales, sans restriction supplémentaire imposée par le fournisseur. Le ministère de la Défense a en effet demandé à ses fournisseurs de supprimer par défaut les restrictions d’usage de leurs modèles, afin d’élargir les cas d’usage possibles. Le Pentagone veut que les garde‑fous soient définis uniquement par le droit international, le droit américain et la politique de sécurité nationale, et non par des clauses éthiques privées qui pourraient limiter des opérations qu’il juge légitimes.
À la fin du mois de février 2026, Pete Hegseth déclare envisager l’utilisation contre Anthropic d’une loi de 1950, le Defense Production Act, qui permet de forcer une entreprise privée à produire des biens ou services pour la sécurité du pays, même contre sa volonté contractuelle. Le 27 février 2026, plusieurs médias rapportent qu’Anthropic refuse de lever ses lignes rouges contractuelles sur les armes entièrement autonomes et la surveillance de masse des citoyens américains. Le PDG d’Anthropic explique que l’entreprise accepte tous les cas d’usage compatibles avec le droit, sauf ces deux exceptions. Le Pentagone accuse alors Anthropic de vouloir s’immiscer dans la chaîne de commandement en limitant, par ses clauses contractuelles, des usages que le ministère considère comme légaux et militairement nécessaires. Donald Trump accuse dans un message publié sur Truth Social « les extrémistes de gauche d’Anthropic » d’avoir commis une « erreur désastreuse » en tentant de « faire pression sur le Département de la Défense pour qu’il se soumette à leurs conditions d’utilisation plutôt qu’à la Constitution américaine ». Il affirme que « leur égoïsme met en danger des vies américaines, la sécurité des troupes et la sécurité nationale ».
À la suite du refus de signer d’Anthropic, Donald Trump ordonne à « toutes les agences fédérales des États-Unis de cesser immédiatement d’utiliser la technologie d’Anthropic », tout en accordant au Pentagone un délai de six mois pour retirer Claude des systèmes militaires existants. « Nous n’en avons pas besoin, nous n’en voulons pas et nous ne ferons plus affaire avec eux », a-t-il ajouté. Le secrétaire à la Défense Pete Hegseth accuse quant à lui Anthropic « d’arrogance et de trahison » et, avec le président Donald Trump, déclenche une offensive politique et administrative visant à faire de l’entreprise un exemple pour l’ensemble du secteur.
Le 27 février 2026, le Pentagone annonce que l’entreprise est considérée comme un risque pour la chaîne d’approvisionnement et inscrite sur une liste interne de sociétés jugées problématiques pour la sécurité de la chaîne logistique de défense. Le mécanisme impose à tous les sous‑traitants, fournisseurs et partenaires de l’armée américaine de certifier qu’ils n’utilisent pas les modèles ou services d’Anthropic dans le cadre de leurs contrats de défense. Ce blacklisting est présenté comme une mesure pour protéger la flexibilité opérationnelle : l’armée ne veut pas dépendre d’un fournisseur qui pourrait, à l’avenir, limiter certains usages militaires jugés légaux.
Punir une entreprise pour ses choix : le recours controversé à la section 3252
Le cœur du différend repose sur l’usage par le Pentagone d’un mécanisme juridique rarement mobilisé, la section 3252 de la loi 10 U.S. Code visant à protéger les systèmes d’information militaires contre les risques de sabotage ou d’infiltration par des « adversaires » étrangers. Cette loi autorise le secrétaire à la Défense à écarter des entreprises de certains contrats afin de se protéger contre le risque qu’un « adversaire » puisse « saboter, introduire malicieusement une fonction indésirable » ou « subvertir » un système d’information militaire pour « surveiller, refuser, perturber ou dégrader » son fonctionnement. Conformément à la section 3252, le Pentagone ne peut exclure des entreprises qu’en dernier recours, et les autres contractants de la Défense ne sont pas obligés de cesser totalement de travailler avec elles.
Dans le cas d’Anthropic, cette désignation a été utilisée pour la toute première fois contre une société américaine sans lien avec une puissance étrangère, alors même que, selon la plainte de celle-ci, le secrétaire à la Défense avait récemment qualifié Claude de technologie « exquise » avec laquelle le département « adorerait » travailler. Des experts en droit de la sécurité nationale soulignent que rien dans les politiques d’usage de Claude ne correspond à la notion de sabotage ou de subversion étrangère que la loi cherche à encadrer. Ils estiment que le Pentagone pourrait avoir « dépassé les bornes » en détournant ce mécanisme pour punir une entreprise pour ses choix plutôt que pour un risque réel de subversion.
Surveillance de masse et armes autonomes : le clivage entre le contrôle humain et le concept d’« any lawful use »
Au cœur de ce conflit se trouvent deux axes majeurs : la surveillance de masse de la population et le contrôle des robots par l’intelligence artificielle, notamment des drones dans des zones de guerre. Anthropic a explicitement posé comme condition contractuelle que ses modèles ne soient pas utilisés pour des opérations de surveillance domestique généralisée visant les citoyens et résidents américains, considérant que l’intelligence artificielle ne devrait pas devenir le pivot central d’une surveillance numérique nationale omniprésente. Elle a également refusé que son modèle Claude soit intégré à des systèmes d’armes entièrement autonomes, c’est‑à‑dire capables de sélectionner et de tirer des missiles létaux sans intervention humaine significative dans la boucle décisionnelle, car l’intelligence artificielle ne serait pas assez fiable pour garantir la sécurité de la procédure.
Le Pentagone défend une doctrine différente : l’armée doit pouvoir utiliser la technologie « à toutes fins légales », sans qu’un fournisseur privé ne s’immisce dans la chaîne de commandement en restreignant l’usage d’armes autonomes ou de la surveillance de masse par l’intelligence artificielle. Pour le Département de la Défense, les garde‑fous doivent être définis par le droit et la politique de sécurité nationale, et non par une entreprise qui pourrait, par ses clauses contractuelles, mettre des combattants en danger en limitant certaines pratiques opérationnelles. Ce clivage oppose la volonté d’Anthropic d’assurer le contrôle humain sur les systèmes d’armes à une approche plus sommaire dans laquelle la conformité au droit existant suffit à légitimer le recours à l’intelligence artificielle, même pour des fonctions à très haut risque comme le ciblage létal ou la surveillance de masse de la population.
L’intelligence artificielle comme outil de puissance : les opérations américaines à l’étranger et la montée des tensions
L’enjeu ne se limite pas au territoire américain. Les outils d’Anthropic ont été utilisés dans des opérations militaires extérieures, notamment contre l’Iran, et les débats publics se sont aussi focalisés sur le rôle des modèles d’intelligence artificielle dans les opérations visant le Venezuela. La possibilité que Claude ait contribué, par l’analyse de données, du renseignement ou de la planification opérationnelle, à des opérations contre le régime de Nicolás Maduro alimente un débat sur l’automatisation de la puissance militaire et de renseignement des États‑Unis.
Dans ce contexte, la frontière entre surveillance de masse et renseignement ciblé devient floue, surtout lorsqu’il s’agit de traiter des volumes massifs de données à l’échelle d’une population entière. La participation de la part des modèles commerciaux à des opérations militaires controversées pose des questions de souveraineté, de responsabilité et de conformité au droit international humanitaire : à qui imputer un éventuel abus, une bavure ou une atteinte disproportionnée aux civils lorsque la chaîne de décision inclut à la fois des plateformes privées d’intelligence artificielle et des commandements militaires ?
Du vide laissé par Anthropic à la montée d’OpenAI dans l’appareil militaire américain
La mise à l’écart d’Anthropic a immédiatement créé un vide qu’OpenAI s’est empressé de combler. Quelques heures après l’annonce de la désignation de risque pour la chaîne d’approvisionnement, Sam Altman a révélé qu’OpenAI avait conclu un accord pour fournir ses systèmes d’intelligence artificielle aux réseaux classifiés du Pentagone. Dans une note interne, il a affirmé que l’entreprise maintenait des limites similaires à celles d’Anthropic : l’interdiction d’utiliser l’intelligence artificielle pour la surveillance de masse domestique ou dans des armes létales autonomes, et l’obligation d’une intervention humaine pour les décisions automatisées à forts enjeux. Le contrat comporterait, selon OpenAI, « plus de garde-fous que tout accord précédent pour le déploiement d’intelligence artificielle en milieu classifié ». Mais pourquoi le Pentagone aurait-il conclu avec OpenAI un contrat comprenant les mêmes limites que celui noué avec Anthropic, si les garde-fous imposés par ce dernier ne lui convenaient pas ?
La façon dont ces garde‑fous sont intégrés au contrat reste sujette à interrogation. En effet, l’accord renvoie[1] largement aux cadres existants du Département de la Défense, qui autorisent déjà des programmes de surveillance étendue et des systèmes d’armes à autonomie croissante, dès lors qu’ils sont considérés conformes au droit. Alors qu’Anthropic cherchait à interdire matériellement certains usages, y compris s’ils étaient légaux, OpenAI semble davantage aligner ses lignes rouges sur la notion de « lawful use » décidée par l’État. Ce décalage nourrit des accusations d’« ethics‑washing » : le communiqué publié sur leur site officiel met d’ailleurs en avant la sécurité et la présence de lignes rouges, afin de légitimer la collaboration, sans remettre substantiellement en cause le principe de militarisation de l’intelligence artificielle.
La réaction en chaîne du secteur : retrait de Claude et recomposition de l’écosystème de défense
La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement a déclenché une réaction en chaîne parmi les sous‑traitants de la Défense. Plusieurs entreprises technologiques impliquées dans de gros contrats avec le Pentagone ont demandé à leurs équipes de cesser d’utiliser Claude et de migrer vers d’autres modèles, y compris des services concurrents, comme ceux d’OpenAI. Des acteurs majeurs, comme Lockheed Martin, seraient en train de retirer la technologie d’Anthropic de leurs chaînes d’approvisionnement, ce qui pourrait créer une perte colossale pour Anthropic, et des perturbations opérationnelles à court terme, en particulier car Claude était pionnier dans la mise en place opérationnelle de modèles d’intelligence artificielle pour des environnements sensibles.
Cette recomposition ne concerne pas uniquement l’intelligence artificielle générative, car c’est Anthropic dans son ensemble qui est désigné comme « risque pour la chaîne d’approvisionnement », pas seulement son modèle Claude. Tous les sous‑traitants, fournisseurs ou partenaires qui travaillent avec l’armée américaine doivent certifier qu’ils n’utilisent pas les modèles ou technologies d’Anthropic dans le cadre de ces contrats. Cette situation illustre le pouvoir de sanction politique et économique que l’exécutif peut exercer sur ces acteurs via des outils de gouvernance contractuelle autorisés par la loi.
Le soutien « éthique » de Microsoft dicté par une logique économique
Dans ce contexte tendu, l’intervention de Microsoft constitue un tournant significatif. Premier prestataire informatique du Pentagone, mettant en œuvre Azure Government et des systèmes comme le programme IVAS de réalité augmentée pour les soldats, Microsoft n’a historiquement jamais imposé de conditions éthiques fortes à ses contrats militaires. Au contraire, des révélations ont montré que son cloud (nuage informatique) avait été utilisé par les services de renseignement étrangers israéliens pour des opérations de surveillance de masse, sans clauses restrictives explicites, la consommation de ressources ayant même explosé lors de certaines offensives.
Pourtant, au début du mois de mars 2026, Microsoft a déposé un mémoire d’« amicus curiae »[2] devant un tribunal fédéral californien pour soutenir la demande d’Anthropic de suspendre sa désignation comme risque pour la chaîne d’approvisionnement. La firme alerte sur le fait que, sans cette injonction, les contractants gouvernementaux devront intégrer un nouveau risque dans leur collaboration commerciale, en particulier l’idée qu’une entreprise puisse être blacklistée pour avoir posé des limites éthiques à l’usage de sa technologie.
Ce soutien, partagé par des chercheurs en intelligence artificielle de Google et d’OpenAI ainsi que par d’autres grandes entreprises technologiques, ne traduit pas un revirement moral de Microsoft sur la surveillance de masse ou les usages militaires de l’intelligence artificielle. Il répond plutôt à un calcul économique et politique : si le précédent Anthropic est entériné, toute clause de conformité ou tout garde‑fou éthique dans un contrat gouvernemental peut devenir un motif d’exclusion, ce qui accroît l’incertitude pour l’ensemble des prestataires numériques. Microsoft, qui est à la fois partenaire commercial d’Anthropic et pilier de l’industrie militaire numérique, a intérêt à ce que le choix des entreprises de définir des limites contractuelles ne soit pas assimilé à une forme d’insubordination menant à des sanctions économiques extrêmes.
L’éthique de l’intelligence artificielle devant la justice : la contestation d’Anthropic contre la sécurité nationale
La plainte déposée par Anthropic contre le Département de la Guerre liste plusieurs arguments qui, selon des experts, sont loin d’être dénués de fondement. D’abord, l’entreprise soutient que la désignation de risque pour la chaîne d’approvisionnement constitue une atteinte à la liberté d’expression, en violation du Premier Amendement de la Constitution américaine. En effet, le fait que cette mesure ait été mise en place immédiatement après son refus de lever les restrictions sur la surveillance domestique et les armes autonomes, combiné aux déclarations publiques de Donald Trump et de Pete Hegseth, nourrit l’idée d’une campagne de représailles inconstitutionnelle plutôt que d’une évaluation technique objective.
Ensuite, Anthropic invoque le droit au respect des procédures protégé par le Cinquième Amendement et la Loi sur la procédure administrative (Administrative Procedure Act), arguant que la décision est « arbitraire et capricieuse », et qu’elle lui inflige des punitions extrêmes sans véritable processus contradictoire ni explication factuelle démontrant le risque de sabotage. Le gouvernement se trouvait en effet dans une posture paradoxale : alors que le Pentagone avait menacé de désigner Claude comme représentant un risque pour la chaine d’approvisionnement, il prévoyait également d’invoquer le Defense Production Act, ce qui aurait essentiellement contraint Anthropic à accorder au gouvernement un accès illimité à l’intelligence artificielle Claude, tout en continuant à l’utiliser dans des opérations militaires.
Enfin, dans sa plainte, Anthropic s’interroge sur la compatibilité de l’application de la section 3252 avec son statut d’entreprise américaine, dépourvue de tout lien avec les adversaires officiellement désignés par les États-Unis (Chine, Russie, Iran, Corée du Nord, Cuba, régime de Nicolás Maduro au Venezuela). Si les tribunaux se montrent traditionnellement réticents à contester les décisions de l’exécutif en matière de sécurité nationale, la combinaison de déclarations publiques hostiles, d’une extension inédite d’un mécanisme légal de sécurité, et de contradictions dans le comportement du gouvernement pourrait conduire à un examen plus strict de la part des juges de la légalité de la désignation.
Un précédent dangereux pour la démocratie technologique
L’affaire Anthropic-Pentagone, sur fond d’enjeux liés à la surveillance de masse, au contrôle des drones et armes autonomes, ainsi qu’aux opérations extérieures comme celles contre l’Iran ou le Venezuela, représente un conflit majeur aux implications profondes pour la gouvernance démocratique de l’intelligence artificielle militaire.
En utilisant un instrument prévu pour des menaces étrangères afin de punir un prestataire national qui refuse de franchir certaines lignes rouges, l’administration envoie un message clair : la loyauté attendue des entreprises technologiques s’étend désormais au respect quasi inconditionnel des demandes de l’armée. Ce conflit illustre la nécessité de clarifier, dans le droit positif, les limites légitimes de l’usage de l’intelligence artificielle dans le contexte militaire, en particulier en matière de surveillance de masse et d’armes autonomes, et de définir des garanties procédurales empêchant que des mécanismes de sécurité nationale soient détournés pour étouffer des désaccords éthiques légitimes.
Notes :
[1] « The Department of War may use the AI System for all lawful purposes, consistent with applicable law, operational requirements, and well-established safety and oversight protocols. »
[2] La mission de l’amicus curiæ s’apparente à celle du témoin expert, du technicien appelé à se présenter devant le tribunal afin de fournir, en présence des parties intéressées, les observations propres à éclairer les juges dans leur recherche d’une solution au litige.
This content has been updated on 03/16/2026 at 16 h 40 min.
