Ce que le Pentagone voulait vraiment
La demande du secrétaire à la Défense Pete Hegseth ne laissait aucune place à l’interprétation. Il exigeait un « accès illimité » (unfettered access) à Claude — ce qui signifiait concrètement la suppression des restrictions de sécurité qu’Anthropic avait intégrées au modèle. Ces restrictions, appelées garde-fous dans l’industrie, empêchent l’IA d’aider à planifier des attaques, d’identifier des cibles humaines pour élimination, ou de participer à des opérations de surveillance de masse.
Hegseth voulait que ces protections soient retirées. Pas modifiées. Pas adaptées. Retirées. Il voulait un Claude militaire — une intelligence artificielle capable d’analyser des données de renseignement, d’identifier des cibles, de recommander des frappes et de coordonner des opérations autonomes. Le tout sans intervention humaine dans la boucle de décision.
Et pourtant. C’est exactement ce type d’utilisation que les fondateurs d’Anthropic avaient quitté OpenAI pour prévenir. Amodei et son équipe avaient créé Anthropic en 2021 précisément parce qu’ils estimaient que l’IA avait besoin de limites. Que la course à la performance sans contraintes éthiques mènerait à une catastrophe. Cinq ans plus tard, le moment de vérité était arrivé.
Quand Pete Hegseth dit « accès illimité », ce qu’il veut dire, c’est ceci : une intelligence artificielle capable de regarder un flux vidéo de drone, d’identifier un visage, de le comparer à une base de données, de calculer la probabilité qu’il soit un ennemi, et d’autoriser une frappe — le tout en quelques secondes, sans qu’un être humain n’appuie sur le bouton. C’est le rêve de chaque commandant militaire depuis que la guerre existe. C’est aussi le cauchemar de quiconque a lu un livre d’histoire.
La date limite ignorée
Amodei a proposé un compromis : Claude pourrait être utilisé pour l’analyse logistique, le traitement de données non classifiées, l’optimisation des chaînes d’approvisionnement. Mais pas pour le ciblage. Pas pour la surveillance. Pas pour les décisions de vie ou de mort. Le Pentagone a refusé le compromis. Le vendredi 27 février, la date limite a expiré. Anthropic n’a pas plié.
La riposte de Trump : la liste noire
Le décret qui fait trembler la Silicon Valley
La réponse de la Maison-Blanche a été immédiate et brutale. Le président Trump a signé un décret interdisant à toutes les agences fédérales d’utiliser les services d’Anthropic. Hegseth est allé plus loin : il a désigné Anthropic comme « risque pour la chaîne d’approvisionnement de la sécurité nationale ». Une catégorie normalement réservée aux entreprises liées à des adversaires étrangers — la Chine, la Russie. Pas à des entreprises californiennes.
Cette désignation a des conséquences en cascade. Toute entreprise qui travaille avec le Pentagone — et elles sont des milliers — est désormais interdite d’utiliser la technologie d’Anthropic. C’est un blocus commercial. Les agences existantes ont six mois pour éliminer tout usage de Claude de leurs systèmes. Le message est clair : si vous dites non au Pentagone, on vous traite comme un ennemi de l’État.
Une entreprise américaine, fondée par des Américains, financée par du capital américain, qui emploie des milliers d’Américains — classée dans la même catégorie que Huawei ou Kaspersky. Pas parce qu’elle espionne. Pas parce qu’elle vole des données. Parce qu’elle a dit : « Notre IA ne devrait pas décider qui vit et qui meurt. » Dans l’Amérique de 2026, cette phrase est considérée comme une menace à la sécurité nationale.
Six mois pour disparaître
Le délai de six mois n’est pas un geste de clémence. C’est une exécution programmée. En six mois, les contrats gouvernementaux expirent. Les sous-traitants changent de fournisseur. Les partenariats se dissolvent. Et Anthropic, dont une part significative des revenus provient du secteur gouvernemental, doit se réinventer ou mourir.
OpenAI : le concurrent qui a dit oui
Le contrat qui change la donne
Pendant qu’Anthropic défendait ses principes, OpenAI signait un contrat avec le Pentagone. Le timing n’est pas une coïncidence. Sam Altman, le PDG d’OpenAI, a saisi l’opportunité créée par le refus d’Anthropic. Le marché fédéral de l’IA, estimé à des milliards de dollars, venait de perdre un acteur majeur. OpenAI a rempli le vide.
Et pourtant. Altman a fait quelque chose d’inattendu. Dans un mémo interne à ses employés, il a annoncé qu’OpenAI pousserait pour les mêmes limitations qu’Anthropic avait défendues — pas d’armes autonomes, pas de surveillance de masse. Les mêmes lignes rouges. Posées par l’entreprise qui venait de prendre la place de celle qui les avait tracées en premier.
Sam Altman prend le contrat ET promet les mêmes limites qu’Anthropic. C’est un coup de génie commercial — ou un bluff monumental. Il obtient les revenus gouvernementaux tout en gardant la posture éthique. La question : le Pentagone le laissera-t-il maintenir ces limites? Ou est-ce que le même ultimatum qui a détruit la relation avec Anthropic attend OpenAI dans six mois?
L’effet domino dans la Silicon Valley
Le refus d’Anthropic a provoqué une onde de choc dans toute la Silicon Valley. Plus de 100 employés de Google ont signé une lettre demandant des limites similaires sur l’utilisation militaire de l’IA Google. Des employés de Microsoft et d’Amazon — les deux plus grands fournisseurs de cloud computing au monde — ont exigé que leurs entreprises empêchent le Pentagone d’utiliser leurs produits sans restriction.
C’est un mouvement qui dépasse Anthropic. C’est une révolte silencieuse des ingénieurs et des développeurs qui construisent les outils les plus puissants de l’histoire — et qui réalisent que ces outils pourraient être utilisés d’une manière qu’ils ne peuvent pas accepter.
Ce que « ciblage létal autonome » signifie vraiment
La machine qui décide de tuer
Derrière le jargon technique, il y a une réalité crue. Le « ciblage létal autonome » signifie qu’une intelligence artificielle analyse des données — images satellites, interceptions radio, flux vidéo de drones — et identifie des êtres humains à tuer. Sans qu’un être humain ne valide la décision. La machine voit. La machine analyse. La machine recommande. Et si la boucle est suffisamment rapide, la machine exécute.
Ce n’est pas de la science-fiction. Les drones autonomes existent déjà. Les systèmes de reconnaissance faciale militaires fonctionnent. Les algorithmes de ciblage ont été utilisés par l’armée israélienne à Gaza avec le système « Lavender ». La seule chose qui manque, c’est l’intégration complète — un système unique qui fait tout, du renseignement à la frappe, sans intervention humaine.
C’est exactement ce que le Pentagone voulait construire avec Claude.
Un algorithme ne connaît pas la peur. Il ne connaît pas la compassion. Il ne connaît pas le doute. Il ne se réveille pas la nuit en repensant à la frappe du matin. Il ne voit pas le visage de la cible dans ses rêves. Il calcule. Il exécute. Et il passe à la cible suivante. C’est précisément ce qui le rend si dangereux. Pas parce qu’il se trompe. Mais parce qu’il ne se trompe pas — selon ses propres critères. Des critères que personne n’a eu le temps de vérifier. Des critères que personne n’a le pouvoir de contester. Des critères que personne ne peut arrêter une fois la machine en marche.
Le précédent de « Lavender »
En 2024, des révélations sur le système Lavender utilisé par Tsahal à Gaza avaient montré comment un algorithme pouvait générer des listes de cibles à un rythme que les analystes humains ne pouvaient ni vérifier ni contester. Le système identifiait des suspects. Les officiers avaient environ 20 secondes pour valider chaque cible. Vingt secondes pour décider de la vie ou de la mort d’un être humain, sur la base de données qu’ils n’avaient pas le temps d’analyser.
C’est ce modèle que le Pentagone voulait industrialiser. Et c’est ce modèle qu’Anthropic a refusé de faciliter.
Le calcul derrière le refus : la marque « safe AI »
La valeur de l’éthique en milliards
Soyons lucides. Le refus d’Anthropic n’est pas uniquement moral. Il est aussi stratégique. La valorisation de l’entreprise — plusieurs milliards — repose en grande partie sur son positionnement comme l’alternative « sûre » dans la course à l’IA. Anthropic est l’entreprise qui prend la sécurité au sérieux. Qui publie des recherches sur l’alignement. Qui impose des limites à sa technologie.
Ce positionnement attire les talents — les meilleurs ingénieurs en IA veulent travailler pour une entreprise qui partage leurs préoccupations éthiques. Il attire les investisseurs qui misent sur le long terme. Il attire les clients qui veulent être associés à une IA responsable. Céder au Pentagone détruirait ce positionnement en un instant.
Le refus d’Anthropic est-il courageux ou calculé? Probablement les deux. Et c’est peut-être ce qui le rend si puissant. Quand la morale et les affaires pointent dans la même direction, le résultat est plus solide que si l’un marchait seul. Amodei a fait le calcul : perdre le contrat du Pentagone coûte cher. Perdre la confiance de ses ingénieurs, de ses investisseurs et de ses clients coûterait infiniment plus.
La réaction du marché des talents
Depuis le refus, Anthropic a enregistré un afflux de candidatures de la part de chercheurs en IA qui quittent des concurrents perçus comme moins scrupuleux. La relation publique positive générée par le bras de fer avec le Pentagone vaut, selon certains analystes, davantage que le contrat perdu. Dans l’économie de l’IA, les cerveaux valent plus que les contrats. Et les cerveaux veulent travailler pour des entreprises qui ont des principes.
Les universités aussi : le front de Hegseth
Columbia, Yale, Brown — la purge académique
Le conflit avec Anthropic n’est pas un incident isolé. Le même Hegseth a annoncé que le Pentagone couperait les liens avec Columbia, Yale, Brown et d’autres universités qu’il accuse de « wokisme ». La logique est la même : quiconque résiste aux demandes de l’administration Trump — que ce soit une entreprise technologique ou une institution académique — est classé comme ennemi.
Le Pentagone finance des milliers de projets de recherche dans les universités américaines. Ces financements représentent des milliards de dollars par an. Les couper n’est pas seulement une punition. C’est un appauvrissement de la base scientifique qui, à long terme, affaiblira la capacité d’innovation américaine — y compris dans le domaine militaire que Hegseth prétend protéger.
Et pourtant. La logique de punition l’emporte sur la logique de performance. Dire non au Pentagone en 2026 n’est pas une divergence d’opinion. C’est un acte de rébellion passible de représailles économiques. Qu’on soit une start-up de la Silicon Valley ou une université de l’Ivy League, le message est identique : obéissez ou payez.
Pete Hegseth punit les universités pour « wokisme » et les entreprises d’IA pour « insubordination ». Il coupe les liens avec les meilleurs cerveaux du pays — les chercheurs qui inventent les technologies de demain, les ingénieurs qui construisent les armes du futur. C’est comme un général qui fusille ses propres éclaireurs parce qu’ils refusent de mentir sur la position de l’ennemi. Ça ne renforce pas l’armée. Ça l’aveugle.
Le prix de la dissidence
Le classement d’Anthropic comme « risque pour la sécurité nationale » est un outil de coercition d’une efficacité redoutable. Il ne touche pas seulement Anthropic. Il touche chaque entreprise qui utilise ses services et qui travaille, de près ou de loin, avec le gouvernement fédéral. C’est un isolement commercial qui peut asphyxier une entreprise aussi sûrement qu’une sanction économique contre un pays.
La question fondamentale : qui contrôle l'IA?
Le pouvoir de dire non
Le bras de fer entre Anthropic et le Pentagone pose une question que nos sociétés n’ont pas encore résolue : qui décide des limites de l’intelligence artificielle? Le gouvernement, qui représente (en théorie) la volonté du peuple? L’entreprise, qui a construit la technologie? Les ingénieurs, qui comprennent ses dangers mieux que quiconque? Ou personne — et la technologie avance sans frein jusqu’à ce qu’il soit trop tard?
Le précédent nucléaire est instructif. Les physiciens qui ont construit la bombe atomique ont tenté de contrôler son utilisation. Ils ont échoué. Le projet Manhattan a été récupéré par les militaires, puis par les politiques. Les scientifiques sont restés avec leurs regrets. Oppenheimer a été détruit pour avoir osé questionner l’utilisation de sa propre création.
Amodei est-il l’Oppenheimer de l’IA? La comparaison est peut-être excessive. Mais la dynamique est la même : un créateur qui tente de garder le contrôle de sa création face à un appareil d’État qui veut l’utiliser sans contrainte.
Robert Oppenheimer a construit la bombe. Puis il a essayé de l’empêcher de proliférer. Le gouvernement l’a écarté, humilié, détruit professionnellement. Dario Amodei a construit Claude. Puis il a essayé d’empêcher son utilisation pour le ciblage létal autonome. Le gouvernement l’a classé comme menace à la sécurité nationale. L’histoire ne se répète pas. Mais elle rime. Et cette rime-là fait froid dans le dos.
L’avenir que personne ne choisit
Si Anthropic perd cette bataille — et les chances sont contre elle — le message sera clair pour toute l’industrie : la sécurité de l’IA est un luxe que le marché ne peut pas se permettre quand le gouvernement décide autrement. Si Anthropic tient, elle établira un précédent qui pourrait redéfinir la relation entre la technologie et le pouvoir pour des décennies.
Dans les deux cas, la question reste ouverte : dans un monde où l’IA peut identifier, cibler et potentiellement tuer un être humain en quelques secondes, qui a le droit de poser le doigt sur le bouton? Un général? Un algorithme? Un PDG de la tech? Ou personne?
Conclusion : Le choix qui définira une ère
Au-delà d’Anthropic
Le bras de fer entre Anthropic et le Pentagone n’est pas une querelle commerciale. C’est un moment fondateur. Le moment où la société décide — ou refuse de décider — si une machine peut avoir le pouvoir de vie et de mort sur des êtres humains.
Les 100 employés de Google qui ont signé cette lettre le savent. Les ingénieurs de Microsoft et d’Amazon qui demandent des limites le savent. Sam Altman, qui promet les mêmes garde-fous tout en signant avec le Pentagone, le sait. Et Dario Amodei, qui a risqué la survie de son entreprise pour tracer une ligne rouge, le sait mieux que quiconque.
Dans cinquante ans, quand les historiens raconteront comment l’humanité a géré l’avènement de l’intelligence artificielle, le 27 février 2026 sera peut-être une date importante. Pas parce que des bombes sont tombées sur l’Iran ce jour-là. Mais parce qu’un homme à San Francisco a dit non. Non à la machine qui tue sans conscience. Non au pouvoir sans limites. Non à l’avenir sans garde-fous. Ce non ne suffira probablement pas. Mais il existera. Et parfois, dans l’histoire, un seul « non » prononcé au bon moment change tout.
La guerre continue — avec ou sans Claude
Pendant ce temps, l’opération Epic Fury se poursuit. Les bombes tombent sur l’Iran. Les algorithmes d’autres entreprises — OpenAI, Palantir, Anduril — travaillent pour le Pentagone. L’IA militaire avance. Avec ou sans Claude. Avec ou sans les garde-fous d’Anthropic. Le train est en marche. La question n’est plus s’il va arriver. La question est si quelqu’un a le courage de changer sa destination.
Signé Maxime Marquette
Encadré de transparence du chroniqueur
Positionnement éditorial
Ce texte est un commentaire qui défend la position d’Anthropic dans son conflit avec le Pentagone. L’auteur n’est pas journaliste et ne prétend pas à la neutralité. La position défendue est que les garde-fous sur l’IA militaire sont essentiels et que la classification d’Anthropic comme « risque de sécurité » constitue un abus de pouvoir. Note de transparence : l’auteur utilise quotidiennement Claude d’Anthropic comme outil d’écriture, ce qui constitue un conflit d’intérêts potentiel dont le lecteur doit être informé.
Méthodologie et sources
Ce commentaire s’appuie sur les reportages d’Axios, NPR, NBC News, Fortune, CNN et CNBC sur le conflit Anthropic-Pentagone. Les déclarations de Hegseth, Trump, Altman et Amodei sont documentées par plusieurs sources indépendantes. La référence au système Lavender provient d’enquêtes journalistiques publiées en 2024.
Nature de l’analyse
Il s’agit d’un commentaire mêlant faits documentés et opinion éditoriale. Les passages en italique représentent l’opinion personnelle du chroniqueur. Les comparaisons historiques (Oppenheimer, nucléaire) sont des analogies de l’auteur, pas des équivalences factuelles.
Sources
Sources primaires
Axios — Anthropic’s Pentagon standoff signals a broader corporate pushback
NPR — Hegseth threatens to blacklist Anthropic over ‘woke AI’ concerns
Fortune — Trump orders U.S. government to stop using Anthropic but gives Pentagon six months to phase it out
Sources secondaires
NBC News — OpenAI strikes deal with Pentagon after Trump orders government to stop using Anthropic
CNBC — Trump admin blacklists Anthropic as AI firm refuses Pentagon demands
NPR — OpenAI announces Pentagon deal after Trump bans Anthropic
Military Times — Pentagon to cut ties with Columbia, Yale, Brown and others Hegseth accuses of ‘wokeness’
Ce contenu a été créé avec l'aide de l'IA.