Un contrat signé dans l’ombre d’une guerre commerciale
Le 27 février 2026, le département de la Défense américain a désigné Anthropic comme un risque pour la chaîne d’approvisionnement. La raison officielle : Anthropic refusait d’autoriser l’utilisation de ses modèles d’IA pour la surveillance domestique de masse et les armes autonomes. Le même jour, quelques heures plus tard, OpenAI signait l’accord avec le Pentagone. Le soir même, Sam Altman annonçait la nouvelle, affirmant que le Pentagone avait accepté les garde-fous d’OpenAI. La séquence est aussi limpide qu’elle est glaçante. Une entreprise dit non par principe. Elle est immédiatement sanctionnée. Une autre entreprise dit oui sans conditions. Elle est immédiatement récompensée. Le message envoyé à toute l’industrie technologique est d’une clarté terrifiante : la morale est un handicap commercial.
Anthropic a été fondé par d’anciens employés d’OpenAI qui pensaient que l’IA n’était pas développée de manière assez sûre. Quelques années plus tard, Anthropic refuse un contrat militaire par éthique, et se retrouve classé comme menace pour la sécurité nationale. Pendant ce temps, OpenAI signe le contrat sans les garde-fous. L’histoire d’Anthropic et d’OpenAI n’est pas une rivalité commerciale. C’est une parabole sur ce qui arrive quand l’argent et la morale se retrouvent dans la même pièce.
L’aveu d’Altman que personne n’a retenu
Le lundi suivant, Sam Altman a reconnu sur X que l’annonce avait été « opportuniste et bâclée ». Ce sont ses mots. Pas ceux d’un critique. Pas ceux d’un concurrent. Les mots du PDG d’OpenAI lui-même. Opportuniste. Le même jour où Anthropic était sanctionné pour avoir dit non, OpenAI signait pour dire oui. Et le PDG admet que c’était opportuniste. Et pourtant, personne dans les médias mainstream n’a traité cette admission comme ce qu’elle est : la confirmation que le plus grand contrat militaire de l’histoire de l’IA a été signé non pas par conviction, mais par opportunisme. Par le réflexe du prédateur qui voit une proie blessée.
De « bénéfique pour l'humanité » aux drones du Pentagone
La trajectoire d’une trahison en onze ans
OpenAI a été fondé en 2015 avec une mission explicite : développer une intelligence artificielle générale « sûre et bénéfique pour l’humanité ». Bénéfique. Pour l’humanité. C’étaient les mots. En 2023, OpenAI a modifié sa politique d’utilisation pour supprimer l’interdiction explicite d’applications militaires. En 2024, premiers contacts avec le Pentagone. En 2026, accord signé. De « bénéfique pour l’humanité » à « intégré dans les réseaux du département de la Défense » en onze ans. La trajectoire est aussi prévisible que désolante. Chaque étape était invisible en elle-même. Chaque compromis semblait raisonnable au moment où il a été fait. Mais mis bout à bout, la direction est irréversible.
Sam Altman a commencé par promettre de sauver le monde avec l’intelligence artificielle. Il finit par l’armer. La transition a été si graduelle, si fluide, si bien marketée que personne n’a remarqué le moment exact où « bénéfique pour l’humanité » est devenu « bénéfique pour le Pentagone ». C’est peut-être le tour de magie le plus impressionnant de la Silicon Valley : transformer un projet humanitaire en machine de guerre tout en gardant le sourire et les communiqués de presse inspirants.
Le processus qui n’existe pas
Kalinowski a précisé dans sa lettre que ses préoccupations portaient « plus sur le processus que sur des individus spécifiques ». Cette phrase est la plus importante de toute la démission. Le problème n’est pas qu’une mauvaise personne ait pris une mauvaise décision. Le problème est qu’il n’y a pas de processus pour empêcher les mauvaises décisions. Pas de comité d’éthique indépendant. Pas de vote du conseil d’administration. Pas de consultation des employés. L’accord a été annoncé, et les employés ont appris la nouvelle en même temps que le public. Dans une entreprise qui développe la technologie la plus puissante de l’histoire humaine. Sans freins. Sans contre-pouvoirs. Sans même un moment où quelqu’un a dit : attendez, réfléchissons.
L'autonomie létale, le tabou qui tombe
Quand l’algorithme décide qui vit et qui meurt
Autonomie létale sans autorisation humaine. Six mots qui résument le cauchemar technologique du XXIe siècle. Un drone armé qui identifie une cible, décide qu’elle est hostile, et tire. Sans qu’un être humain ait regardé l’écran. Sans qu’un doigt humain ait appuyé sur un bouton. L’algorithme décide. L’algorithme tue. L’humain apprend après coup qu’une personne est morte parce qu’un modèle de langage a calculé une probabilité. Les systèmes d’IA actuels commettent des erreurs. Ils hallucinent. Ils inventent des faits. Ils confondent des contextes. Un chatbot qui hallucine un résultat de recherche est une nuisance. Un drone qui hallucine une identification de cible est un assassinat. La distance entre les deux est exactement ce que l’accord avec le Pentagone est en train de combler.
ChatGPT se trompe régulièrement sur des questions factuelles simples. Imaginez cette marge d’erreur appliquée à des décisions de vie ou de mort. Sur cent cibles identifiées par l’IA, combien sont des erreurs? Combien d’innocents? Combien de familles détruites parce qu’un algorithme a « halluciné »? C’est le futur que l’accord OpenAI-Pentagone rend possible. Pas certain. Possible. Et le possible, en matière d’armes, devient toujours le réel.
Le précédent qui change tout
Le Pentagone utilise déjà des systèmes d’IA dans ses opérations militaires. Le projet Maven, lancé en 2017, utilisait l’IA de Google pour analyser des images de drones. Des milliers d’employés de Google avaient protesté. Google avait fini par renoncer au contrat. En 2026, OpenAI reprend le flambeau. Mais cette fois, la technologie est incomparablement plus puissante. Les modèles de langage de 2026 ne se contentent pas d’analyser des images. Ils comprennent le contexte. Ils prennent des décisions. Ils peuvent raisonner. Et cette capacité de raisonnement, intégrée dans un système d’armes, transforme le drone d’un outil en un agent. Un agent qui agit. Un agent qui décide. Un agent qui tue.
La surveillance de masse automatisée — 1984 version Silicon Valley
Le quatrième amendement face à l’intelligence artificielle
L’autre ligne rouge de Kalinowski concerne la surveillance des Américains sans supervision judiciaire. L’IA d’OpenAI, intégrée dans les réseaux du Pentagone, aurait la capacité d’analyser des volumes colossaux de données : communications, déplacements, transactions financières, activité en ligne, à une vitesse et une échelle qu’aucun analyste humain ne pourrait égaler. Le quatrième amendement de la Constitution américaine protège les citoyens contre les fouilles et saisies abusives. Mais le quatrième amendement a été écrit en 1791. Il n’avait pas prévu l’intelligence artificielle. Et les révisions apportées après coup par OpenAI, aussi importantes soient-elles, ne changent rien au fait fondamental : l’accord a d’abord été signé sans ces protections.
Quand la NSA espionnait les Américains, il fallait au moins un analyste humain pour lire vos courriels. L’intelligence artificielle supprime même cette ultime protection, celle de la paresse bureaucratique. Avec l’IA du Pentagone, chaque citoyen américain peut être surveillé simultanément. Tout le temps. Sans mandat. Sans juge. C’est 1984 d’Orwell, sauf qu’Orwell n’avait pas imaginé que Big Brother serait un modèle de langage développé par une startup de San Francisco.
Les données commerciales, le trou béant dans le filet
Parmi les révisions apportées sous la pression publique, OpenAI a étendu l’interdiction de surveillance aux données commerciales : géolocalisation, historique de navigation, données d’achat. La NSA et les agences de renseignement ont été exclues du périmètre du contrat. Ces révisions sont présentées comme des victoires. Elles ne le sont pas. Elles sont l’aveu que l’accord original ne contenait pas ces protections. Qu’il a fallu une démission publique, des centaines de lettres d’employés, et une tempête médiatique pour que les protections les plus élémentaires soient ajoutées. Et pourtant, ces révisions reposent sur la bonne foi d’une entreprise qui a démontré, par la séquence même des événements, qu’elle privilégie l’opportunisme au principe.
La révolte silencieuse des employés
Des centaines de voix, un silence institutionnel
Des centaines d’employés d’OpenAI et de Google ont signé une lettre ouverte appelant leurs entreprises à maintenir des restrictions sur l’utilisation de l’IA pour la surveillance de masse et les armes autonomes. Des centaines. Pas dix. Pas vingt. Des centaines d’ingénieurs, de chercheurs, de développeurs qui construisent ces systèmes au quotidien et qui disent : nous ne voulons pas que notre travail serve à surveiller et à tuer. La réponse institutionnelle a été le silence. Pas un forum interne. Pas un vote. Pas une assemblée. Le contrat a été signé. Les employés ont été informés après coup. Et ceux qui protestent savent que leur carrière est en jeu.
Des centaines de personnes qui construisent l’IA la plus puissante du monde ont dit : nous ne voulons pas que cela serve à tuer. Et leur employeur a répondu en signant le contrat de toute façon. Dans quel monde est-ce que la voix de ceux qui construisent compte moins que la voix de ceux qui vendent? Dans le nôtre. C’est dans le nôtre.
L’exode des consciences chez OpenAI
Kalinowski n’est pas la première à quitter OpenAI pour des raisons éthiques. Ilya Sutskever, cofondateur et directeur scientifique, est parti en 2024 après avoir tenté de destituer Sam Altman. Jan Leike, directeur de l’équipe de superalignment, a démissionné en dénonçant le manque de priorité accordée à la sécurité. Dario et Daniela Amodei avaient quitté pour fonder Anthropic. Le pattern est d’une clarté implacable : les gens qui prennent la sécurité au sérieux quittent OpenAI. Ceux qui restent prennent l’argent au sérieux. Chaque départ affaiblit la culture de sécurité interne. Chaque ingénieur éthique qui part est remplacé par quelqu’un de moins regardant. L’entreprise se sélectionne naturellement vers le conformisme et l’obéissance.
Le marché a parlé — et il a choisi la guerre
ChatGPT désinstallé, Claude en tête de l’App Store
La réaction du public a été immédiate et brutale. Des utilisateurs ont désinstallé ChatGPT par milliers. Claude, l’assistant IA d’Anthropic, l’entreprise qui a dit non au Pentagone, a bondi en tête de l’App Store d’Apple. Pour la première fois, les consommateurs ont voté avec leurs téléphones. Ils ont dit : nous ne voulons pas utiliser un produit qui alimente la machine de guerre. Le signal est puissant. Et pourtant, les analystes de l’industrie le balaient d’un revers de main. Le sentiment public, disent-ils, est « souvent réactionnaire et pas durable ». Traduction : les gens oublieront. Ils reviendront. Ils reviennent toujours.
Les analystes ont probablement raison. Les gens oublieront. Ils reviendront à ChatGPT. Parce que la mémoire collective est courte et que la commodité est plus forte que la conscience. Mais le fait que des milliers de personnes aient, ne serait-ce qu’un instant, choisi la morale plutôt que la commodité dit quelque chose. Quelque chose de fragile, de temporaire, mais de réel. Quelque chose qui ressemble à de l’espoir. Et dans cette histoire, l’espoir est un bien rare.
Le paradoxe du consommateur conscient
Le problème avec le boycott de ChatGPT est qu’il ne résout rien. OpenAI ne tire pas ses revenus principaux des abonnements individuels. Ses vrais clients sont les entreprises, les gouvernements, les institutions. Le contrat avec le Pentagone vaut infiniment plus que des millions d’abonnements ChatGPT Plus. Désinstaller l’application est un geste symbolique. Respectable. Nécessaire même. Mais symbolique. Le vrai pouvoir est entre les mains des législateurs, des régulateurs, des gouvernements qui pourraient imposer des limites légales à l’utilisation militaire de l’IA. Et ces législateurs, ces régulateurs, ces gouvernements? Ils sont les clients du contrat.
Ce que cette histoire dit de nous
L’humanité face au miroir de ses créations
Il y a dans l’histoire de Caitlin Kalinowski quelque chose qui dépasse la technologie et la géopolitique. Quelque chose de profondément philosophique. Nous avons créé une intelligence qui peut raisonner, analyser, décider. Et la première chose que nous faisons avec cette intelligence, c’est l’armer. Pas la mettre au service de la médecine. Pas au service de l’éducation. Pas au service du climat. Au service de la guerre. De la surveillance. Du contrôle. Chaque civilisation est définie par ce qu’elle fait de ses outils les plus puissants. Les Romains ont construit des routes et des aqueducs. Ils ont aussi construit des arènes où des humains mouraient pour le divertissement. Nous construisons des intelligences artificielles. Nous choisissons d’en faire des armes.
À quel moment, exactement, avons-nous décidé que la plus grande invention de notre espèce serait d’abord un outil de mort? Personne n’a pris cette décision consciemment. C’est pire. Elle s’est prise toute seule. Contrat après contrat. Compromis après compromis. Ligne rouge après ligne rouge effacée. Et c’est peut-être ça, le vrai danger de l’intelligence artificielle : pas qu’elle prenne des décisions à notre place, mais qu’elle révèle les décisions que nous avons toujours prises.
Le courage comme exception, la complaisance comme norme
Kalinowski a renoncé à un salaire qui se compte probablement en millions de dollars, à des stock-options qui valent une fortune, et à une position au sommet de l’entreprise d’IA la plus influente du monde. Par principe. Dans une industrie où le principe est un handicap de carrière. Sanchit Vir Gogia, de Greyhound Research, note que les démissions de cadres supérieurs pour des questions de gouvernance signalent des problèmes de processus plus profonds que ce que les amendements contractuels peuvent résoudre. Les acheteurs entreprises questionnent de plus en plus la manière dont les engagements éthiques sont réellement appliqués. Et pourtant, dans le bruit de l’actualité, la démission de Kalinowski sera oubliée en une semaine. Le contrat avec le Pentagone, lui, durera des décennies.
Les révisions cosmétiques qui ne changent rien
Le pansement sur la fracture ouverte
Sous la pression publique, OpenAI a apporté des révisions à l’accord. L’interdiction explicite de la surveillance domestique des citoyens américains. L’extension de cette interdiction aux données commerciales : géolocalisation, historique de navigation, données d’achat. L’exclusion de la NSA et des agences de renseignement du périmètre du contrat. Sur le papier, ces révisions semblent substantielles. Dans la réalité, elles sont un aveu. L’aveu que l’accord original ne contenait aucune de ces protections. Que Sam Altman a signé un contrat militaire avec la plus grande puissance armée du monde sans même penser à interdire la surveillance des citoyens de son propre pays.
Les révisions sont là. Sur le papier. En lettres d’imprimerie, signées et paraphées. Mais qui les applique? Qui vérifie? Qui sanctionne si elles sont violées? Le Pentagone? Le même Pentagone qui a sanctionné Anthropic pour avoir exigé ces mêmes garde-fous? La confiance envers une institution qui punit l’éthique et récompense la complaisance ne se décrète pas par amendement contractuel. Elle se mérite. Et le Pentagone ne l’a pas méritée.
L’illusion du contrôle après coup
L’histoire de la technologie militaire enseigne une leçon que nous refusons d’apprendre : une fois qu’une capacité existe, elle sera utilisée. Le nucléaire devait rester une arme de dissuasion. Il a été utilisé à Hiroshima et Nagasaki. La surveillance électronique devait cibler les ennemis étrangers. La NSA a espionné les Américains. Les drones devaient être pilotés par des humains. L’autonomie progresse chaque année. Les garde-fous d’aujourd’hui sont les reliques de demain. Et l’IA d’OpenAI, une fois intégrée dans les systèmes du Pentagone, ne sera plus sous le contrôle d’OpenAI. Elle sera sous le contrôle de généraux qui ont une mission et un budget, et pour qui les considérations éthiques d’une startup de San Francisco sont un détail administratif.
Le vrai message de Kalinowski
« C’était une question de principe, pas de personnes »
Kalinowski a écrit : « C’était une question de principe, pas de personnes ». Cette distinction est cruciale. Elle ne dit pas que Sam Altman est une mauvaise personne. Elle ne dit pas que les ingénieurs d’OpenAI sont des complices conscients. Elle dit quelque chose de bien plus grave : que le système lui-même est défaillant. Que les bonnes personnes, avec les bonnes intentions, dans un mauvais système, produisent des résultats catastrophiques. C’est la leçon que Hannah Arendt tirait du procès d’Eichmann : la banalité du mal. Pas le mal spectaculaire. Le mal banal. Le mal qui se produit quand des gens ordinaires suivent un système sans se poser de questions.
Le problème n’est pas Sam Altman. Le problème n’est pas OpenAI. Le problème, c’est nous. C’est un système où la technologie la plus puissante jamais créée est développée par des entreprises privées sans aucun contrôle démocratique. Où les décisions qui affectent des milliards de vies sont prises dans des salles de réunion par des gens dont la seule obligation est envers leurs actionnaires. Kalinowski a vu le système. Elle a compris le système. Et elle a choisi de ne plus en faire partie.
Le poids d’une chaise vide
Demain, le bureau de Caitlin Kalinowski chez OpenAI sera vide. Quelqu’un d’autre s’y assiéra. Quelqu’un qui n’aura pas posé les questions qu’elle a posées. Quelqu’un qui construira ce qu’elle refusait de construire. Et le programme de robotique d’OpenAI continuera. Les robots seront développés. L’IA sera intégrée. Les contrats seront honorés. Le Pentagone aura ses armes intelligentes. Et dans dix ans, quand la première erreur se produira, quand le premier innocent sera tué par un drone qui a « halluciné » une cible, quelqu’un se souviendra peut-être de Kalinowski. De la femme qui a vu venir. De la femme qui a dit non. De la femme que personne n’a écoutée.
L'avenir que nous choisissons en silence
Le point de non-retour est derrière nous
Il y a un concept en philosophie de la technologie qu’on appelle le point de non-retour. Le moment où une technologie est si profondément intégrée dans les systèmes qu’elle ne peut plus être retirée. Le nucléaire a atteint ce point dans les années 1960. L’internet dans les années 2000. L’intelligence artificielle militaire est en train de l’atteindre maintenant. L’accord OpenAI-Pentagone n’est pas le premier contrat d’IA militaire. Mais il est le plus significatif. Parce que GPT est le modèle de langage le plus avancé au monde. Parce que le Pentagone est la force armée la plus puissante au monde. Et parce que la combinaison des deux crée quelque chose qui n’a jamais existé : une intelligence non humaine au service de la destruction humaine.
Nous sommes en train de franchir un seuil. Pas avec fracas. Pas avec des trompettes et des avertissements. En silence. Dans l’indifférence. Un contrat signé un jeudi soir. Une démission publiée un samedi matin. Un article lu par quelques milliers de personnes. Et pendant ce temps, quelque part dans un laboratoire du Pentagone, un ingénieur branche l’IA d’OpenAI sur un système d’armes. Et le monde continue de tourner.
La question que Kalinowski nous laisse
La vraie question que pose la démission de Kalinowski n’est pas technique. Elle n’est pas politique. Elle n’est pas commerciale. Elle est existentielle. Quel genre de civilisation crée la plus grande intelligence artificielle de son histoire et choisit de l’utiliser pour surveiller ses citoyens et armer ses drones? Quel genre de société punit les entreprises qui refusent de contribuer à la surveillance de masse et récompense celles qui acceptent? Quel genre d’humanité regarde tout cela se produire et hausse les épaules? Et pourtant, c’est exactement ce que nous faisons. Nous regardons. Nous haussons les épaules. Et nous retournons à nos écrans, propulsés par la même IA qui, quelque part, apprend à tuer.
Le dernier rempart, c'est nous
Ce que l’histoire retiendra
L’histoire retiendra peut-être le 27 février 2026 comme le jour où l’intelligence artificielle est officiellement devenue une arme de guerre. Ou peut-être pas. Peut-être que cette date sera oubliée, noyée dans le flux incessant de l’actualité, remplacée par le prochain scandale, la prochaine crise, la prochaine distraction. Mais quelque part, dans les archives numériques, la lettre de Kalinowski restera. « La surveillance des Américains sans supervision judiciaire et l’autonomie létale sans autorisation humaine sont des lignes qui méritaient plus de délibération qu’elles n’en ont reçu. » Vingt mots. Gravés dans l’histoire de l’IA. Vingt mots que nous aurions dû écouter.
Et c’est peut-être ça, la leçon finale de cette histoire. Pas que l’IA est dangereuse. Tout le monde le sait. Pas que le Pentagone veut des armes autonomes. Tout le monde le sait aussi. Mais que les seules personnes qui pouvaient empêcher le pire sont celles qui partent. Que celles qui restent construiront les armes que les partants refusaient de construire. Et que nous, spectateurs de cette tragédie au ralenti, nous aurons été prévenus. Par Kalinowski. Par Sutskever. Par Leike. Par les Amodei. Par tous ceux qui ont vu le mur et qui ont sauté du train. Le reste d’entre nous est toujours à bord. Et le mur se rapproche.
Ce qui reste après le bruit
Il reste une femme qui a dit non. Il reste une lettre qui dit la vérité. Il reste un choix que chacun de nous doit faire : accepter que la technologie la plus puissante de notre époque soit mise au service de la guerre et de la surveillance, ou exiger qu’elle serve l’humanité qu’elle prétendait protéger. Caitlin Kalinowski a fait son choix. Sam Altman a fait le sien. Le Pentagone a fait le sien. Anthropic a fait le sien. Reste le nôtre. Et le nôtre est le seul qui compte encore. Parce que dans une démocratie, le dernier rempart, ce ne sont pas les ingénieurs qui démissionnent. Ce ne sont pas les entreprises qui résistent. C’est nous. Les citoyens. Ceux qui votent. Ceux qui achètent. Ceux qui décident quel monde ils veulent laisser à leurs enfants. Le train fonce toujours. Mais le frein d’urgence existe. Il s’appelle la démocratie. Il est temps de le tirer.
Signé Maxime Marquette
Sources
Sources primaires
NPR — OpenAI robotics leader resigns over concerns about Pentagon AI deal (8 mars 2026)
Bloomberg — OpenAI Robotics Chief Resigns Over Pentagon AI Deal Citing Ethical Concerns (7 mars 2026)
TechCrunch — OpenAI hardware exec Caitlin Kalinowski quits in response to Pentagon deal (7 mars 2026)
Sources secondaires
Computerworld — OpenAI robotics chief quits over Pentagon deal (9 mars 2026)
Fortune — OpenAI robotics leader resigns over concerns about surveillance and autonomous weapons (7 mars 2026)
Interesting Engineering — OpenAI hardware chief resigns as AI models deployed on Pentagon networks (8 mars 2026)
Ce contenu a été créé avec l'aide de l'IA.