Vingt moteurs pour simuler un soldat
Le Phantom MK-1 est enfermé dans une carcasse d’acier noir avec une visière teintée qui lui donne l’allure d’un personnage de science-fiction dystopique. Sa locomotion repose sur environ vingt moteurs distincts, chacun responsable d’une articulation, d’un degré de liberté. Vingt points de défaillance potentiels. Vingt raisons pour lesquelles cette machine peut s’effondrer dans la boue à n’importe quel moment. Lors d’une visite du magazine TIME dans les installations de Foundation, le Phantom s’est littéralement écroulé à plusieurs reprises. Et pourtant, chaque chute est documentée, analysée, décomposée en données exploitables.
Sa signature thermique est similaire à celle d’un corps humain, trompant les systèmes de détection ennemis. Il peut manier revolvers, pistolets, fusils à pompe, M-16. Il accède aux bunkers souterrains que les drones ne peuvent atteindre. Et il est immunisé contre les radiations, les agents chimiques et les agents biologiques.
Vingt moteurs. Vingt possibilités de panne. Et malgré tout, quelqu’un a regardé cette machine titubante et a dit : envoyez-la au front. Il y a quelque chose de profondément humain dans cet entêtement.
Ce que le robot ne ressent pas
Le Phantom ne connaît pas la fatigue. Il ne ressent pas la peur. Il n’a pas de famille qui l’attend. Il ne fera pas de cauchemars. Il ne développera pas de syndrome post-traumatique. Il ne se suicidera pas dans un appartement vide dix ans après la fin du conflit. LeBlanc parle d’un impératif moral : mettre des robots en guerre à la place des soldats.
Mais si la guerre ne coûte plus de vies humaines à celui qui l’engage, qu’est-ce qui l’empêche de la déclencher plus souvent ? Jennifer Kavanagh, du think tank Defense Priorities, pose la question : le coût humain de la guerre est parfois ce qui nous empêche d’entrer en guerre. Retirez ce coût, et vous retirez le dernier frein.
Foundation : la startup qui veut remplacer les soldats
De San Francisco aux tranchées ukrainiennes
Foundation est basée à San Francisco. Les deux cofondateurs incarnent l’alliance entre la Silicon Valley et le Pentagone. LeBlanc, l’ancien Marine aux 300 sorties de combat. Sankaet Pathak, le PDG, la vision technologique. Et Eric Trump, fils du président, investisseur et conseiller stratégique en chef.
Foundation détient 24 millions de dollars en contrats avec l’armée de terre, la marine et l’armée de l’air américaines. Statut de fournisseur militaire agréé grâce au contrat SBIR Phase 3. Le Corps des Marines prévoit de tester les Phantom en exercices de breaching. Le Department of Homeland Security discute de la patrouille à la frontière sud. De l’Ukraine au Texas, le robot-soldat cherche sa place.
San Francisco. La ville qui nous a donné les iPhones et les réseaux sociaux. Maintenant elle nous donne des robots-tueurs. Il y a une cohérence glaçante là-dedans.
Le fils du président dans la salle des machines
La présence d’Eric Trump révèle un alignement politique entre la Maison-Blanche, l’industrie de la défense et le secteur technologique. En février 2026, l’administration Trump a ordonné de cesser toute relation avec Anthropic, qui imposait des restrictions éthiques, notamment l’interdiction de programmer des systèmes de mise à mort autonomes. Grok, l’IA d’Elon Musk, a décroché des contrats de défense malgré les controverses sur la désinformation.
Le décret exécutif de Biden de 2023 sur les tests de sécurité IA a été révoqué. Scout AI négocie 225 millions de dollars pour son Fury AI Orchestrator. Anduril Industries, fondée par Palmer Luckey, milite pour des armes autonomes sans intervention humaine. La course est lancée. Personne n’est aux commandes.
Le MK-2 : la prochaine génération arrive en avril
Plus fort, plus étanche, plus meurtrier
Le Phantom MK-2 est attendu pour avril 2026. L’électronique consolidée réduira le risque de court-circuit. L’étanchéité résistera à la boue du Donbass. Les batteries prolongeront l’autonomie. La capacité de charge passera à 80 kilogrammes, soit 175 livres, suffisant pour transporter un soldat blessé hors d’une zone de tir.
Le MK-2 utilisera une carrosserie moulée pour la production en série. Objectif : 30 000 unités par an. À terme, à 500 000 unités, le coût unitaire tomberait sous les 20 000 dollars. Vingt mille dollars pour un soldat qui ne mange pas, ne dort pas, ne réclame pas de solde et ne rentre pas dans un cercueil drapé d’un drapeau.
Trente mille robots par an. À moins de vingt mille dollars pièce. Quand les soldats deviennent un produit manufacturé, la guerre cesse d’être une tragédie pour devenir une ligne budgétaire.
L’usine de guerre permanente
Sankaet Pathak parle de milliers d’essaims de Phantom déployés simultanément. Des robots-soldats coordonnés par intelligence artificielle, capables de manoeuvrer en formation sans qu’un officier donne un ordre. Et pourtant, le MK-1 trébuche encore dans un entrepôt d’Atlanta. Mais c’est cette distance entre la vision et la réalité qui rend la chose dangereuse. Tout le monde la sous-estime.
Comme Lincoln qui, en 1861, testait le fusil Agar et en achetait les dix exemplaires. Il a fallu cinquante ans pour que la mitrailleuse devienne l’arme la plus redoutable. Le premier drone armé a été utilisé en Afghanistan il y a vingt-cinq ans. Les humanoïdes armés suivent la même courbe. LeBlanc le dit : les soldats humanoïdes feront partie du prochain conflit des États-Unis.
Le champ de bataille ukrainien : terrain d'essai grandeur nature
Neuf mille drones par jour et maintenant des humanoïdes
Neuf mille drones lancés quotidiennement. Des quadricoptères équipés de charges explosives. Des drones kamikazes qui transforment chaque véhicule blindé en cercueil. Des systèmes de guerre électronique qui brouillent les communications. Et maintenant, au milieu de cette symphonie de destruction technologique, deux robots humanoïdes qui marchent, portent des armes et regardent le champ de bataille sans rien ressentir.
Les quadricoptères dopés à l’IA mènent déjà des attaques sans contrôle humain quand le brouillage russe coupe les communications. Le robot prend le relais. Le robot décide. Le robot frappe. Les Phantom ne font qu’ajouter une dimension bipède à un arsenal de machines autonomes. Chaque jour, la ligne entre la décision humaine et la décision algorithmique s’estompe.
Neuf mille drones par jour. Deux robots humanoïdes. Et bientôt trente mille par an. On dirait le synopsis d’un film de science-fiction. Sauf que les morts ne sont pas des figurants.
Les données du sang
Chaque engagement produit des téraoctets de données. Trajectoires de vol, taux de succès, comportement des algorithmes sous interférences électromagnétiques. Ces données valent des milliards pour les entreprises de défense. Aucun polygone de tir ne peut reproduire la complexité d’un vrai champ de bataille. Un robot qui glisse sur du sang séché. Un algorithme qui confond un civil avec un combattant.
Et pourtant, personne ne parle du prix que l’Ukraine paie pour servir de terrain d’essai. Les startups viennent avec leurs prototypes, récoltent leurs données, retournent dans leurs bureaux climatisés. Les Ukrainiens restent. Avec leurs morts, leurs villes bombardées et la certitude amère que leur souffrance a servi à fabriquer une industrie de la mort plus efficace.
La course aux armements humanoïdes : qui sont les concurrents
Scout AI et le système Fury
Scout AI, cofondée par Colby Adcock et Collin Otis, négocie 225 millions de dollars avec le Pentagone pour son Fury AI Orchestrator. Fury orchestre des systèmes d’armes autonomes, coordonne des essaims de drones et de robots terrestres. Otis le dit sans détour : des agents IA peuvent remplacer l’ensemble de la chaîne de mise à mort. Plus personne ne pilotera de drones. Les machines feront tout.
Adcock siège au conseil de Figure AI. Les réseaux se croisent. Le complexe militaro-industriel du XXIe siècle est plus agile, plus interconnecté, plus opaque. Les mêmes personnes qui développent des robots pour Amazon financent des robots pour livrer des balles. La dual-use technology. Un euphémisme pour dire que la frontière entre le civil et le militaire a été effacée.
Fury. Ils ont appelé leur système de mort autonome Fury. La fureur. Au moins, ils ont l’honnêteté de ne pas prétendre que c’est un outil de paix.
Anduril et la doctrine de l’autonomie totale
Palmer Luckey a inventé l’Oculus Rift. En 2017, il a fondé Anduril Industries. Le Roadrunner, drone intercepteur. Le Ghost Shark, sous-marin autonome. Anduril milite pour des armes entièrement autonomes. Luckey balaie les objections : pas de supériorité morale à fabriquer une mine terrestre plutôt qu’une arme intelligente. Sauf qu’une mine ne décide pas qui elle tue.
Foundation, Scout AI, Anduril ne sont que la pointe visible. La Chine, Israël, la Corée du Sud, la Russie développent leurs propres robots-soldats. Pathak le reconnaît : une course aux armements humanoïdes est en cours. Il ajoute qu’une guerre froide des robots serait sincèrement positive. Comme si la guerre froide originale n’avait pas failli détruire la planète.
Le dilemme moral : sauver des vies ou banaliser la mort
L’argument humanitaire et ses angles morts
LeBlanc avance un argument qui semble imparable : il y a un impératif moral à envoyer des robots plutôt que des soldats. Plus de parents en deuil. Plus de vétérans brisés. Plus de jeunes de vingt ans qui reviennent dans des cercueils recouverts du drapeau national. L’argument est d’autant plus puissant qu’il vient d’un homme qui a lui-même connu le feu, qui a vu des camarades mourir, qui sait ce que la guerre fait aux corps et aux esprits.
Mais Jennifer Kavanagh retourne l’argument. C’est une pente glissante. Le coût humain de la guerre nous empêche parfois de la faire. Si un président peut déclencher un conflit sans risquer un seul soldat, qu’est-ce qui le retient ? La guerre sans morts n’est plus une guerre. C’est un jeu vidéo géopolitique.
Sauver des vies en créant des machines de mort. Le paradoxe est si parfait qu’il en devient obscène. On ne résout pas le problème de la guerre en rendant la guerre plus facile.
La question que personne ne pose
Bonnie Docherty, de la Harvard Law School, spécialiste du droit international humanitaire : les préoccupations juridiques, éthiques et de responsabilité l’emportent. Si un robot tue un civil, qui est responsable ? Le programmeur ? Le commandant ? Le président ? Peter Asaro, roboticien et philosophe, parle de dignité humaine. Déléguer la décision de tuer à une machine est une atteinte à cette dignité.
Et pourtant, la course aux armements continue. Si nous ne le faisons pas, la Chine le fera. La Russie le fera. Le même argument qui a justifié la bombe atomique, les armes chimiques, les mines antipersonnel. Chaque fois, l’humanité a fini par regretter d’avoir ouvert la boîte.
Le vide juridique : quand le droit international ne suit pas
Les Nations Unies entre impuissance et indignation
António Guterres a qualifié les armes autonomes de politiquement inacceptables et moralement répugnantes. Il a appelé à un traité juridiquement contraignant d’ici la fin de l’année. Mais les États-Unis, la Russie et Israël traînent les pieds. Les trois pays qui ont le plus à gagner de l’automatisation militaire bloquent toute tentative de la réglementer.
Près de soixante pays ont signé une déclaration politique non contraignante. Les négociations de Genève ont proposé une interdiction des systèmes ciblant par données biométriques et l’obligation d’un bouton d’arrêt. Le débat central : human-in-the-loop contre human-on-the-loop. Dans le premier cas, rien sans validation humaine. Dans le second, la machine agit et l’humain peut intervenir. S’il le peut.
Human-on-the-loop. L’humain sur la boucle. Pas dans la boucle. Comme un spectateur dans les gradins qui regarde le match sans pouvoir arrêter le jeu.
Le précédent ukrainien que personne ne veut voir
Ce qui se passe en Ukraine crée un précédent juridique de facto. Les drones autonomes qui frappent sans contrôle humain ne violent aucun traité, puisqu’aucun n’existe. Les robots humanoïdes opèrent dans un vide juridique total. Chaque jour sans réglementation rend la réglementation plus difficile. Les faits accomplis créent des normes. Les milliards de dollars créent des lobbies.
Le représentant Ted Lieu a déposé le Block Nuclear Launch by AI Act. Un texte interdisant à l’intelligence artificielle de lancer une arme nucléaire. Le fait qu’un tel texte soit nécessaire en dit long. Lieu met en garde contre les systèmes autonomes létaux qui hallucinent. Quand un chatbot hallucine, il invente une citation. Quand un robot-soldat hallucine, il tue la mauvaise personne.
Les failles du robot : ce que la boue et le froid révèlent
Quand le Phantom s’effondre
Lors de la visite de TIME, le Phantom MK-1 s’est effondré à plusieurs reprises. Ses vingt moteurs peinent sur les surfaces irrégulières. La boue, la poussière, la pluie battante. Chaque moteur est un point de défaillance. Sur le front, c’est un investissement de dizaines de milliers de dollars face contre terre dans la boue.
Les robots humanoïdes sont lourds. Leur autonomie énergétique est limitée. L’infrastructure logistique des lignes de front ne suffit pas toujours. Et ces machines sont vulnérables au piratage informatique. Un robot capturé livre des données sensibles, des algorithmes propriétaires, des secrets militaires.
Le robot le plus avancé du monde, mis à genoux par de la boue. La nature ne se laisse pas coder.
Le cauchemar de la cybersécurité
Les drones capturés sont déjà une source significative de fuites de données sur le front ukrainien. Chaque appareil qui tombe entre les mains de l’ennemi est démonté, analysé, ses composants électroniques passés au crible. Les Russes ont appris à reprogrammer certains drones ukrainiens capturés pour les retourner contre leurs créateurs. Imaginez maintenant la même chose avec un robot humanoïde armé d’un fusil d’assaut, piraté et retourné contre ses propres troupes.
Les algorithmes de reconnaissance sont entraînés sur des données contrôlées. Le champ de bataille ne l’est pas. Les civils portent parfois des uniformes militaires. Les combattants se déguisent en civils. Les débris obscurcissent les capteurs optiques. La probabilité d’une erreur fatale n’est pas un risque théorique. C’est une certitude statistique.
La politique de Trump : les garde-fous qui tombent
Anthropic bannie, Grok adoubée
En février 2026, l’administration Trump a ordonné aux agences fédérales de cesser toute collaboration avec Anthropic, qui imposait des restrictions éthiques incluant l’interdiction des systèmes de mise à mort autonomes. Parmi ses restrictions : interdiction de surveiller les citoyens américains. L’administration les a considérées comme un obstacle.
Grok, l’IA d’Elon Musk, a décroché des contrats de défense malgré les controverses. Le décret exécutif de Biden sur les tests de sécurité IA a été révoqué. Les garde-fous réglementaires ont été démantelés en quelques semaines. Le terrain est libre pour la tech militaire.
Bannir Anthropic parce qu’elle refuse de programmer des machines qui tuent sans permission humaine. Récompenser Grok malgré ses hallucinations. Si vous cherchiez une définition de priorités inversées, la voilà.
Le complexe militaro-technologique du XXIe siècle
Eisenhower avait prévenu, en 1961, contre le complexe militaro-industriel. Soixante-cinq ans plus tard, ce complexe a muté. Il ne fabrique plus seulement des avions et des missiles. Il fabrique des algorithmes et des robots. Et il est infiniment plus puissant. Les mêmes plateformes qui organisent nos vies sociales, nos achats et nos pensées conçoivent désormais les armes autonomes. La convergence est totale.
Et pourtant, le débat public est quasi inexistant. Un robot qui décide qui tuer est une transformation civilisationnelle qui devrait provoquer le même débat que l’arme nucléaire. Mais il n’y a pas de Hiroshima robotique. Les morts arrivent un par un. Silencieusement. Et le débat reste confiné aux revues que personne ne lit.
L'histoire qui se répète : de Lincoln aux humanoïdes
Le fusil Agar et la leçon de 1861
En 1861, Abraham Lincoln a testé le fusil Agar. Les généraux étaient sceptiques. Lincoln a acheté les dix exemplaires disponibles. Cinquante ans plus tard, la mitrailleuse a fait des millions de morts dans les tranchées de la Première Guerre mondiale.
Deux prototypes chancelants sur le front ukrainien. Des ingénieurs enthousiastes. Le même schéma. Le premier drone armé en Afghanistan il y a vingt-cinq ans. Aujourd’hui, les drones sont partout. Les humanoïdes armés suivent la même trajectoire. LeBlanc parie sur le prochain conflit américain. L’histoire lui donne raison.
Lincoln a acheté dix fusils Agar que personne ne voulait. Cinquante ans plus tard, les mitrailleuses ont fait des millions de morts. Nous sommes au moment Lincoln.
La courbe de l’inévitable
Une nouvelle arme apparaît. Imparfaite. Les traditionalistes la méprisent. Les innovateurs la perfectionnent. Un jour, elle devient indispensable. L’arc long anglais. La poudre à canon. Le sous-marin. L’aviation de combat. Le missile balistique. Le drone. Et maintenant le robot-soldat.
Nous sommes dans la fenêtre d’opportunité. Les MK-1 trébuchent encore. Les essaims de milliers de robots ne sont qu’une vision. Il est encore temps de fixer des règles. Mais il faudrait que les grandes puissances s’accordent. Que les intérêts commerciaux cèdent le pas. L’histoire enseigne que cette convergence de sagesse n’arrive presque jamais à temps.
Les voix qui résistent : le combat pour la dignité humaine
Les juristes, les philosophes et les lanceurs d’alerte
Bonnie Docherty enseigne à Harvard. Peter Asaro est roboticien. Jennifer Kavanagh analyse les politiques de défense. Ils ne gagnent pas de millions avec des contrats militaires. Mais ils voient au-delà de la prochaine itération technologique. Docherty parle de décisions de vie et de mort déléguées à des machines. Asaro de dignité humaine. Kavanagh du coût moral de l’absence de coût.
À quel moment a-t-on accepté que des machines puissent décider qui vit et qui meurt ? À quel moment a-t-on renoncé à la responsabilité exclusivement humaine de la décision de tuer ? À quel moment l’efficacité a-t-elle vaincu la conscience ? Les réponses définiront le siècle.
Des professeurs de Harvard contre des milliards de dollars de contrats militaires. Le combat est inégal. Il l’a toujours été. Mais c’est précisément pour ça qu’il faut le mener.
Ce que les robots ne comprendront jamais
Un soldat humain qui pointe son arme sur un enfant hésite. Pas toujours. Mais il hésite. Il y a dans cette hésitation quelque chose d’irréductiblement humain. Un robot-soldat a des paramètres. Des seuils de confiance. Des probabilités de menace. Quand la probabilité franchit le seuil, il tire. Sans hésiter. Sans regretter.
C’est cette absence de regret qui est la plus terrifiante. Un soldat qui commet une erreur fatale porte cette erreur pour le reste de sa vie. Ce poids est une forme de justice imparfaite. Une machine n’a que la prochaine mission. La prochaine cible. Dans cette absence de mémoire émotionnelle, il y a la définition même de la barbarie.
Vers la guerre des robots : le scénario que personne ne veut imaginer
Les batailles de droïdes et la guerre économique
LeBlanc a une vision. Une guerre complète de robots. Des batailles de droïdes. La guerre comme conflit économique. Celui qui produit le plus de robots au moindre coût gagne. Plus de courage. Plus d’héroïsme. Plus de sacrifice. Juste des chaînes de production qui tournent pendant que les généraux regardent des écrans.
Les drones ont déjà transformé la guerre en attrition industrielle. Les robots humanoïdes étendent cette logique au combat terrestre. Trente mille Phantom par an contre des armées de robots chinois. Sans visages. Sans noms. Sans familles endeuillées. Sans manifestations pacifistes. La guerre parfaite. La guerre invisible. La guerre permanente.
Des batailles de droïdes. Il a vraiment dit ça. Star Wars était censé être un avertissement, pas un plan d’affaires.
Le monde d’après que personne ne prépare
Si les robots-soldats deviennent la norme, les armées professionnelles perdent leur raison d’être. Les vétérans deviennent des reliques. La guerre, autrefois affaire de la nation, devient affaire de techniciens et d’actionnaires. Les décisions de vie et de mort sont prises dans des salles de conseil d’administration. Les profits de la guerre sont privatisés.
Les populations civiles continueront de mourir. Les réfugiés continueront de fuir. La seule chose qui changera : le pays qui envoie les robots ne ressentira plus rien. La démocratie a besoin de la souffrance partagée comme frein à la guerre. Retirez cette souffrance, la démocratie perd son dernier levier de contrôle. C’est peut-être ça, la vraie menace des robots-soldats. Pas ce qu’ils feront au front. Ce qu’ils feront à nos sociétés.
Conclusion : Le choix qui nous reste encore
La fenêtre qui se referme
Deux robots Phantom MK-1 trébuchent sur le front ukrainien. Ils sont fragiles. Ils tombent dans la boue. Mais ils sont là. Derrière eux, des usines préparent trente mille unités par an. Derrière eux, des milliards de dollars. Derrière eux, une course aux armements que personne ne contrôle. La fenêtre pour agir est encore ouverte. Mais elle se referme.
Nous sommes au moment exact où le choix est encore possible. Où les Phantom trébuchent encore au lieu de marcher. Où les traités peuvent encore être signés. Mais ce moment passe. Et quand il sera passé, nous n’aurons plus que le regret.
Ce qui reste quand les machines avancent
Voulons-nous vivre dans une réalité où des machines décident qui vit et qui meurt ? Pas un scénario hypothétique. Le monde d’aujourd’hui. Celui où deux robots en acier noir marchent sur le front ukrainien. Celui où des startups négocient des contrats de centaines de millions. Celui où un président démantèle les dernières barrières éthiques.
Les robots-soldats ne ressentent pas la peur. Ils ne pleurent pas leurs morts. Mais nous, oui. Et c’est cette capacité à souffrir, à douter, à pleurer, qui fait de nous des êtres capables de justice. Le jour où nous déléguerons cette capacité à des machines, nous n’aurons pas seulement perdu le contrôle de la guerre. Nous aurons perdu ce qui fait de nous des humains.
Signé Maxime Marquette
Sources
Sources primaires
Agences de presse et médias de référence
Ukrinform — Ukraine receives humanoid robots for testing in combat conditions — Mars 2026
TIME — The Race to Build AI Humanoid Soldiers for War — 9 mars 2026
Déclarations officielles et rapports institutionnels
Foundation Labs — Communiqués et déclarations publiques de Mike LeBlanc et Sankaet Pathak sur le programme Phantom MK-1 et MK-2, février-mars 2026.
Nations Unies — Déclarations du secrétaire général António Guterres sur les armes autonomes létales, 2025-2026.
Ce contenu a été créé avec l'aide de l'IA.