Capacités techniques et limites structurelles
Le Phantom MK-1 est présenté comme le premier robot humanoïde spécifiquement développé pour des applications de défense. Sa silhouette anthropomorphe marche sur deux jambes, avec deux bras articulés capables de saisir des objets. Sa signature thermique ressemble à celle d’un corps humain. Il peut opérer sans relâche, sans fatigue, sans peur, sans besoin de repos. Il est résistant aux agents chimiques, biologiques et aux radiations.
Et pourtant, la réalité est moins glorieuse que le discours marketing. Le Phantom MK-1 repose sur environ vingt moteurs, dont chacun peut tomber en panne. Il est lourd, coûteux, et a besoin d’être rechargé régulièrement. On ignore comment il se comportera dans la boue du front ukrainien. Plusieurs unités ont déjà crashé pendant les tests en usine.
Un robot qui crashe dans un hangar climatisé de San Francisco n’est pas la même chose qu’un robot qui crashe au milieu d’un champ de mines dans le Donbass. La guerre ne pardonne pas les bugs. Elle ne patiente pas pendant les mises à jour. Elle ne laisse pas de seconde chance aux prototypes qui fonctionnent à 95 pour cent. Sur le front, 95 pour cent de fiabilité signifie que sur vingt missions, l’une d’entre elles tourne au désastre.
L’arsenal d’un combattant mécanique
La promesse centrale de Foundation est redoutable : le Phantom est conçu pour utiliser n’importe quelle arme qu’un humain peut tenir. Cette phrase du cofondateur Mike LeBlanc, ancien vétéran du Marine Corps avec quatorze ans de service, résonne avec gravité. Un soldat robotique capable de manier un M-16 comme un fusil à pompe n’est plus un outil. C’est un système d’armes autonome.
Les premières missions assignées en Ukraine sont limitées : reconnaissance en première ligne, exploration de bunkers inaccessibles aux drones, ravitaillement sous le feu. Mais Foundation prépare déjà le Phantom au cours d’entrée par effraction du Marine Corps, où les robots apprendront à poser des explosifs sur des portes. De la reconnaissance au combat direct, la distance est courte.
Foundation, la startup qui veut industrialiser la guerre robotique
Les cerveaux derrière la machine
Derrière le Phantom MK-1 se trouvent deux cofondateurs aux profils complémentaires. Sankaet Pathak, le PDG, vient du monde de la technologie. Mike LeBlanc vient du monde de la guerre. Cette fusion entre la Silicon Valley et le complexe militaro-industriel redéfinit la géopolitique du vingt et unième siècle. L’entreprise compte parmi ses investisseurs Eric Trump, fils du président des États-Unis.
Pathak ne cache pas son ambition. Sa philosophie est brutalement pragmatique : il faut d’abord mettre la technologie entre les mains des clients, ensuite on itère. L’Ukraine n’est pas seulement un terrain de test. C’est une boucle de rétroaction qui permettra à Foundation d’affiner ses produits avant de les proposer à l’armée américaine.
Il y a quelque chose de vertigineux dans le fait qu’un conflit où meurent des milliers de personnes chaque mois serve de terrain d’expérimentation pour une startup californienne. L’Ukraine saigne, et cette hémorragie devient une opportunité commerciale. Je ne dis pas que c’est cynique. Je dis que c’est le monde dans lequel nous vivons désormais, un monde où la souffrance des uns finance l’innovation des autres.
L’objectif des trente mille unités
Foundation vise une production annuelle de 30 000 robots, avec un coût unitaire qui devrait descendre en dessous de 20 000 dollars. Le coût de déploiement d’un soldat américain sur un théâtre d’opérations se chiffre en centaines de milliers de dollars. L’équation économique est implacable. Un robot à vingt mille dollars qui peut être détruit et remplacé sans conséquence politique est infiniment moins coûteux qu’un soldat dont la mort provoque des crises gouvernementales.
Le Phantom MK-2, prévu pour avril 2026, promet des améliorations significatives : électronique consolidée, étanchéité, batteries plus puissantes et capacité de transport jusqu’à 80 kilogrammes. L’évolution est rapide. Trop rapide pour que les cadres éthiques et juridiques puissent suivre.
La guerre en Ukraine, laboratoire de toutes les ruptures technologiques
Des drones aux robots, l’escalade permanente
Depuis l’invasion russe à grande échelle en février 2022, ce conflit a servi de banc d’essai pour des technologies qui ont transformé la doctrine militaire mondiale. Les drones FPV à quelques centaines de dollars détruisent des chars à plusieurs millions. Les drones maritimes ont forcé la flotte russe de la mer Noire à battre en retraite. Les systèmes de guerre électronique évoluent au rythme de semaines, pas de décennies.
Et pourtant, l’arrivée de robots humanoïdes représente un saut qualitatif d’une nature différente. Un drone est un outil. Il n’a pas de forme humaine. Il ne marche pas dans les rues. Il ne tient pas un fusil entre des mains articulées. Le robot humanoïde brouille une frontière psychologique fondamentale : celle entre l’outil de guerre et le guerrier. Quand une machine a la forme d’un homme et les capacités d’un soldat, à quel moment cesse-t-elle d’être un simple équipement pour devenir un acteur du combat à part entière ?
Chaque guerre produit ses innovations. La Première Guerre mondiale a engendré les chars et les gaz. La Seconde a produit le radar et la bombe atomique. La guerre en Ukraine est en train de produire quelque chose d’encore plus fondamental : la dissociation complète entre celui qui fait la guerre et celui qui la subit. Quand un robot tue, personne ne pleure du côté de l’attaquant. Et c’est peut-être le plus dangereux de tous les précédents.
Le retour d’expérience comme monnaie d’échange
L’Ukraine offre un terrain où les robots seront confrontés à des conditions extrêmes que nul simulateur ne peut reproduire. Le froid glacial de l’hiver. La boue printanière qui engloutit les véhicules. Les ondes électromagnétiques des systèmes de brouillage russes. Les explosions qui projettent des débris à des centaines de mètres.
Cette boucle de rétroaction entre le front et les laboratoires de San Francisco crée un cycle d’innovation accéléré. Chaque panne, chaque dysfonctionnement, chaque succès devient une leçon intégrée dans la prochaine version. La guerre comme processus de développement produit.
L'impératif moral ou l'alibi parfait
Sauver des vies humaines, l’argument massue
Les partisans des robots de combat avancent un argument difficile à contester : chaque robot déployé est un soldat humain qui ne risque pas sa vie. LeBlanc affirme qu’il existe un impératif moral à envoyer ces robots à la guerre à la place des soldats. Moins de morts. Moins de traumatismes psychologiques. Moins de familles brisées. La proposition est séduisante.
Et pourtant, cette logique contient un piège. Si la guerre ne coûte plus de vies humaines à l’attaquant, qu’est-ce qui retient encore un État de déclencher un conflit ? Les cercueils qui rentrent au pays, les manifestations de mères en colère constituent une pression démocratique qui force les gouvernements à réfléchir. Supprimez cette pression, et vous supprimez le dernier garde-fou contre la guerre perpétuelle.
L’impératif moral de remplacer les soldats par des robots est un argument qui sonne juste tant qu’on ne gratte pas la surface. Parce que la vraie question n’est pas de savoir si les robots peuvent sauver des vies. C’est de savoir combien de guerres supplémentaires seront déclenchées parce qu’elles ne coûteront plus rien en sang humain du côté de celui qui appuie sur le bouton.
Le précédent des drones et la dérive vers la guerre facile
L’histoire récente offre un précédent éclairant. Les drones armés américains devaient rendre les opérations plus précises. Le résultat ? Des milliers de frappes dans des pays avec lesquels les États-Unis n’étaient même pas en guerre. Le Pakistan, le Yémen, la Somalie. Quand tuer ne coûte plus rien à celui qui tue, on tue plus souvent.
Les robots humanoïdes poussent cette logique plus loin. Un drone est piloté par un opérateur humain qui voit sa cible, prend une décision, appuie sur un bouton. Le robot humanoïde autonome pourrait opérer sans aucune intervention humaine. La chaîne de décision entre la volonté de tuer et l’acte de tuer se réduit à un algorithme.
Le gouffre juridique des armes autonomes
Quand le droit international rencontre l’intelligence artificielle
Le droit international humanitaire repose sur des principes fondamentaux : distinction entre combattants et civils, proportionnalité dans l’usage de la force. Ces principes ont été conçus pour des guerres menées par des êtres humains capables de jugement et d’empathie. Ils n’ont jamais envisagé un scénario où la décision de tuer serait déléguée à une machine dont le discernement se résume à des lignes de code.
La chercheuse de Harvard, Bonnie Docherty, a formulé le constat : les préoccupations juridiques, éthiques et de responsabilité l’emportent sur tout bénéfice potentiel. Le cadre légal international ne dispose d’aucun mécanisme pour attribuer la responsabilité algorithmique lorsqu’un robot cause des victimes civiles. Qui est coupable quand un Phantom tire sur un civil ? Le robot ? Son fabricant ? Le commandant ? Le programmeur ?
Le droit de la guerre a été écrit par des hommes pour des hommes. Pas pour des machines. Et cette lacune n’est pas un détail technique. C’est un gouffre dans lequel pourrait s’engouffrer l’impunité totale. Si personne n’est responsable quand un robot tue un innocent, alors nous aurons créé la machine à tuer parfaite : celle qui élimine non seulement la cible, mais aussi la culpabilité.
Les négociations internationales dans l’impasse
Le Secrétaire général des Nations Unies, António Guterres, a qualifié les armes autonomes létales de politiquement inacceptables et de moralement répugnantes. Des négociations sont en cours pour un traité contraignant. Mais les grandes puissances militaires, les États-Unis en tête, freinent. Celui qui développe le premier une armée de robots opérationnels dispose d’un avantage stratégique colossal. Aucune grande puissance n’est prête à y renoncer.
Le Pentagone maintient que ses protocoles exigent une autorisation humaine avant tout engagement. Mais les drones ukrainiens opèrent déjà de manière autonome lorsque les communications sont coupées par le brouillage russe. Le principe du contrôle humain cède devant la nécessité tactique.
La déshumanisation du champ de bataille, une spirale sans fin
Quand la guerre perd son dernier visage humain
La guerre a toujours été une entreprise de déshumanisation. On parle de dommages collatéraux pour ne pas dire civils tués. Mais il restait un élément irréductiblement humain : le soldat. Un être de chair qui ressent la peur, la douleur, le remords. Un être capable de désobéir à un ordre immoral et de compassion envers l’ennemi blessé.
Le robot humanoïde supprime cette dernière trace d’humanité. Il ne ressent rien. Il ne peut pas être ému par les pleurs d’un enfant dans les décombres. Il ne peut pas décider de ne pas tirer parce que sa cible lève les mains. Il exécute. C’est sa seule fonction.
On me dira que les soldats humains commettent aussi des atrocités. C’est vrai. Mais ils peuvent aussi faire le choix de ne pas les commettre. Un soldat peut baisser son arme. Un robot ne baisse jamais son arme. Il ne connaît pas la grâce. Il ne connaît pas la pitié. Il ne connaît que sa programmation. Et c’est dans cet espace minuscule entre l’ordre et la conscience que se loge toute la différence entre la barbarie et l’humanité.
Le risque d’une accoutumance collective à la violence automatisée
La normalisation des robots de combat pose un problème sous-estimé. Plus la guerre est déléguée à des machines, plus elle devient abstraite. Pas de mobilisation. Pas de veuves. Pas de cimetières militaires qui se remplissent. La guerre devient un événement lointain, géré par des techniciens dans des salles climatisées.
Si voter pour la guerre ne coûte rien à l’électeur, pourquoi voterait-il contre ? Si un président peut envoyer des robots au combat sans risquer un seul cercueil couvert du drapeau national, quel frein reste-t-il à l’aventurisme militaire ?
Eric Trump, la Silicon Valley et le complexe militaro-industriel nouvelle génération
Quand la famille présidentielle investit dans les robots de guerre
La présence d’Eric Trump comme investisseur et conseiller stratégique de Foundation ajoute une dimension politique explosive. Le fils du président des États-Unis est financièrement impliqué dans une entreprise qui teste ses produits sur un théâtre de guerre où son père prend des décisions de politique étrangère majeures.
Et pourtant, cette imbrication entre le pouvoir politique, le capital privé et l’industrie de la défense n’est pas nouvelle. Le complexe militaro-industriel que le président Eisenhower avait dénoncé en 1961 s’est simplement modernisé. Les usines d’armement d’hier sont devenues les startups d’aujourd’hui. La mécanique reste identique : la guerre est un marché.
Quand le fils du président investit dans les robots de guerre pendant que le père décide où ces robots seront déployés, on a dépassé le stade du conflit d’intérêts. On est dans une fusion organique entre le pouvoir et le profit qui ferait pâlir les marchands d’armes du dix-neuvième siècle. Au moins, à l’époque, ils avaient la décence de ne pas prétendre sauver des vies.
La course mondiale aux armements robotiques
Pathak a déclaré que la guerre mondiale est mauvaise, mais qu’une guerre froide est sincèrement une bonne chose parce qu’elle force tout le monde à innover à un rythme très rapide. Cette phrase révèle la mentalité qui anime la nouvelle génération du complexe militaro-industriel. La compétition géopolitique n’est plus perçue comme un danger. Elle est perçue comme un accélérateur d’innovation.
La Chine développe ses propres programmes de robots militaires. La Russie travaille sur des systèmes autonomes malgré les contraintes de la guerre. Israël, la Corée du Sud, le Japon, la France, le Royaume-Uni investissent dans la robotique militaire. La course aux armements du vingt et unième siècle se joue en algorithmes, en capteurs et en moteurs servo.
La guerre sans deuil, le piège ultime de la modernité
Quand mourir pour son pays devient optionnel
La promesse des robots de combat dépasse le cadre tactique. Elle touche au contrat fondamental entre un État et ses citoyens. Depuis l’Antiquité, la guerre implique un sacrifice partagé. Les robots brisent ce contrat. Ils permettent à un gouvernement de mener des opérations militaires sans jamais demander à ses citoyens le moindre sacrifice. La guerre devient un acte unilatéral du pouvoir, déconnecté de toute contrainte populaire.
Un pays qui peut faire la guerre sans enterrer ses enfants est un pays qui fera la guerre plus souvent. Ce n’est pas une prédiction. C’est une certitude historique. Le coût humain a toujours été le seul frein réel à l’ambition militaire des puissants. Supprimez ce frein, et vous obtenez la guerre permanente, menée par des machines, financée par des contribuables qui n’en sentiront jamais le poids, et subie par des populations qui n’auront aucun moyen de se défendre.
Le spectre d’une humanité spectatrice de sa propre violence
La robotisation de la guerre dessine un futur où les sociétés occidentales regarderont les conflits comme on regarde un match de sport. À distance. Sans conséquences personnelles. Les téléspectateurs changeront de chaîne sans un frisson. La violence sera toujours là. Mais la culpabilité aura disparu.
Les vulnérabilités que personne ne veut voir
Le cauchemar du piratage en zone de combat
Un robot humanoïde armé est, par définition, un système informatique connecté. Et tout système connecté est vulnérable au piratage. Un robot de combat dont le logiciel est compromis par l’ennemi pourrait se retourner contre ses propres troupes. Les cyberattaques russes contre les infrastructures ukrainiennes démontrent la capacité de Moscou à pénétrer des systèmes numériques sophistiqués.
Les modèles d’IA souffrent d’hallucinations et de dérive comportementale. Les systèmes de reconnaissance faciale présentent des biais documentés. Transposez ces failles dans un contexte de combat, et vous obtenez un cocktail dévastateur.
Un char piraté reste un char. Il ne change pas de camp tout seul. Un robot humanoïde dont le système est compromis devient potentiellement un agent ennemi infiltré dans vos propres lignes, un soldat retourné qui porte vos couleurs mais obéit à d’autres ordres. Le piratage d’un robot de combat n’est pas un risque informatique. C’est un risque existentiel.
La dépendance énergétique et logistique
Les batteries du Phantom MK-1 ne durent pas éternellement. Un soldat peut manger une ration froide et continuer à se battre. Un robot dont la batterie est vide est un tas de métal inutile. Les conditions climatiques extrêmes de l’Ukraine réduisent la durée de vie des batteries et augmentent les risques de défaillance mécanique.
Le Phantom MK-2 promet des batteries plus performantes. Mais entre la fiche technique d’un produit et son comportement sous le feu ennemi, il y a un gouffre que seule l’expérience de combat peut révéler.
La frontière entre défense et agression s'efface
Du front ukrainien à la frontière mexicaine
Foundation ne limite pas ses ambitions au champ de bataille ukrainien. L’entreprise est en discussions pour déployer ses robots le long de la frontière sud des États-Unis dans des fonctions de patrouille. La même technologie qui combat l’ennemi à l’étranger peut surveiller les citoyens chez soi. Le passage de l’usage militaire à l’usage policier n’est qu’une question de programmation.
Un Phantom qui patrouille la frontière mexicaine fait face à des migrants, pas à des soldats. La capacité du robot à distinguer un combattant d’un civil est déjà douteuse en zone de guerre. Elle devient terrifiante quand la cible potentielle est un adolescent qui traverse un désert avec un sac à dos.
Quand la même machine peut tirer sur un soldat russe dans le Donbass et surveiller un migrant guatémaltèque dans le désert de l’Arizona, nous avons un problème qui dépasse largement le cadre militaire. Nous avons un outil de contrôle universel, déployable partout où le pouvoir veut exercer sa force sans en assumer les conséquences humaines. Et cela devrait glacer le sang de quiconque croit encore à la démocratie.
La prolifération inévitable
Toute technologie militaire finit par proliférer. Les drones, développés par les grandes puissances, sont aujourd’hui utilisés par des groupes armés non étatiques. Les robots humanoïdes suivront la même trajectoire. Ce qui est aujourd’hui un prototype de startup californienne sera demain produit en Chine à bas coût et vendu sur le marché noir.
Un robot à vingt mille dollars est à la portée d’un cartel, d’une milice, d’un groupe extrémiste. La barrière d’entrée technologique qui protégeait le monopole des États sur la violence légitime est en train de s’effondrer.
Ce que les soldats ukrainiens pensent vraiment des robots
Le regard de ceux qui se battent à mains nues
Les soldats ukrainiens qui se battent dans les tranchées du Donbass ont une perspective unique. Pour eux, toute technologie qui réduit les pertes humaines est bienvenue. Ils ont vu trop de camarades mourir. Trop de positions abandonnées faute d’effectifs. Si un robot peut entrer dans un bâtiment piégé à leur place, ils ne refuseront pas.
Mais cette acceptation masque une inquiétude plus profonde. Les combattants ukrainiens savent que la Russie travaille sur les mêmes technologies. Et ils savent que leur pays sert de terrain d’expérimentation pour des technologies que d’autres commercialiseront pendant qu’eux continuent de mourir pour leur souveraineté.
Il y a une ironie cruelle dans le fait que les soldats ukrainiens, qui se battent pour leur liberté avec une bravoure qui force le respect du monde entier, soient aussi ceux sur le dos desquels se construit le futur de la guerre automatisée. Ils accueillent les robots parce qu’ils n’ont pas le luxe de philosopher. La philosophie, c’est le privilège de ceux qui ne sont pas en train de mourir.
Le facteur humain irremplaçable
Les officiers ukrainiens le savent : aucun robot ne remplacera le jugement d’un soldat aguerri. La capacité à lire une situation en une fraction de seconde, à sentir le danger avant qu’il ne se manifeste. Cette intelligence situationnelle, forgée par l’expérience du feu, est ce qu’aucun algorithme ne peut reproduire.
Les robots seront des outils complémentaires, pas des remplaçants. La question est de savoir combien de temps cette distinction durera avant que la tentation de l’automatisation totale ne l’emporte.
La Russie et la course au robot de combat
Moscou ne reste pas les bras croisés
La Russie développe ses propres systèmes robotiques militaires. Le robot de combat Uran-9, testé en Syrie, avait révélé des défaillances majeures. Mais Moscou poursuit ses programmes. Les plateformes autonomes terrestres et les drones kamikazes font déjà partie de l’arsenal russe déployé en Ukraine.
L’introduction de robots humanoïdes américains sur le front ukrainien provoquera une réaction russe. Les robots occidentaux appelleront des robots russes. Et les robots russes appelleront des robots chinois. La spirale est enclenchée.
Et pourtant, la spirale de l’escalade robotique a quelque chose de différent de toutes les courses aux armements qui l’ont précédée. Quand deux armées de robots s’affronteront, qui souffrira ? Pas les machines. Les civils. Toujours les civils. La robotisation de la guerre ne protège pas les innocents. Elle libère les belligérants de la seule contrainte qui les retenait encore : la peur de perdre leurs propres enfants.
Un nouveau rideau de fer numérique
La compétition mondiale pour la suprématie robotique militaire dessine un nouveau rideau de fer. D’un côté, les démocraties occidentales et leurs startups. De l’autre, les autocraties et leurs programmes étatiques. Mais quand la force est exercée par des machines, le contrôle démocratique perd son sens.
Les leçons que l'histoire nous enseigne et que nous refusons d'apprendre
De la poudre à canon aux robots, la constante humaine
Chaque révolution technologique militaire a été accueillie avec le même mélange d’enthousiasme et d’horreur. La poudre à canon devait rendre la guerre trop destructrice pour être menée. Les mitrailleuses devaient la rendre trop coûteuse. Les armes nucléaires devaient la rendre impensable. À chaque fois, l’humanité a trouvé le moyen de continuer à se faire la guerre, en adaptant ses stratégies et ses justifications à la nouvelle réalité technologique.
Les robots humanoïdes de combat ne mettront pas fin à la guerre. Ils la rendront plus fréquente, plus abstraite pour ceux qui la décident et plus mortelle pour ceux qui la subissent. L’asymétrie entre les pays qui possèdent cette technologie et ceux qui ne la possèdent pas creusera un fossé comparable à celui de la Guerre froide.
L’histoire ne se répète pas, mais elle rime, disait Mark Twain. La rime d’aujourd’hui a quelque chose de particulièrement sinistre. Nous sommes en train de créer des soldats qui ne meurent pas, au service de guerres qui ne s’arrêtent pas, financées par des profits qui ne tarissent pas. Le triangle parfait de la guerre perpétuelle. Et nous applaudissons l’innovation.
La responsabilité de ceux qui regardent
Les citoyens des démocraties ont une responsabilité. Chaque robot de combat qui sort d’une usine est financé par des impôts, approuvé par des élus, déployé au nom d’une nation. Fermer les yeux sur les implications éthiques, c’est donner un chèque en blanc à ceux qui construisent le futur de la guerre.
L'avenir du combat est déjà écrit dans l'acier noir du Phantom
Ce que les deux robots ukrainiens annoncent pour demain
Les deux Phantom MK-1 déployés en Ukraine ne sont pas une fin. Ils sont un commencement. Un premier pas hésitant, maladroit, plein de bugs et de limitations. Mais c’est un pas dans une direction dont il sera difficile de revenir. La guerre robotique n’est plus une hypothèse. Elle est une réalité qui se teste en ce moment même, quelque part sur le front ukrainien, dans la boue et sous les obus.
Le Phantom MK-2 arrivera en avril. Des versions plus avancées suivront. D’autres entreprises développent leurs propres prototypes. D’autres armées passeront commande. D’ici une décennie, les robots humanoïdes de combat seront aussi courants sur les champs de bataille que les drones le sont aujourd’hui. La question n’est plus de savoir si cela arrivera. Elle est de savoir si nous serons prêts à en assumer les conséquences.
Deux robots en acier noir, quelque part en Ukraine, marchent dans un monde qui ne les attendait pas. Ils ne savent pas qu’ils écrivent l’histoire. Ils ne savent rien. Et c’est peut-être ce qui est le plus terrifiant. L’avenir de la guerre est entre les mains de machines qui n’ont pas de mains. Qui n’ont pas de conscience. Qui n’ont pas de coeur. Nous leur avons donné des armes. Nous ne pouvons pas leur donner ce qui nous rend humains. Et c’est dans cet écart irréductible que se jouera le destin de toutes les guerres à venir.
Un choix de civilisation qui n’attend plus
La communauté internationale se trouve face à un choix de civilisation. Encadrer maintenant la robotique militaire par des traités contraignants. Ou laisser faire, et découvrir dans vingt ans que les robots de combat sont devenus le standard de la guerre moderne sans que personne n’ait jamais voté pour ce futur. Le précédent des armes nucléaires montre que cette régulation arrive toujours trop tard.
Signé Maxime Marquette
Sources
Sources primaires
Ukrinform — Ukraine receives humanoid robots for testing in combat conditions — Mars 2026
Sources secondaires
Time — The Race to Build AI Humanoid Soldiers for War — Mars 2026
Ce contenu a été créé avec l'aide de l'IA.