Une unité qui réécrit les doctrines militaires
La brigade K2 des forces armées ukrainiennes est devenue, selon la BBC, le premier bataillon dédié aux véhicules terrestres non habités (UGV) de l’histoire militaire mondiale. Ce n’est pas une expérimentation en labo. C’est une unité de combat opérationnelle, déployée sur le front, commandée par le major Oleksandr Afanasiev, dotée de robots armés de mitrailleuses Kalachnikov, de lance-grenades et de charges kamikazes.
La création de cette unité n’est pas tombée du ciel. Elle est le produit d’une nécessité brutale : le coût humain des assauts terrestres est devenu insupportable. Quand les drones ennemis couvrent chaque centimètre carré de terrain, envoyer des soldats de chair et d’os à l’assaut d’une position équivaut à signer des condamnations à mort. Alors l’Ukraine a décidé d’envoyer des machines à leur place — des machines qui peuvent être détruites, réparées ou remplacées.
Le raisonnement est brutal dans sa logique. Un soldat tué, c’est une famille détruite. Un robot détruit, c’est une facture. Et dans l’économie de guerre totale qui s’est installée en Ukraine depuis 2022, cette équation a fini par s’imposer à tous les niveaux de la hiérarchie militaire.
Tencore et l’industrie de la guerre robotique
Derrière le bataillon K2 se trouve une entreprise ukrainienne dont peu de gens connaissaient l’existence il y a encore deux ans : Tencore. En 2025, cette société a livré plus de 2 000 véhicules terrestres non habités à l’armée ukrainienne. En 2026, elle anticipe des commandes pour environ 40 000 unités. Si l’on applique le ratio habituel — 10 à 15 % des appareils seront armés — cela représente entre 4 000 et 6 000 robots dotés d’armements qui entreront en service cette seule année.
Le directeur de Tencore, Maksym Vasylchenko, ne cache pas ses ambitions. Il parle de robots humanoïdes de combat comme d’une étape naturelle à moyen terme. « Ce ne sera plus de la science-fiction », dit-il — et ses carnets de commandes lui donnent raison. Et pourtant, derrière les chiffres de production et les graphiques de croissance, une question fondamentale reste en suspens : qui décide quand ces machines tirent ?
Derrière chaque robot armé qui roule vers les lignes ennemies, il y a une décision humaine — pour l’instant. La question est de savoir combien de temps encore cette frontière tiendra.
La philosophie du doigt sur la gâchette
Le choix éthique de l’Ukraine
La réponse officielle ukrainienne est claire, du moins pour l’instant : un humain garde toujours le contrôle de la décision létale. Les robots du bataillon K2 peuvent se déplacer, observer, détecter et transmettre des informations en temps réel. Mais la décision de tirer — le moment précis où une machine envoie une balle ou une grenade vers un être humain — reste entre les mains d’un opérateur.
Cette position n’est pas seulement technique. C’est un choix éthique délibéré. Selon les informations disponibles sur le fonctionnement du bataillon K2, le maintien de l’humain dans la boucle de décision n’est pas une limitation technologique — c’est une contrainte volontaire. La technologie permettrait de déléguer entièrement la décision à l’algorithme. Le commandement ukrainien refuse de le faire. Pour l’instant.
La nuance est capitale. Entre « ne pas pouvoir » et « choisir de ne pas », il y a un abîme moral. L’Ukraine se trouve dans le second cas. Elle a les moyens de déployer des robots qui tuent sans supervision humaine. Elle ne le fait pas — pas encore — par conviction que le droit international humanitaire exige une forme de discernement humain dans la décision de tuer.
La pression de la survie contre l’éthique
Mais les guerres ne se gagnent pas avec des scrupules. Et le général Zaloujny, lors de son discours à Chatham House, a dessiné un horizon temporel précis et alarmant : d’ici 2027, « l’implication humaine sera entièrement ou partiellement supprimée non seulement du processus de contrôle, mais aussi de la prise de décision sur l’engagement des cibles ».
Cette prédiction n’est pas celle d’un futuriste enthousiaste. C’est celle d’un général de combat qui a commandé des hommes sous les obus pendant trois ans, qui connaît la réalité des délais de communication sur le champ de bataille, qui sait ce que signifie perdre une fenêtre d’opportunité de deux secondes parce qu’un opérateur humain n’a pas pu confirmer un tir à temps. La pression tactique est une force morale en elle-même. Et cette force pousse inexorablement vers plus d’autonomie, plus vite, sans attendre que les juristes et les philosophes aient trouvé leurs réponses.
La boue de l’est ukrainien n’attend pas les conventions de Genève. Elle avale les hésitations comme elle avale les bottes.
L'arsenal russe : la course du côté de Moscou
Le Kuryer : l’autonomie comme doctrine
Du côté russe, l’approche est différente — et à certains égards, plus inquiétante. Le Kuryer (ou « Courier »), l’UGV de combat russe le plus avancé actuellement déployé, ne se contente pas d’être téléopéré. Il peut fonctionner de manière autonome pendant 5 heures — certaines sources évoquent même des missions de 12 à 72 heures selon la configuration. Sa taille est compacte : 1,4 mètre de long, 1,2 mètre de large, 58 centimètres de hauteur sans armement. Mais son armement n’a rien de discret : lance-grenades automatique AGS-17 ou AGS-30, mitrailleuse lourde de 12,7 mm, capacité de pose de mines antichar.
La doctrine russe en matière de systèmes autonomes s’inscrit dans une tradition militaire qui valorise la masse et la vitesse de réaction au détriment de la précision juridique. Moscou ne publie pas de livres blancs sur l’éthique de l’autonomie létale. Moscou construit, déploie, et observe les résultats. La question de savoir si le Kuryer peut tirer sans ordre humain direct est délibérément laissée dans le flou — ce flou étant lui-même une posture stratégique.
Les spécialistes du droit international humanitaire sont alarmés. Un système capable d’opérer de manière autonome, armé d’une mitrailleuse lourde, déployé dans une zone de combat peuplée de combattants et de civils, sans mécanisme de supervision humaine garantie — c’est précisément le scénario que les négociateurs tentaient d’interdire depuis 2014 dans les discussions aux Nations Unies.
Les drones autonomes : la Russie devance-t-elle l’Occident
Sur le front des systèmes aériens, la situation est tout aussi tendue. La Russie a récemment déployé un drone de frappe autonome de type Shahed connu sous diverses désignations, conçu pour détecter et engager des cibles de manière autonome jusqu’à 120 kilomètres. Ce système utilise une fusion de capteurs pour identifier ses objectifs sans intervention humaine dans la boucle de ciblage. Les développeurs russes l’ont présenté comme « sans égal » dans sa catégorie.
Sa destruction rapide par les forces ukrainiennes lors de son premier déploiement en dit long sur les capacités défensives ukrainiennes — mais aussi sur la réalité du théâtre d’opérations. Chaque nouveau système autonome déployé par un camp pousse l’autre à développer des contre-mesures autonomes. C’est une spirale technologique classique, sauf que cette spirale tourne plus vite qu’aucune autre dans l’histoire militaire moderne, et que chaque tour de vis rapproche davantage du moment où aucun humain ne sera plus dans la boucle, d’aucun côté.
Quelque part dans les laboratoires de Moscou et de Kyiv, des ingénieurs travaillent jour et nuit pour que leurs machines tuent plus vite, plus loin, plus efficacement — sans demander l’avis de personne.
La GOGOL-M et le saut dans l'abîme ukrainien
Un drone-mère qui lâche la bride
L’Ukraine a franchi une étape supplémentaire avec le système GOGOL-M, développé par la startup ukrainienne Strategy Force Solutions (StratForce). Le concept est vertigineux dans sa logique militaire : un drone-mère à grande envergure — plus de 6 mètres d’envergure — vole jusqu’à 300 kilomètres derrière les lignes ennemies, transportant deux drones de frappe FPV. À l’approche de la zone cible, il les libère. Et là, les drones de frappe opèrent en pleine autonomie : navigation sans GPS grâce au système SmartPilot (LIDAR, analyse multi-capteurs), identification des cibles, engagement — sans intervention humaine directe dans les dernières phases de la mission.
StratForce revendique une capacité de production de 50 drones-mères et 400 drones FPV par mois. Le coût d’une frappe complète est d’environ 10 000 dollars — à comparer aux millions de dollars d’un missile de croisière conventionnel. L’économie de la guerre autonome est implacable. Pour dix fois moins cher qu’un missile, on peut envoyer un système qui identifie et frappe sa cible sans pilote humain. Le calcul militaire est évident. Le calcul moral l’est beaucoup moins.
Les drones de frappe du GOGOL-M sont capables de toucher des cibles mobiles et statiques : véhicules blindés, postes de commandement, systèmes de défense aérienne. La distinction combattant/civil — pierre angulaire du droit international humanitaire — repose sur la capacité d’un algorithme à faire des jugements que des soldats entraînés peinent parfois à réaliser dans la confusion des combats.
La frontière qui n’aurait pas dû être franchie
Le déploiement opérationnel du GOGOL-M en 2025, testé au combat puis affiné pour 2026, représente un franchissement de seuil que beaucoup d’experts considèrent comme le point de non-retour. Ce n’est plus un drone téléopéré. Ce n’est plus un drone avec « assistance à l’opérateur ». C’est un système qui, dans ses dernières phases, identifie une cible humaine et décide de la tuer sans que personne n’ait pressé le bouton final.
La définition juridique des systèmes d’armes létaux autonomes (SALA) — longtemps débattue dans les négociations onusiennes — s’applique ici dans toute sa clarté théorique et dans toute sa complexité pratique. L’Ukraine, qui se bat pour sa survie, a décidé que la menace existentielle justifiait de franchir cette ligne. Et pourtant, cette décision — prise sous la pression des bombes et de l’urgence militaire — crée un précédent que chaque armée du monde observe attentivement.
Une décision prise dans la boue d’une tranchée ukrainienne peut redessiner les règles de la guerre pour les cent prochaines années.
L'ONU regarde, mais ne peut pas arrêter
Des années de négociations, une résolution symbolique
En décembre 2024, l’Assemblée générale des Nations Unies a adopté une résolution sur les systèmes d’armes létaux autonomes. Cette résolution reflète ce que les négociateurs appellent une « approche à deux niveaux » : interdire les systèmes incapables de respecter le droit international humanitaire, réguler ceux dotés d’une autonomie partielle. Le secrétaire général de l’ONU avait appelé à un accord juridiquement contraignant d’ici 2026.
Nous sommes en mars 2026. L’accord n’existe pas. Les systèmes autonomes se multiplient sur le terrain ukrainien. La Russie ne participe pas aux négociations de bonne foi. Les États-Unis rechignent à toute contrainte qui limiterait leur propre développement technologique militaire. La Chine observe et attend. L’ONU, comme souvent quand la puissance brute entre en jeu, regarde la réalité dépasser ses cadres normatifs.
Ce n’est pas un jugement cynique — c’est un constat historique. Les conventions d’armement les plus solides ont toujours été négociées après les catastrophes, jamais avant. La question n’est plus de savoir si des robots tueront sans supervision humaine à grande échelle. La question est de savoir combien de morts il faudra pour que le monde décide enfin de réguler sérieusement cette technologie.
Le précédent et la prolifération
Ce qui se passe en Ukraine ne reste pas en Ukraine. Les militaires de soixante-dix pays au moins observent le conflit comme un laboratoire grandeur nature. Chaque drone autonome qui détruit un tank ennemi à moindre coût devient un argument de vente pour les fabricants. Chaque robot terrestre qui remplace un soldat dans une mission suicide devient un modèle à reproduire.
La prolifération des systèmes autonomes létaux suit la même trajectoire que celle des drones ordinaires il y a dix ans : ce qui était réservé aux grandes puissances est désormais accessible aux acteurs régionaux, puis aux groupes armés non étatiques. Dans cinq ans, la question ne sera pas de savoir si des groupes comme le Hezbollah ou des milices africaines possèdent des systèmes autonomes létaux. La question sera de savoir lesquels, et à quelle échelle.
Le marché mondial des armes autonomes s’éveille au son des batailles ukrainiennes. Les démonstrations sont gratuites, les leçons sont payées en sang.
La production industrielle : une guerre d'usines autant qu'une guerre de terrain
La Russie à 19 000 drones FPV par jour
Les chiffres de production russes donnent le vertige. Selon le commandant en chef des forces armées ukrainiennes, le général Oleksandr Syrskyi, la Russie produit actuellement 19 000 drones FPV par jour. Moscou vise également une augmentation de ses forces de drones à 101 000 personnels d’ici le 1er avril 2026 — une armée entière dédiée exclusivement aux systèmes non habités.
Ces chiffres transforment la nature même du conflit. Quand un belligérant peut lancer 19 000 munitions guidées par jour, chaque défenseur, chaque véhicule, chaque position devient une cible potentielle à tout moment. La saturation est une stratégie. Elle vise moins à détruire des cibles précises qu’à rendre impossible toute activité humaine dans la zone de contact, à épuiser les défenseurs, à court-circuiter leur logistique, à démoraliser leurs troupes.
Face à cette marée de drones, l’Ukraine a développé des contre-mesures électroniques sophistiquées — brouilleurs, leurres, systèmes de neutralisation. Mais les drones autonomes contournent précisément ces défenses en naviguant sans GPS, sans signal radio interceptable, en utilisant la vision artificielle et l’analyse d’image pour s’orienter et cibler. C’est la course aux armements version 2026 : chaque défense génère une attaque plus sophistiquée, chaque attaque génère une défense plus complexe.
Ukraine : l’économie de la robocombattante
L’Ukraine n’a pas les ressources humaines ni industrielles de la Russie. Sa réponse a donc été d’optimiser le rapport coût-efficacité de chaque système déployé. Un UGV de Tencore coûte une fraction d’un char. Un drone-mère GOGOL-M remplace des dizaines de missions pilotées à 300 kilomètres de profondeur. La guerre robotique est, pour l’Ukraine, une nécessité économique autant qu’une innovation tactique.
Cette réalité a transformé le tissu industriel ukrainien. Des centaines de startups — parfois fondées par d’anciens soldats revenus du front — développent des systèmes pour répondre à des besoins opérationnels identifiés dans les tranchées. Le cycle de développement est d’une rapidité stupéfiante : une idée sur le terrain le lundi peut devenir un prototype le vendredi et être testée au combat le mois suivant. Aucune armée de l’OTAN n’a jamais fonctionné à cette vitesse.
L’innovation militaire ukrainienne naît dans la brutalité du nécessaire. Quand la survie est en jeu, les bureaucraties et les cycles d’acquisition de cinq ans n’ont pas leur place.
Les soldats face aux machines : l'humain dans l'équation
Ce que ressentent les opérateurs
Derrière chaque écran de contrôle, derrière chaque joystick qui guide un UGV vers une position ennemie, il y a un être humain. Les opérateurs de drones et de robots de combat développent des pathologies psychologiques spécifiques — différentes du stress post-traumatique classique des combattants terrestres, mais réelles et documentées. La distanciation physique avec l’acte létal crée une forme particulière de dissonance : on tue à distance, confortablement assis, puis on rentre chez soi dîner.
Les psychologues militaires ukrainiens commencent à cartographier ce territoire inédit. Les opérateurs qui guident des robots armés vivent une guerre à la fois intense et désincarnée — intense parce que les enjeux sont mortels, désincarnée parce que les corps, la chaleur, l’odeur de la poudre sont absents. Certains décrivent une sensation d’irréalité persistante. D’autres développent une forme d’hypervigilance numérique, incapables de « déconnecter » même hors service.
Quand l’autonomie des systèmes augmente — quand le robot prend lui-même la décision de tirer — cette charge psychologique ne disparaît pas. Elle se transforme. L’opérateur n’est plus le tireur mais le superviseur. Et la responsabilité morale d’une mort commise par une machine qu’on a programmée, déployée et validée est une question que ni la psychiatrie militaire ni le droit international n’ont encore résolue.
La doctrine en crise
Les académies militaires du monde entier réécrivent leurs doctrines en temps réel. West Point, Saint-Cyr, l’Académie militaire de Moscou — tous observent le conflit ukrainien comme le premier vrai laboratoire des guerres robotiques. Les questions qui émergent sont fondamentales : comment entraîner des soldats à superviser des machines qui pensent plus vite qu’eux ? Comment établir des règles d’engagement quand l’agent n’est pas humain ? Qui est responsable quand un robot tue un civil ?
La réponse habituelle — « le commandant qui a autorisé le déploiement » — commence à se fractionner sous la pression des réalités opérationnelles. Si un algorithme identifie une cible et tire en 0,3 secondes dans une zone où la présence civile était possible mais non confirmée, la chaîne de responsabilité devient un labyrinthe juridique. Et dans ce labyrinthe, la justice risque de ne jamais trouver son chemin.
La responsabilité humaine s’effiloche à mesure que la chaîne décisionnelle s’allonge entre l’homme et la mort qu’il inflige.
Le verrou éthique : peut-il tenir
La Convention de Genève à l’épreuve des algorithmes
Le droit international humanitaire repose sur trois principes fondamentaux : distinction (entre combattants et civils), proportionnalité (l’avantage militaire doit être proportionnel aux dommages civils) et précaution (toutes les mesures possibles doivent être prises pour éviter les victimes civiles). Ces principes ont été conçus pour des êtres humains capables de jugement contextuel, d’empathie, de lecture des situations ambiguës.
Peut-on coder l’empathie ? Peut-on programmer le jugement contextuel dans une zone de guerre complexe ? Les spécialistes en systèmes autonomes sont divisés. Les optimistes affirment que les algorithmes, libres du stress, de la peur et de la fatigue, peuvent prendre des décisions plus précises que des soldats sous pression. Les pessimistes répondent que la guerre est fondamentalement ambiguë, que les situations ne ressemblent jamais exactement à ce pour quoi les systèmes ont été entraînés, et qu’une erreur algorithmique dans ce contexte signifie un massacre.
L’histoire récente penche vers les pessimistes. Les frappes de drones américains au Pakistan et en Somalie ont démontré les limites du ciblage algorithmique même avec supervision humaine. Sans cette supervision, les marges d’erreur — déjà douloureuses — deviennent potentiellement catastrophiques.
La ligne rouge que personne ne veut définir
La question centrale que les négociateurs internationaux évitent avec soin est aussi la plus simple : où est la ligne rouge ? À quel niveau d’autonomie un système devient-il inacceptable ? Un drone qui navigue seul mais attend confirmation humaine pour tirer : acceptable ? Un drone qui tire si l’opérateur ne répond pas dans dix secondes : acceptable ? Un drone qui tire dès qu’il identifie un combattant ennemi sans aucune confirmation : inacceptable ?
Ces questions ne sont pas académiques. Des systèmes qui correspondent à la deuxième et troisième catégories sont déjà déployés ou en cours de déploiement en Ukraine, des deux côtés. L’absence de ligne rouge clairement définie et internationalement acceptée signifie que chaque armée trace sa propre ligne — et que cette ligne se déplace inexorablement vers plus d’autonomie sous la pression des besoins opérationnels.
Sans ligne rouge, chaque ligne est une invitation à aller plus loin.
L'essaim : la prochaine frontière
Quand les drones pensent collectivement
Le général Zaloujny a décrit dans ses allocutions ce qu’il considère comme la prochaine étape inévitable : les essaims autonomes. Des dizaines, des centaines de drones coordonnés, attaquant simultanément depuis différentes directions et altitudes, depuis les airs, le sol et la mer, utilisant des protocoles de communication machine-à-machine que les humains ne peuvent pas superviser en temps réel. Par définition, un essaim de cette nature rend impossible le contrôle humain individuel sur chaque unité.
La Chine travaille sur ce concept depuis une décennie. Les États-Unis ont des programmes avancés de drones en essaim. La Russie a expérimenté des coordinations multi-drones lors des attaques massives sur les villes ukrainiennes. L’Ukraine développe ses propres capacités d’essaim comme réponse asymétrique aux volumes écrasants de frappes russes. La prochaine grande bataille technologique de cette guerre sera celle des essaims autonomes — et elle transformera définitivement la notion de contrôle humain dans le combat.
Les spécialistes de l’Université de Washington ont calculé que la prolifération des munitions rôdeuses à faible coût dotées de capacités autonomes crée un risque de régularisation mondiale qui dépasse de loin le risque posé par les systèmes sophistiqués et coûteux des grandes puissances. Un essaim de drones autonomes à 500 dollars pièce, produit en masse, accessible à n’importe quel acteur armé — c’est la démocratisation de la mort mécanique.
La guerre sans morts : illusion ou réalité
L’argument le plus séduisant des partisans des systèmes autonomes est celui-ci : si les robots se battent entre eux, les humains meurent moins. La guerre robotique serait, dans sa forme idéale, un affrontement de machines qui préserverait les vies humaines. Et pourtant, les données du conflit ukrainien démentent cette illusion. Les drones causent 80 % des pertes en Ukraine selon les données de Reuters citées par Euromaidan Press. Ce ne sont pas des pertes en robots — ce sont des soldats ukrainiens et russes tués par des machines de plus en plus autonomes.
La robotisation de la guerre ne réduit pas les morts. Elle change qui meurt, où, et comment. Elle tue plus efficacement, plus loin, plus vite, à moindre coût pour l’attaquant. Et si elle épargne parfois les soldats de première ligne en remplaçant certaines missions suicidaires par des robots, elle étend en contrepartie la zone létale bien au-delà du front traditionnel — menaçant des populations civiles plus profondes dans les arrières.
La promesse d’une guerre sans morts est le plus vieux mensonge de l’histoire militaire, repeint aux couleurs du silicium.
Les leçons que le reste du monde tire de l'Ukraine
Taïwan, le Moyen-Orient, l’Afrique : la contagion technologique
Les attachés militaires de cinquante pays ont des bureaux d’analyse dédiés au conflit ukrainien. Chaque innovation testée sur ce front — chaque nouveau drone, chaque nouveau robot, chaque nouvelle tactique d’essaim — est disséquée, étudiée, reproduite. Taïwan, qui anticipe depuis des années une confrontation avec la Chine, a accéléré ses programmes de systèmes autonomes en tirant les leçons ukrainiennes. Le principe : si des UGV peuvent défendre des positions contre une armée supérieure en nombre, ils peuvent aussi défendre une île.
Au Moyen-Orient, les essaims de drones ont déjà été utilisés au combat — l’attaque houthi de septembre 2019 contre les installations pétrolières saoudiennes en était un avant-goût. Les acteurs non étatiques ont démontré qu’ils pouvaient acquérir, adapter et déployer des systèmes sophistiqués bien plus vite que les cadres réglementaires internationaux ne peuvent réagir. L’Ukraine fournit aujourd’hui le catalogue de guerre le plus complet et le plus récent disponible pour quiconque veut s’armer.
En Afrique subsaharienne, où plusieurs conflits actifs impliquent des forces armées gouvernementales et des groupes armés non étatiques, la prolifération des drones à faible coût change déjà les équilibres de force. Dans cinq ans, les systèmes autonomes que l’Ukraine et la Russie déploient aujourd’hui coûteront le dixième de leur prix actuel. Ils seront disponibles sur les marchés gris. Ils seront dans les mains de groupes dont les notions de distinction entre combattants et civils sont déjà fragiles.
La course à l’armement autonome : une dynamique d’action-réaction
Chaque déploiement de système autonome par un belligérant force l’adversaire à développer des contre-mesures autonomes. Ces contre-mesures deviennent elles-mêmes des systèmes autonomes qui poussent l’adversaire à une nouvelle génération de systèmes d’attaque. La dynamique action-réaction est auto-amplifiante. Elle ne peut pas se stopper par la bonne volonté d’un seul camp — si l’un désarme, l’autre avance.
C’est précisément pour cela que les négociations onusiennes sont si difficiles. Un traité sur les systèmes autonomes létaux ne peut fonctionner que si toutes les grandes puissances militaires le signent et le respectent. La probabilité que la Russie de 2026, engagée dans une guerre totale, renonce à ses avantages technologiques autonomes est proche de zéro. La probabilité que les États-Unis, la Chine, Israël et d’autres acceptent des contraintes significatives sur leurs programmes de systèmes autonomes est à peine supérieure.
La paix des armes autonomes ressemble à la paix nucléaire : possible en théorie, condamnée en pratique par les logiques de puissance.
La position des ingénieurs : ceux qui construisent la frontière
La conscience des créateurs
Dans les laboratoires de robotique de Kyiv, de Lviv, de Tel Aviv, de Boston et de Shanghai, des ingénieurs construisent les systèmes qui redéfinissent la guerre. Beaucoup d’entre eux sont profondément mal à l’aise avec les implications de leur travail. Des pétitions internes circulent chez certains fabricants de drones occidentaux. Des lettres ouvertes ont été signées par des chercheurs en apprentissage automatique pour demander des moratoires sur les applications militaires de leurs algorithmes.
Ces voix sont minoritaires. La dynamique économique et institutionnelle est écrasante. Les contrats de défense représentent des milliards de dollars. Les gouvernements considèrent le développement des systèmes autonomes comme une nécessité stratégique. Les ingénieurs qui refusent de travailler sur ces projets sont remplacés par d’autres. La conscience individuelle ne peut pas contrebalancer les forces structurelles d’une course aux armements en temps de guerre.
Ce n’est pas une critique de ces ingénieurs — c’est un constat sur la nature des systèmes dans lesquels les individus opèrent. Maksym Vasylchenko de Tencore construit des robots qui sauvent des vies ukrainiennes. Les ingénieurs qui développent le GOGOL-M défendent leur pays. Ils font des choix rationnels dans des situations impossibles. Le problème est systémique, pas individuel.
L’impossible neutralité de la technologie
L’argument selon lequel la technologie est neutre — qu’elle peut être utilisée pour le bien ou pour le mal selon les intentions de ses utilisateurs — a toujours été fragile. Il s’effondre complètement face aux systèmes d’armes autonomes. Un drone conçu pour identifier et tuer des soldats ne devient pas un outil médical selon l’intention de son opérateur. Sa finalité est inscrite dans son architecture.
Les choix de conception — quelle distance d’identification, quel niveau de certitude requis avant tir, quel mécanisme d’abandon en cas d’ambiguïté — sont des choix éthiques fondamentaux intégrés dans le code. Chaque paramètre est une décision morale. Et ces décisions sont prises par des ingénieurs, des chefs de projets, des comités d’acquisition militaire — rarement par des philosophes ou des juristes du droit humanitaire.
Le code est une loi. Celui qui l’écrit est un législateur. Il devrait en avoir conscience.
Le vide juridique international : une architecture sans fondations
L’impuissance des cadres existants
Le droit international humanitaire — les Conventions de Genève, leurs protocoles additionnels, les traités sur certaines armes conventionnelles — a été conçu à une époque où les combattants étaient des êtres humains identifiables, où la chaîne de commandement était traçable, où la responsabilité pénale pouvait être établie. Aucun de ces instruments juridiques n’anticipe un monde où la décision létale appartient à un algorithme. Le vide est total, et il s’agrandit chaque semaine.
Les juristes spécialisés en droit des conflits armés qui observent le déploiement du GOGOL-M, du Kuryer et des essaims FPV ukrainiens tombent dans une zone grise sans précédent. Qui poursuit-on devant la Cour pénale internationale quand un drone autonome massacre des civils ? L’ingénieur qui a conçu l’algorithme de ciblage ? Le commandant qui a autorisé le déploiement ? Le ministre de la Défense qui a signé le contrat d’acquisition ? La réponse juridique actuelle est : personne, ou tout le monde — ce qui revient au même.
Ce flou juridique n’est pas accidentel. Les États qui développent des capacités autonomes létales ont un intérêt structurel à maintenir l’ambiguïté. Un cadre juridique clair interdirait certains systèmes, imposerait des standards de vérification, créerait des mécanismes de responsabilité. Aucune grande puissance militaire ne souhaite ces contraintes. Et pourtant, sans elles, chaque acteur armé — étatique ou non — avance en terrain libre.
Ce que les alliés de l’Ukraine refusent de dire tout haut
Les partenaires occidentaux de l’Ukraine — États-Unis, Royaume-Uni, France, Allemagne — soutiennent militairement et financièrement un pays qui déploie des systèmes dont certains franchissent les lignes que ces mêmes pays prétendent défendre dans les forums internationaux. Cette contradiction n’est jamais formulée explicitement dans les déclarations officielles. Elle est pourtant visible pour quiconque compare les discours onusiens de Paris ou de Washington avec les équipements que leurs livraisons permettent indirectement de financer.
La position occidentale est celle d’un équilibrisme permanent : soutenir l’Ukraine dans sa résistance légitime tout en évitant de cautionner des précédents technologiques qui se retourneront contre leurs propres normes déclarées. Et pourtant, dans l’urgence d’une guerre totale, cet équilibrisme se résout invariablement en faveur de l’efficacité militaire immédiate. Les principes résistent mal aux bombes. Ce que l’Occident tolère aujourd’hui en Ukraine, il ne pourra pas l’interdire demain à d’autres.
Quand aucun droit ne s’applique, tout est permis. Le vide juridique n’est pas une lacune accidentelle — c’est un espace que les puissances militaires ont intérêt à préserver.
2027 : l'horizon de Zaloujny
Un monde sans boucle humaine
Le général Zaloujny a fixé un horizon temporel précis : 2027 comme année charnière, moment où l’implication humaine sera partiellement ou totalement supprimée des décisions d’engagement des cibles. Ce n’est pas une prédiction lointaine. C’est dans dix-huit mois. Et les développements actuels sur le front ukrainien suggèrent qu’il a peut-être été conservateur dans son estimation.
Un monde où des systèmes autonomes prennent des décisions létales sans supervision humaine en temps réel n’est pas seulement un monde militairement transformé. C’est un monde moralement transformé. La guerre, dans toutes les cultures humaines, a toujours été associée à la responsabilité — des généraux, des soldats, des chefs d’État. La décision de tuer un autre être humain, même dans le cadre d’un conflit armé, a toujours impliqué un agent humain responsable devant une forme de tribunal, qu’il soit juridique, religieux ou moral.
Quand la machine tue sans humain dans la boucle, cette responsabilité disparaît. Elle ne se transfère pas automatiquement au programmeur, au commandant qui a autorisé le déploiement ou au chef d’État qui a décidé la guerre. Elle s’évapore dans la complexité des systèmes et des chaînes de décision. Et une guerre sans responsabilité est une guerre sans limite.
Le choix que nous n’avons pas encore fait
L’humanité fait face à un choix qu’elle n’a pas encore collectivement affronté : accepter ou refuser de déléguer la décision de mort à des algorithmes. Ce choix est en train d’être fait par défaut, sur les champs de bataille ukrainiens, dans les laboratoires militaires de Pékin et de Moscou, dans les contrats de défense de Washington et de Tel Aviv. Il est fait sans débat démocratique, sans vote, sans consentement des peuples qui en subiront les conséquences.
Les robots tueurs n’existent pas encore — pas au sens pleinement autonome du terme. Mais Ukraine et Russie s’en approchent dangereusement. La distance qui reste à parcourir se mesure moins en années qu’en décisions — décisions d’ingénierie, décisions militaires, décisions politiques. Et toutes ces décisions convergent dans la même direction : vers des machines qui tueront sans demander l’avis de personne.
La question n’est plus technique. Elle n’a jamais vraiment été technique. Elle est humaine — et nous continuons de l’esquiver.
Conclusion : la frontière franchie dans le silence
Ce que nous avons déjà accepté sans le dire
Il y a quelque chose de troublant dans la manière dont cette révolution militaire s’est installée. Pas de déclaration de guerre contre le concept de contrôle humain. Pas de traité concédant que nous allions désormais laisser les machines décider de la mort. Juste une succession de petits franchissements de seuil, chacun justifié par l’urgence opérationnelle, chacun un peu plus loin que le précédent.
Les 40 000 UGV commandés à Tencore pour 2026. Les 300 kilomètres d’autonomie du GOGOL-M. Les 5 heures d’autonomie du Kuryer russe. Les 19 000 drones FPV produits chaque jour par la Russie. Le premier combat robot-contre-robot sans présence humaine. Ces chiffres et ces faits forment ensemble un tableau que personne n’a décidé de peindre — mais qui est là, visible pour quiconque regarde honnêtement.
Nous sommes entrés dans l’ère des systèmes d’armes autonomes. Pas par un grand discours historique, pas par une rupture dramatique visible de tous — mais par l’accumulation silencieuse de milliers de décisions pragmatiques, prises sous la pression d’une guerre totale, dans la boue et le sang de l’est ukrainien. Et le monde, trop occupé à regarder ailleurs, n’a pas encore mesuré ce qu’il a laissé se produire.
Le temps qu’il reste
Il reste peut-être du temps. Pas beaucoup. Pas à l’échelle des négociations diplomatiques habituelles. Mais assez pour que des démocraties décident collectivement où sont leurs lignes rouges. Assez pour que des traités soient proposés, même imparfaits. Assez pour que la pression publique s’exerce sur les gouvernements et les fabricants d’armes.
Ce qui est certain : si nous attendons 2027 — l’horizon de Zaloujny — il sera trop tard pour définir des règles ex ante. On ne réglemente pas une technologie de guerre après qu’elle a transformé tous les conflits actifs de la planète. On vit avec les conséquences. Et les conséquences d’une guerre où les machines décident seules de tuer — cette conséquence-là, aucune génération ne l’a encore vécue. Personne ne sait exactement ce à quoi elle ressemble.
Personne. Sauf peut-être, bientôt, les survivants.
L’histoire ne prévient pas avant d’entrer. Elle se retourne, un jour, et on réalise qu’elle est là depuis longtemps.
Signé Maxime Marquette
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis pas journaliste, mais chroniqueur et analyste. Mon expertise réside dans l’observation et l’analyse des dynamiques géopolitiques, économiques et stratégiques qui façonnent notre monde. Mon travail consiste à décortiquer les stratégies politiques, à comprendre les mouvements économiques globaux, à contextualiser les décisions des acteurs internationaux et à proposer des perspectives analytiques sur les transformations qui redéfinissent nos sociétés.
Je ne prétends pas à l’objectivité froide du journalisme traditionnel, qui se limite au rapport factuel. Je prétends à la lucidité analytique, à l’interprétation rigoureuse, à la compréhension approfondie des enjeux complexes qui nous concernent tous. Mon rôle est de donner du sens aux faits, de les situer dans leur contexte historique et stratégique, et d’offrir une lecture critique des événements.
Méthodologie et sources
Ce texte respecte la distinction fondamentale entre faits vérifiés et analyses interprétatives. Les informations factuelles présentées proviennent exclusivement de sources primaires et secondaires vérifiables.
Sources primaires : communiqués officiels des gouvernements et institutions internationales, déclarations publiques des dirigeants politiques, rapports d’organisations intergouvernementales, dépêches d’agences de presse internationales reconnues (Reuters, Associated Press, Agence France-Presse, Bloomberg News, Xinhua News Agency).
Sources secondaires : publications spécialisées, médias d’information reconnus internationalement, analyses d’institutions de recherche établies, rapports d’organisations sectorielles (The Washington Post, The New York Times, Financial Times, The Economist, Foreign Affairs, Le Monde, The Guardian).
Les données statistiques, économiques et géopolitiques citées proviennent d’institutions officielles : Agence internationale de l’énergie (AIE), Organisation mondiale du commerce (OMC), Fonds monétaire international (FMI), Banque mondiale, instituts statistiques nationaux.
Nature de l’analyse
Les analyses, interprétations et perspectives présentées dans les sections analytiques de cet article constituent une synthèse critique et contextuelle basée sur les informations disponibles, les tendances observées et les commentaires d’experts cités dans les sources consultées.
Mon rôle est d’interpréter ces faits, de les contextualiser dans le cadre des dynamiques géopolitiques et économiques contemporaines, et de leur donner un sens cohérent dans le grand récit des transformations qui façonnent notre époque. Ces analyses reflètent une expertise développée à travers l’observation continue des affaires internationales et la compréhension des mécanismes stratégiques qui animent les acteurs globaux.
Toute évolution ultérieure de la situation pourrait naturellement modifier les perspectives présentées ici. Cet article sera mis à jour si de nouvelles informations officielles majeures sont publiées, garantissant ainsi la pertinence et l’actualité de l’analyse proposée.
Sources
Sources primaires
Sources secondaires
Technology.org — « Ukraine Combat Tested an Autonomous Mothership Drone » (juin 2025)
UN News — « As AI evolves, pressure mounts to regulate ‘killer robots’ » (juin 2025)
Ce contenu a été créé avec l'aide de l'IA.