Une équation économique qui tue
Comprenons d’abord pourquoi le Zerov-8 existe. En février 2026, la Russie a lancé 5 059 drones à longue portée contre l’Ukraine — le record absolu depuis le début de l’invasion. En janvier, 4 442 drones Shahed avaient déjà frappé le territoire ukrainien, avec une fréquence moyenne de 143 appareils par jour. Ces chiffres ne sont pas des statistiques militaires abstraites. Ce sont des nuits sans sommeil pour des millions de civils. Ce sont des sous-stations électriques de 750 kV soufflées, les colonnes vertébrales du réseau ukrainien. Ce sont des centrales thermiques éventrées, des maternités sans courant, des blocs opératoires qui fonctionnent à la bougie.
À Mykolaïv, une frappe Shahed a privé 16 000 abonnés d’électricité. Près d’Odessa, une installation DTEK a subi des destructions majeures. Et pourtant, la question n’est pas seulement humanitaire. Elle est d’abord économique et asymétrique. Un drone Shahed coûte entre 20 000 et 50 000 dollars. Un missile sol-air pour l’abattre coûte entre 150 000 et 500 000 dollars. La Russie joue à un jeu simple: saigner l’Ukraine par la répétition. Envoyer des milliers d’engins bon marché jusqu’à ce que les défenses s’épuisent, les stocks se vident, les villes capitulent dans le froid et l’obscurité.
Le Zerov-8 est la réponse ukrainienne à cette équation. Un intercepteur autonome, bon marché, fabriqué localement, capable de chasser un Shahed à 326 km/h sur un rayon de 20 kilomètres. Une machine conçue pour rendre la répétition russe intenable — non plus par des missiles coûteux, mais par une contre-armada de drones-chasseurs guidés par l’intelligence artificielle.
16 000 foyers dans le noir à Mykolaïv. Un enfant qui dort avec son manteau parce que le chauffage ne reviendra pas avant des semaines. C’est pour ça que le Zerov-8 existe. Pas pour une théorie de la guerre. Pour que cette nuit-là ne se répète plus.
Le tailsitter qui décolle en trente secondes
Techniquement, le Zerov-8 est conçu selon le schéma tailsitter — une architecture aérodynamique où l’appareil décolle verticalement sur sa queue avant de pivoter en vol horizontal. Ce système permet une mise en œuvre en trente secondes chrono, sans piste d’atterrissage, sans infrastructure lourde. Il emporte jusqu’à 0,5 kilogramme de charge utile — suffisant pour neutraliser un Shahed en collision directe. Il peut être équipé d’une caméra diurne ou thermique selon les conditions d’engagement. Sa vitesse maximale de 326 km/h lui permet d’intercepter des cibles volant jusqu’à 270 km/h. Suffisant pour rattraper la quasi-totalité de la flotte Shahed russe, qui évolue généralement entre 120 et 180 km/h.
Mais ce qui distingue fondamentalement le Zerov-8 de tous ses prédécesseurs, ce n’est pas la vitesse. Ce n’est pas la charge utile. C’est le module TFL Anti-Shahed. Un système d’IA embarqué qui analyse en temps réel le mouvement de la cible, sa signature thermique, son comportement de vol — et qui décide seul si ce qu’il voit mérite d’être intercepté. Détection à 2-3 fois la portée des systèmes analogues. En conditions idéales, jusqu’à 1 kilomètre. Même dans des conditions météorologiques difficiles, 300 mètres — précieux dans un pays où l’hiver est une arme tactique supplémentaire.
SECTION 2 : L'IA qui voit — le module TFL Anti-Shahed
Apprendre à voir là où l’œil humain échoue
« Nous avons entraîné le système à voir les cibles là où l’œil humain ou les capteurs standard échouent« , dit Yaroslav Azhnyuk. Cette phrase mérite qu’on s’y arrête. Pas parce qu’elle est publicitaire. Parce qu’elle dit quelque chose de radicalement nouveau sur la nature de la perception au combat. L’œil humain, aussi entraîné soit-il, est limité par la biologie. La fatigue. L’obscurité. Le bruit visuel d’une nuit ukrainienne sous alerte aérienne. L’opérateur qui scrute son écran depuis des heures, dont les réflexes s’émoussent, dont l’attention décroche.
Le module TFL ne se fatigue pas. Il ne cligne pas des yeux. Il analyse en permanence le champ de vision, compare chaque forme thermique à sa base de données d’apprentissage, évalue la trajectoire, la vitesse, le comportement. Il « surligne » la cible pour l’opérateur — ou, dans le mode d’autonomie maximale, engage directement sans confirmation humaine. Ce n’est pas de la science-fiction. C’est déjà en test final. « Le système détecte et ‘surligne’ les cibles de manière autonome tout en les suivant en continu sans interférer avec les opérations de vol », précise Azhnyuk.
Le module s’interface avec des équipements d’imagerie thermique comme le Kurbas-640 Beta, couplé à des contrôleurs de vol et des transmetteurs vidéo. Les prochaines versions intégreront des radars externes pour une guidance automatisée, permettant au système de fonctionner dans des environnements de guerre électronique intense — là où les communications GPS sont brouillées, là où les opérateurs humains deviennent des obstacles plutôt que des atouts.
Yaroslav Azhnyuk, 2026. Il a commencé sa carrière en créant une caméra pour observer son chat pendant son absence. Aujourd’hui, il entraîne des machines à reconnaître des drones ennemis à un kilomètre de distance dans le noir. C’est la trajectoire que la guerre impose aux ingénieurs ukrainiens. Pas un choix. Une nécessité de survie nationale.
L’autonomie de premier niveau — ce que « autonome » veut dire ici
Il faut être précis sur le vocabulaire. L’autonomie de premier niveau de The Fourth Law — celle qui équipe déjà plus de 50 unités militaires — signifie que le système assiste l’opérateur dans la détection et le verrouillage de cible. L’humain valide encore l’engagement. Mais le Zerov-8 en test final va plus loin: l’objectif déclaré est un « cycle complet d’interception autonome ». Détection, verrouillage, poursuite, neutralisation. Sans appui humain à chaque étape. Ce glissement n’est pas anodin. Entre « assiste l’opérateur » et « opère sans opérateur », il y a un abîme — l’abîme où réside la question éthique fondamentale de notre époque.
Et pourtant, sur le terrain ukrainien, ce glissement se produit. Pas dans les salles de conférence onusiennes. Dans les champs du Donbass. Dans les nuits de Kherson. Parce que le temps réel de la guerre ne laisse pas le luxe du débat philosophique. Un Shahed voyage à 150 km/h. Il faut l’intercepter en secondes, pas en minutes. L’humain dans la boucle devient un goulot d’étranglement mortel.
SECTION 3 : La quatrième loi — ce qui vient après Asimov
Quand la fiction de la robotique rencontre la réalité de la guerre
Isaac Asimov a formulé ses trois lois de la robotique en 1942. Première loi: un robot ne peut pas blesser un être humain. Deuxième loi: un robot doit obéir aux ordres donnés par les êtres humains. Troisième loi: un robot doit protéger sa propre existence. Ces trois lois constituaient un cadre philosophique rassurant — la vision d’un futur où la technologie reste servante, où la machine reste enchaînée à la volonté humaine.
En nommant sa compagnie « The Fourth Law« , Yaroslav Azhnyuk n’explique pas publiquement ce que serait cette quatrième loi. Il n’a pas besoin de le faire. Le contexte la formule pour lui: quand la survie d’un peuple est en jeu, les règles changent. Quand des milliers de drones tombent chaque mois sur des villes, quand les missiles ciblent les maternités et les sous-stations, la quatrième loi pourrait s’énoncer ainsi: un robot peut frapper un ennemi si c’est le seul moyen de protéger des innocents. Cette reformulation est compréhensible. Elle est même défendable. Et elle est potentiellement la chose la plus dangereuse que notre civilisation ait jamais décidée.
Parce que la quatrième loi ukrainienne d’aujourd’hui deviendra la doctrine de dix armées demain. Parce que ce qui est conçu pour protéger Kyiv sera vendu, copié, détourné, retourné. Parce que la machine entraînée à reconnaître un Shahed peut être réentraînée à reconnaître autre chose. La technologie n’a pas de morale intégrée. Elle hérite de celle de celui qui l’emploie.
Et c’est là le vertige. The Fourth Law construit des outils de survie pour une nation attaquée. Ce faisant, elle construit aussi le manuel de la guerre autonome pour toutes les nations qui voudront un jour attaquer.
Asimov rêvait. Azhnyuk fabrique. La différence est absolue.
Asimov écrivait de la science-fiction dans l’Amérique des années 1940. Azhnyuk construit des machines de guerre dans l’Ukraine des années 2020. Entre les deux, quatre-vingt ans de pensée abstraite sur l’éthique de la machine — et aucune institution internationale n’a réussi à créer un cadre contraignant. En novembre 2024, le groupe d’experts CCW a produit un texte évoquant des armes autonomes « prévisibles, fiables, traçables et explicables » avec un contrôle humain « adapté au contexte ». Du vocabulaire soigné. Du vide opérationnel. Pendant que des ingénieurs ukrainiens entraînaient des IA à tuer des drones.
Le Secrétaire général de l’ONU, António Guterres, réclame depuis 2018 un traité contraignant sur les systèmes d’armes létales autonomes (LAWS). Il les a qualifiés de « politiquement inacceptables et moralement répugnants ». Il a fixé une échéance à 2026 pour un accord international. Nous sommes en mars 2026. Et pourtant, il n’y a toujours pas de traité. Pas de convention. Pas de ligne rouge gravée dans le droit international. Le Zerov-8 entre en phase de test final dans ce vide juridique absolu.
SECTION 4 : L'Ukraine comme laboratoire — ce que le monde ne voit pas
Cinquante unités militaires. Le futur de la guerre se teste maintenant.
Plus de cinquante unités militaires ukrainiennes utilisent aujourd’hui les systèmes TFL de The Fourth Law. Ce chiffre dit quelque chose d’essentiel: l’autonomie des drones n’est pas un projet de laboratoire. Ce n’est pas une démonstration à une foire internationale de l’armement. C’est opérationnel. C’est sur le front. C’est maintenant. Les ingénieurs de The Fourth Law reçoivent des retours du champ de bataille en temps quasi-réel. Ils ajustent. Ils entraînent à nouveau. Ils déploient. Ce cycle d’amélioration — impossible en temps de paix, où les bureaucraties ralentissent tout — est en train de produire une accélération technologique sans précédent dans l’histoire militaire récente.
Une étude de Resilience Media sur les fabricants ukrainiens d’armes autonomes note que le pays est en train de passer à l’échelle industrielle de la production autonome. Ce qui était expérimental en 2022 est standard en 2024. Ce qui est standard en 2024 sera partout en 2026. La guerre d’Ukraine est devenue le plus grand programme de R&D militaire ouvert de l’histoire — avec de vraies cibles, de vrais adversaires, de vraies conséquences. CNN rapportait le 7 mars 2026 que l’expertise anti-drone ukrainienne commence à être étudiée pour des applications dans d’autres théâtres de conflits au Moyen-Orient.
Pendant ce temps, l’armée américaine et la FAA testaient en mars 2026 des systèmes laser anti-drones à White Sands. Un autre paradigme, une autre technologie, mais le même problème fondamental: comment arrêter une nuée de projectiles bon marché avec des systèmes coûteux et lents? La réponse ukrainienne — l’autonomie à faible coût — est en train de devenir la doctrine de référence mondiale.
Kyiv 2026. Des ingénieurs en hoodies boivent du café froid devant des écrans de code à 3h du matin, pendant que leurs algorithmes apprennent à voir dans le noir. Ce n’est pas du militarisme techno-enthousiaste. C’est la version technologique du soldat qui creuse une tranchée avec ses mains. La survie ne négocie pas avec les convictions éthiques. Elle les met en attente.
Le paradoxe de la défense juste
La guerre d’Ukraine pose un problème philosophique redoutable à tous ceux qui s’opposent aux armes létales autonomes. Le Zerov-8 n’est pas conçu pour attaquer des civils. Il est conçu pour protéger des civils des drones russes qui attaquent des villes. Son rôle est intercepteur, pas offensif. Il vole vers le danger, pas vers les immeubles résidentiels. Il est difficile de s’opposer à son existence sans paraître défendre le droit russe à continuer de pilonner les maternités ukrainiennes.
C’est précisément ce paradoxe que les partisans de l’IA militaire exploitent avec habileté dans tous les pays. « L’autonomie défensive est justifiée. » « L’IA sauve des vies en réduisant les erreurs humaines. » Ces arguments ne sont pas entièrement faux — ce qui les rend d’autant plus dangereux. Parce que la frontière entre défensif et offensif est poreuse. Parce qu’un drone-intercepteur peut être transformé en drone d’attaque avec des modifications mineures. Parce que la base d’apprentissage entraînée sur les Shahed peut être adaptée pour reconnaître d’autres formes, d’autres silhouettes, d’autres cibles. La technologie est neutre. Les intentions, non.
SECTION 5 : 2020, Libye — le premier meurtre autonome certifié
Le Kargu-2 et la nuit où tout a changé
Pour ceux qui pensent que la guerre autonome est encore théorique, rappelons un fait documenté. En 2020, en Libye, un drone turc Kargu-2 a identifié, suivi et attaqué des cibles sans intervention humaine directe. Un rapport de l’ONU de 2021 a documenté cet incident — probablement le premier cas certifié d’un système d’armes létales autonomes frappant des êtres humains sans ordre humain en temps réel. Il n’y a pas eu de traité d’urgence. Pas de moratorium international. Il y a eu du silence. Et pendant ce silence, les ingénieurs du monde entier ont pris note que la ligne avait été franchie et que personne n’avait été puni.
Ce précédent libyen est la raison pour laquelle le Zerov-8 existe aujourd’hui. Non pas que The Fourth Law s’en inspire directement — mais parce que dans le vide laissé par l’inaction internationale, chaque acteur développe ses propres règles d’engagement. L’Ukraine a des règles différentes de la Russie. La Russie a des règles différentes de la Turquie. Et demain, des acteurs non-étatiques auront des règles différentes de tous les États. Le problème n’est pas le Zerov-8. Le problème est l’architecture internationale — ou son absence — qui détermine dans quelles mains cette technologie finira.
Libye, 2020. Un drone a tué seul. Le monde a haussé les épaules. Ukraine, 2026. Des dizaines de drones autonomes sont en test final. Le monde regarde la guerre mais pas ce qu’elle fabrique.
La « responsibility gap » — quand personne ne répond d’une mort
Les juristes spécialisés en droit international humanitaire parlent du concept de « responsibility gap » — le vide de responsabilité créé par les systèmes autonomes. Quand un soldat tue illégalement, il peut être traduit en cour martiale. Quand un officier ordonne un massacre, il peut être poursuivi par la CPI. Mais quand un algorithme prend une décision létale qui cause la mort d’un civil non combattant, qui est responsable? Le programmeur? Le commandant militaire qui a autorisé le déploiement? L’investisseur qui a financé la startup? Le ministre de la défense qui a approuvé la doctrine?
Cette question n’est pas rhétorique. Elle est au cœur des travaux du groupe CCW (Convention sur certaines armes classiques) depuis 2014. Et douze ans après le début de ces travaux, en mars 2026, il n’y a toujours pas de réponse contraignante. La doctrine dominante dans les démocraties occidentales exige un « contrôle humain significatif » sur les décisions létales. Mais personne ne s’accorde sur la définition de « significatif ». Un opérateur qui approuve une cible en 0,3 secondes sur la base d’une recommandation IA — est-ce un contrôle humain significatif? Biologiquement, le cerveau humain ne peut pas évaluer une situation complexe en 0,3 secondes. L’humain dans la boucle devient une fiction légale.
SECTION 6 : Le paradoxe de l'efficacité — quand l'IA surpasse la compassion
La machine ne se fatigue pas. La machine ne pleure pas. La machine ne rate pas.
Les partisans de l’autonomie militaire avancent un argument difficile à contester sur le terrain des faits bruts: l’IA commet moins d’erreurs que l’humain sous pression. Un pilote de drone qui scrute son écran depuis douze heures, affaibli par la peur, la fatigue, le trauma — il fait des erreurs. Il confond une ambulance et un véhicule militaire. Il perd sa cible dans la fumée. Il hésite à la fraction de seconde décisive. L’algorithme ne connaît pas la fatigue de combat. Il ne souffre pas du syndrome de stress post-traumatique. Il ne tremble pas.
C’est l’argument d’efficacité pure. Et en surface, il semble pencher du côté des civils. Moins d’erreurs humaines = moins de dommages collatéraux. Et pourtant, cet argument cache une confusion fondamentale entre précision technique et jugement éthique. L’IA peut reconnaître un Shahed avec une précision extraordinaire. Mais peut-elle reconnaître le contexte dans lequel l’interception est juste? Peut-elle évaluer si la cible est piégée, si elle sert de leurre, si l’abattre créera une explosion secondaire au-dessus d’un quartier résidentiel? Le module TFL Anti-Shahed analyse la signature thermique et le comportement de vol. Il n’analyse pas les conséquences à deux ou trois niveaux de profondeur. Ce « n-niveaux » est exactement là où réside la morale.
Yaroslav Azhnyuk dit: « Nous avons entraîné le système à voir là où l’humain échoue. » Mais voir n’est pas comprendre. Détecter n’est pas juger. La machine peut voir. Elle ne peut pas peser.
La machine est plus rapide. Plus précise. Plus endurante. Elle ne regrette rien. Elle ne fait pas de cauchemars. Et c’est précisément ce qui devrait nous terrifier.
Le biais dans les données d’entraînement — qui définit l' »ennemi »?
Toute IA est le reflet de ses données d’entraînement. Le module TFL Anti-Shahed a été entraîné à reconnaître les Shahed russes. Il les reconnaît avec une efficacité supérieure aux systèmes concurrents. Mais cet entraînement est spécifique à un adversaire particulier, dans un contexte particulier. Que se passe-t-il si le système est exporté, vendu ou copié, et réentraîné dans un autre contexte? Que se passe-t-il si les données d’entraînement incluent des biais que les développeurs n’ont pas identifiés — des signatures thermiques communes à des aéronefs civils dans certaines conditions atmosphériques?
Ce n’est pas une hypothèse académique. En 2019, des experts en sécurité ont démontré que des systèmes de reconnaissance visuelle militaire pouvaient être « trompés » par des attaques adversariales — des perturbations minimes, imperceptibles pour l’œil humain, qui induisent une erreur de classification dramatique dans l’IA. Un drone civil portant un pattern spécifique pourrait, théoriquement, être classifié comme cible militaire. Dans un système entièrement autonome, cette erreur n’a pas de filet de sécurité humain.
SECTION 7 : La course aux armements IA — qui suit ?
Cinq pays. Cinq doctrines. Zéro coordination.
L’Ukraine développe le Zerov-8. La Turquie a le Kargu-2. Israël développe des systèmes autonomes depuis des années sous labels divers. La Chine investit massivement dans l’autonomie militaire avec une doctrine officiellement assumée. Les États-Unis, officiellement opposés aux LAWS sans contrôle humain, financent simultanément des programmes comme le Collaborative Combat Aircraft — des drones de combat autonomes destinés à voler en essaim avec des chasseurs F-35. L’Arms Control Association notait en janvier 2025 que les tensions géopolitiques et les priorités divergentes ont rendu la régulation « effroyablement lente« .
Voici la dynamique réelle: chaque acteur majeur attend que les autres s’engagent en premier à limiter leur autonomie militaire. Pendant que chacun attend, tout le monde développe. C’est le dilemme du prisonnier appliqué à la guerre algorithmique. Aucun État ne veut être le premier à se désarmer dans une course où le retard peut être fatal. Axon Enterprise, qui vient d’investir dans The Fourth Law, est la même compagnie qui fabrique des Tasers pour les forces de l’ordre américaines et qui avait provoqué une crise interne en 2022 lorsque des employés avaient démissionné pour protester contre un projet d’IA de reconnaissance faciale pour la police. Le transfert de technologie entre sécurité intérieure et guerre extérieure est une frontière qui disparaît.
Un dollar investi dans l’autonomie ukrainienne aujourd’hui est un manuel distribué au monde demain. C’est le calcul que font les investisseurs. C’est le calcul que ne font pas les diplomateset.
La Chine et la doctrine de l’autonomie sans complexe
Pendant que les démocraties occidentales débattent de « contrôle humain significatif », la Chine a adopté une approche radicalement différente. Dans les documents doctrinaux publiés par l’Armée Populaire de Libération, l’autonomie militaire est présentée comme une nécessité stratégique, pas comme un problème éthique. Les militaires chinois travaillent sur des essaims de milliers de micro-drones autonomes capables d’opérations coordonnées sans communication centralisée — résistants aux contre-mesures électroniques, impossible à neutraliser unitairement.
Face à cette réalité, les États-Unis ont décidé — implicitement mais clairement — qu’ils ne pouvaient pas se permettre de rester en arrière. Le programme Replicator du Pentagone vise à déployer des milliers de drones autonomes ou semi-autonomes d’ici 2025-2026. L’objectif est de compenser numériquement l’avantage chinois en quantité par une autonomie qui réduit les coûts et le besoin en opérateurs humains. La course est lancée. Le pistolet de départ est tiré depuis des années. Le débat sur les règles est une fiction qu’on entretient pour se donner bonne conscience.
SECTION 8 : Le nom et la dette — Mykola Zerov méritait mieux
Un poète comme bouclier moral
Revenons au poète. Mykola Zerov était un homme de Virgile et d’Homère. Il avait traduit les classiques grecs et latins en ukrainien avec une maestria que les contemporains comparaient aux plus grands. Il avait refusé de se plier à la Zhdanovshchina — la doctrine stalinienne qui exigeait que l’art serve l’État. Il pensait que la beauté avait une valeur intrinsèque, indépendante de son utilité politique. Le NKVD l’a arrêté en 1935. Le tribunal l’a condamné en 1937. Un peloton l’a exécuté à Sandarmokh le 3 novembre 1937.
Que signifie donner son nom à une machine de guerre? C’est un acte de mémoire, certes. C’est un acte de résistance culturelle — affirmer que la culture ukrainienne que Staline a voulu détruire est toujours vivante, toujours combative. Mais c’est aussi, involontairement, associer la beauté de la poésie à la logique de la destruction. Zerov rejetait l’instrumentalisation de l’art. Et voici son nom sur un intercepteur autonome conçu pour des collisions cinétiques à 326 km/h. L’ironie est douloureuse. Et elle dit quelque chose de vrai sur ce que la guerre exige des sociétés: qu’elles instrumentalisent tout, même leurs martyrs, même leur culture, même leur deuil.
Mykola Zerov a refusé de mettre son art au service de la guerre de l’État. Son nom sert maintenant à nommer une arme. Ce n’est pas une trahison de sa mémoire — c’est le témoignage de ce que l’agression russe continue de faire à l’Ukraine. Même les poètes morts sont enrôlés. Parce qu’il n’y a pas d’autre choix.
La Renaissance Fusillée comme avertissement permanent
La Renaissance Fusillée — Rozstriliane Vidrodzhennia en ukrainien — désigne la génération d’artistes, écrivains, poètes et penseurs ukrainiens exterminés par Staline dans les années 1930. Des centaines d’intellectuels arrêtés, déportés, exécutés. Une culture nationale décimée par l’idéologie d’un empire voisin qui refusait d’admettre que l’Ukraine pouvait avoir une identité propre, une langue propre, une pensée propre. Ce génocide culturel a précédé et accompagné le Holodomor — la famine organisée de 1932-1933 qui a tué des millions d’Ukrainiens.
En nommant ses produits après ces martyrs, The Fourth Law dit: nous combattons la même guerre. L’ennemi qui envoyait des pelotons d’exécution en 1937 envoie des Shahed en 2026. Les méthodes ont changé. L’intention — effacer l’Ukraine — reste identique. Cette lecture est historiquement défendable. Elle est aussi émotionnellement puissante. Et elle justifie, dans la psychologie collective ukrainienne, des décisions technologiques qui sans ce contexte semblerait beaucoup plus problématiques. Quand l’alternative est la disparition, les questions éthiques sur l’autonomie des armes semblent un luxe que seuls les non-attaqués peuvent se permettre.
SECTION 9 : L'investisseur Axon — quand Taser rencontre le drone
Des pistolets paralysants aux drones-tueurs : la continuité logique
Axon Enterprise est la compagnie derrière le Taser. Depuis trente ans, elle vend aux forces de l’ordre du monde entier des outils de contrainte « non létaux ». En février 2026, elle a investi — montant non divulgué — dans The Fourth Law. Ce mouvement est révélateur d’une tendance structurelle: la convergence entre les technologies de sécurité intérieure et les technologies de guerre.
En 2022, des dizaines d’ingénieurs d’Axon avaient démissionné en bloc pour protester contre un projet de Taser pour drones — l’idée de monter des pistolets paralysants sur des UAV pour contrôler des foules. La compagnie avait finalement abandonné ce projet sous la pression. Quatre ans plus tard, elle investit dans des drones autonomes conçus pour tuer d’autres drones dans un conflit armé. Le glissement est là, visible, documenté. Ce qui était inacceptable sur le territoire américain devient acceptable dans le théâtre ukrainien. Ce qui est acceptable dans le théâtre ukrainien deviendra, inévitablement, acceptable ailleurs — y compris sur le territoire américain.
Ce n’est pas de la paranoïa. C’est l’histoire normale de la technologie militaire. Le GPS a été développé par le Pentagone. Internet était ARPANET. Les drones civils de livraison sont des dérivés de l’UAV militaire. La technologie de la guerre migre toujours vers le civil — et vice versa. L’autonomie létale ne sera pas différente.
Axon voulait mettre un Taser sur un drone pour contrôler des manifestants. Le projet a été abandonné après scandale. Maintenant Axon investit dans des drones qui tuent des drones. Le prochain scandale sera plus difficile à nommer. Parce que la cible sera là-bas. Et que « là-bas » s’est toujours rapproché, dans l’histoire.
Le modèle économique de la guerre autonome
L’autonomie de premier niveau de The Fourth Law double ou quadruple les taux de réussite des missions FPV pour seulement 10% de coût supplémentaire. Ce ratio coût-efficacité est celui qui intéresse tous les ministères de la défense du monde. Ce n’est pas de la philanthropie. C’est du business. La guerre autonome est un marché. Un marché qui va croître de façon exponentielle dans les prochaines années, quelles que soient les décisions onusiennes. L’investissement d’Axon dans The Fourth Law est une prise de position sur ce marché futur — une façon de s’approprier la technologie et la doctrine avant que les concurrents ne le fassent.
Le Kyiv Post rapportait en février 2026 que cet investissement permettrait à The Fourth Law d’accélérer ses capacités R&D avec priorité sur les solutions autonomes contre les drones. Traduction concrète: plus d’ingénieurs, plus de données d’entraînement, plus de puissance de calcul, plus de cycles d’itération. La technologie va s’améliorer plus vite. Les capacités d’autonomie vont s’étendre. Et le débat international va continuer à prendre du retard sur la réalité.
SECTION 10 : Guterres, 2026 — le traité qui n'est pas venu
Une échéance ratée, un précédent catastrophique
En 2018, le Secrétaire général de l’ONU António Guterres déclarait que les systèmes d’armes létales autonomes étaient « politiquement inacceptables et moralement répugnants » et réclamait un traité international contraignant pour 2026. Nous sommes en mars 2026. Il n’y a pas de traité. Il y a un texte de travail du CCW, daté de novembre 2024, évoquant des principes d’armes « prévisibles, fiables, traçables et explicables ». Des adjectifs. Pas du droit. Pas des interdictions. Pas des sanctions.
La raison de cet échec est simple et terrible: aucune grande puissance ne veut se lier les mains dans une course où elle pense pouvoir gagner un avantage décisif. La Chine refuse tout accord qui limiterait son développement technologique. Les États-Unis refusent tout accord qui serait asymétrique par rapport à la Chine. La Russie, en guerre active avec des systèmes semi-autonomes, n’a aucun intérêt à un traité. Et les États plus petits — dont l’Ukraine — ne peuvent pas se permettre de renoncer à des technologies qui pourraient être leur seule chance de survie face à des adversaires plus grands et mieux financés.
Le résultat: le droit international des armes autonomes est une page blanche. Et pendant qu’on la laisse blanche, des ingénieurs à Kyiv, Ankara, Tel Aviv, Pékin et Arlington remplissent des lignes de code.
Guterres a eu raison sur le fond. Il avait tort sur la capacité du monde à agir. Ce n’est pas sa faute — c’est le verdict sur notre époque. Nous savons. Nous ne faisons pas. Nous documenterons les conséquences plus tard, dans des rapports très bien écrits.
La doctrine du « contrôle humain significatif » — une fiction utile
La doctrine occidentale dominante exige un « meaningful human control » — un contrôle humain significatif — sur toutes les décisions létales. Cette doctrine est utile comme principe. Elle est fictive comme pratique. Dans la réalité du combat aérien rapide, un opérateur humain qui doit confirmer chaque engagement d’un drone-intercepteur introduit un délai incompatible avec les temps de réaction nécessaires. Un Shahed à 150 km/h laisse quelques secondes d’opportunité d’interception à distance maximale.
En pratique, le « contrôle humain significatif » se traduit par: l’humain définit la zone d’engagement, les règles d’engagement, les paramètres de la cible — et l’IA exécute dans ce cadre sans confirmation en temps réel. C’est ce que le Zerov-8 en mode test final est en train de devenir. Un opérateur humain qui dit: « cherche et détruis tout Shahed dans ce rayon de 20 km. » La machine fait le reste. Est-ce du « contrôle humain significatif »? Juridiquement, peut-être. Philosophiquement, c’est déjà la délégation de la décision létale à un algorithme.
SECTION 11 : Ce que la machine ne peut pas apprendre
Le jugement, la contextualisation, le doute
Il existe des capacités humaines que l’IA actuelle ne peut pas reproduire. Non pas parce que la technologie est immature — elle matûrira. Mais parce que ces capacités sont fondamentalement différentes en nature de ce que fait un réseau de neurones artificiels. Le jugement contextualisé. La capacité d’un soldat à sentir qu’une situation ne ressemble pas à ce qu’elle paraît — qu’il y a quelque chose d’ambigu, quelque chose qui mérite une pause. Le doute moral. La friction intérieure qui ralentit la main avant qu’elle appuie sur la détente. Ce n’est pas une faiblesse. C’est le mécanisme physiologique qui a empêché des millions de catastrophes militaires.
L’IA ne doute pas. C’est sa force computationnelle. Et c’est son risque éthique absolu. Un système qui ne doute pas, dans un environnement ambigu, dans un contexte dégradé, avec des données imparfaites — un tel système peut commettre des erreurs catégoriques avec une vitesse et une échelle que l’erreur humaine ne peut pas atteindre. Un soldat qui commet une erreur tue quelques personnes. Un essaim de drones autonomes avec un bug dans leur algorithme de classification peut tuer des centaines de personnes en quelques minutes avant qu’un humain puisse intervenir.
Les théoriciens du droit humanitaire international parlent du principe de distinction — l’obligation de distinguer les combattants des civils. Cette distinction repose sur une évaluation contextuelle complexe que les juristes ont mis des décennies à codifier dans des protocoles. Un drone autonome qui « distingue » en fonction de patterns thermiques et de comportements de vol applique une approximation probabiliste de ce principe — pas le principe lui-même.
Le Zerov-8 a 0,5 kg de charge utile. Suffisant pour détruire un Shahed. Insuffisant pour questionner si la cible mérite d’être détruite. La question de légitimité n’entre pas dans les paramètres du module TFL. C’est le design. C’est aussi la limite.
L’irréversibilité — ce qu’on ne peut pas défaire
La mort est irréversible. L’erreur d’un algorithme autonome qui tue un être humain est irréversible. Aucune mise à jour logicielle ne répare un mort. C’est la dimension existentielle que les débats sur les LAWS ont tendance à traiter de façon trop abstraite. On parle de « dommages collatéraux », de « frappe précise », de « minimisation des pertes civiles » comme si ces formules anesthésiaient la réalité. La réalité, c’est une famille, un nom, une vie. Une tasse de café encore sur la table le matin où une erreur algorithmique a décidé que cette personne ressemblait à un ennemi.
Le rapport Springer Nature de 2025 sur les systèmes d’armes létales autonomes et la responsabilité morale collective pointe ce problème central: le « responsibility gap » — le vide de responsabilité — n’est pas seulement un problème juridique. C’est un problème moral. Quand personne ne peut répondre d’une mort, la mort devient administrative. Documentée. Classée. Oubliée. C’est exactement ce que Mykola Zerov a subi: sa mort était administrative pour le NKVD. Un numéro dans un registre. Ce que le Zerov-8 est conçu à prévenir, le système dont il fait partie risque de reproduire.
SECTION 12 : Le chemin que nous n'avons pas pris — et celui qui reste
Ce que la régulation efficace ressemblerait
Il serait faux de conclure que la régulation est impossible. Elle est difficile. Elle est politiquement coûteuse. Elle exige une volonté que les grandes puissances n’ont pas encore trouvée. Mais elle n’est pas impossible. La Convention sur les armes biologiques de 1972 a fonctionné — imparfaitement, mais réellement. Le Traité d’Ottawa sur les mines antipersonnel de 1997 a fonctionné — 164 États parties, des millions de mines déminées. Ces précédents montrent qu’il est possible de créer des normes contraignantes sur des technologies militaires, même en temps de tensions géopolitiques.
Ce qui manque pour les LAWS: une définition internationale précise de ce qui constitue un « système d’armes létales autonomes » — sans cette définition, chaque acteur redéfinit ses systèmes comme semi-autonomes ou assistés. Une ligne rouge claire sur l’engagement sans confirmation humaine en temps réel — pas une formule floue, une règle opérationnelle. Un mécanisme de vérification — comment savoir si un État respecte ses engagements quand les algorithmes sont du code propriétaire? Et une exemption défensive explicite et limitée — qui reconnaît le problème ukrainien tout en posant des garde-fous pour éviter la dérive offensive.
Ce cadre n’existe pas en mars 2026. Il devrait exister. Son absence n’est pas une fatalité — c’est un choix politique que nos dirigeants font chaque jour en choisissant de ne pas le construire.
Et pourtant, les ingénieurs de Kyiv n’ont pas le luxe d’attendre ce cadre. Ils vivent sous les bombardements. Pour eux, le Zerov-8 n’est pas une question philosophique — c’est la différence entre une nuit avec de l’électricité et une nuit dans le noir. Cette tension est réelle. Elle ne justifie pas l’inaction internationale. Elle l’explique, et elle l’accuse en même temps.
La responsabilité de ceux qui ne sont pas attaqués
Il y a une asymétrie fondamentale dans ce débat. Les pays qui développent les doctrines les plus prudentes sur les armes autonomes — qui appellent le plus fort à la régulation, qui votent les résolutions onusiennes les plus ambitieuses — sont généralement ceux qui n’ont pas de drones Shahed qui tombent sur leurs villes chaque nuit. C’est facile de défendre le « contrôle humain significatif » quand tes citoyens dorment dans des maisons chauffées, avec de l’électricité, sans alerte aérienne à 3h du matin.
Mais cette asymétrie ne dispense pas les nations en sécurité relative de leurs responsabilités. Au contraire. C’est précisément parce qu’ils ne sont pas sous la pression immédiate de la survie qu’ils ont la capacité de créer le cadre réglementaire que l’Ukraine ne peut pas créer dans l’urgence de la guerre. La régulation des armes autonomes ne peut pas être faite par des pays en guerre. Elle doit être faite par des pays en paix qui ont encore la capacité de la réflexion à long terme. Et ces pays choisissent, aujourd’hui, d’investir dans des startups de drones autonomes plutôt que de construire le cadre qui encadrerait ces investissements.
L’Arms Control Association notait en 2025 que les négociations à Genève sur les LAWS sont paralysées par des « tensions géopolitiques et des priorités divergentes ». Traduction: personne ne veut être le premier à renoncer à un avantage potentiel. Pendant ce temps, le Zerov-8 passe en test final. La course avance. Les règles restent à l’état de projet.
CONCLUSION : Le poète et la machine — ce qui reste après la guerre
Ce que le Zerov-8 dit de nous
Le Zerov-8 est une réponse légitime à une agression réelle. Il est le produit d’ingénieurs ukrainiens exceptionnels qui travaillent dans des conditions que peu de développeurs occidentaux peuvent imaginer. Il représente une innovation militaire genuine qui sauvera probablement des vies ukrainiennes. Toutes ces choses sont vraies en même temps que ce qui suit:
Le Zerov-8 est aussi un tournant. Le moment où la décision létale algorithmique est sortie du laboratoire pour entrer dans la doctrine. Le moment où un système entraîné sur des données ukrainiennes, financé par des capitaux américains, testé dans une guerre européenne, est devenu un modèle que vingt armées vont étudier, reproduire, améliorer, adapter. Un modèle qui sera déployé dans des contextes très différents du contexte ukrainien. Dans des contextes où les « ennemis » seront définis très différemment. Avec des données d’entraînement très différentes. Et avec des garde-fous éthiques potentiellement beaucoup moins robustes.
Mykola Zerov refusait de mettre son art au service de la guerre. L’État qui l’a tué refusait qu’il existe séparement de sa machine idéologique. Aujourd’hui, son nom orne une machine de guerre conçue pour protéger la nation que cet État voulait effacer. L’histoire se répète, se retourne, se dévore elle-même. Et pendant que nous cherchons à comprendre l’ironie de ce nom, d’autres ingénieurs dans d’autres pays regardent les spécifications du Zerov-8 et prennent des notes.
Ce n’est pas la fin de l’histoire. Ce n’est pas non plus le début. C’est le moment où nous avons eu le choix de construire des règles — et où nous avons choisi de construire des drones. L’avenir jugera ce choix. Il a toujours plus de distance pour le faire que nous.
Ce que nous devons exiger — maintenant, pas après
La fenêtre pour réguler l’autonomie militaire ne se ferme pas brusquement. Elle se rétrécit chaque mois. Chaque déploiement crée un précédent. Chaque précédent crée une doctrine. Chaque doctrine crée une norme. Et les normes militaires, une fois installées, sont extraordinairement difficiles à défaire. Nous n’avons pas démantelé les armes nucléaires après les avoir développées. Nous les avons régulées — imparfaitement, insuffisamment, mais réellement. La même chose est encore possible pour les armes autonomes — mais pas indéfiniment.
Ce que le moment exige: que les États en paix utilisent leur capacité d’action maintenant, pendant qu’il est encore temps de définir les règles. Que les investisseurs comme Axon appliquent des standards éthiques à leurs investissements de défense aussi stricts que ceux qu’ils appliquent (sous pression publique) à leurs produits de sécurité intérieure. Que les ingénieurs — comme ceux de The Fourth Law — intègrent des « garde-fous éthiques by design » dans leurs systèmes, pas comme contrainte réglementaire externe mais comme valeur fondamentale. Et que le public — nous tous — cesse de regarder la guerre comme du spectacle et commence à comprendre que la technologie qui se teste aujourd’hui à Kyiv déterminera les règles de la sécurité globale dans les prochaines décennies.
Mykola Zerov a été tué parce que personne n’a eu le courage de dire non à une machine d’État qui avait désappris à reconnaître l’humain. La question que nous pose le Zerov-8, c’est si nous allons avoir le courage que cette génération n’a pas eu.
Signé Maxime Marquette
Sources
Sources primaires
The Fourth Law — Zerov-8:
Militarnyi.com — The Fourth Law Develops Autonomous Interceptor Drone Zerov-8
Resilience Media — Ukrainian autonomy company The Fourth Law unveils an anti-Shahed drone
Unmanned Airspace — New Ukrainian Fourth Law interceptor drone features TFL Anti-Shahed AI detector
Ukrainska Pravda UK — Zerov-8 interceptor: The Fourth Law unveils new drone
Dev.ua — Ukrainian The Fourth Law presented the autonomous drone-interceptor Zerov-8
Oboronka Mezha — Zerov-8 interceptor: The Fourth Law presents a new drone
Financement Axon:
Mezha.net — Axon Invests in Ukrainian AI Drone Startup The Fourth Law
Sources secondaires
Attaques Shahed et contexte Ukraine:
United24Media — Russia Launched Record Drone and Missile Attacks on Ukraine in February 2026
Resilience Media — Ukraine’s autonomous weapons makers push for industrial scale
Pravda EN — In southern Ukraine, energy infrastructure faced significant attacks
Débat international LAWS et éthique:
Nations Unies UNODA — Lethal Autonomous Weapon Systems
Arms Control Association — Geopolitics and the Regulation of Autonomous Weapons Systems
Mykola Zerov et la Renaissance Fusillée:
Hromadske — Mykola Zerov: son of ethnic Russian shot for Ukrainian nationalism
Literary Hub — On the Ukrainian Poets Who Lived and Died Under Soviet Suppression
Contre-drones et systèmes laser:
CNN — US Military and FAA plan joint test of lasers designed to shoot down drones
DoD — JIATF-401, FAA to Conduct Advanced Counter-Drone Laser Test at White Sands Missile Range
Ce contenu a été créé avec l'aide de l'IA.