Architecture ouverte, pouvoir fermé
Le mot Lattice signifie « treillis » en anglais — une structure en réseau, interconnectée, où chaque nœud renforce l’ensemble. C’est précisément l’image qu’Anduril veut projeter. La plateforme Lattice repose sur une architecture ouverte — ce qui signifie, en théorie, qu’elle peut intégrer des équipements de différents fabricants, des capteurs variés, des systèmes hétérogènes. Elle n’est pas conçue pour verrouiller les fournisseurs mais pour les fédérer. En pratique, cela signifie que tout ce que l’armée américaine utilise — drones maritimes, terrestres, aériens, capteurs de surveillance, systèmes de communication — peut être branché sur un seul tableau de bord. Un seul point de contrôle. Une seule conscience opérationnelle assistée par l’intelligence artificielle. L’intégration porte le nom de C2 intégré — commandement et contrôle — avec des algorithmes d’IA capables d’accélérer la prise de décision sur le champ de bataille, d’identifier les menaces, de coordonner les réponses avant même qu’un humain ait eu le temps de comprendre la situation.
Le composant Lattice Mesh va encore plus loin. C’est une technologie de réseau décentralisé qui permet une distribution sécurisée des données entre services, entre plateformes, entre théâtres d’opération. Imaginez une toile d’araignée numérique recouvrant un champ de bataille entier — chaque fil transmet de l’information, chaque nœud analyse, chaque intersection décide. Ce n’est plus la guerre telle qu’on l’a connue. C’est quelque chose d’autre. Quelque chose que les théoriciens militaires appellent la guerre de réseau, et que les ingénieurs d’Anduril appellent plus simplement l’avenir.
Ce qui me trouble dans Lattice, ce n’est pas la technologie elle-même — c’est ce qu’elle présuppose. Elle présuppose qu’une machine peut traiter une situation de combat mieux qu’un humain. Peut-être. Mais une machine ne ressent pas le poids d’une décision qui coûte des vies. Et cette absence de poids — c’est peut-être là que réside le vrai danger.
La gestion autonome des essaims de drones
L’un des aspects les plus révolutionnaires — et les plus troublants — de la plateforme Lattice est sa capacité à gérer des groupes de systèmes non pilotés. Des essaims de drones. Pas un seul drone télécommandé par un opérateur humain. Des nuées entières de machines autonomes — aériennes, maritimes, terrestres — coordonnées en temps réel par un algorithme central. Le général Matt Roths, chef de la Joint Interagency Task Force 401, a qualifié ce contrat de « étape d’une importance critique dans la création d’un cadre commun d’interaction pour lutter contre les véhicules aériens non pilotés« . La formulation est prudente. La réalité qu’elle recouvre l’est beaucoup moins. Ce dont il est question, c’est de la capacité à déployer des centaines, peut-être des milliers de drones autonomes sur un théâtre d’opération, pilotés non par des humains mais par une intelligence artificielle centralisée. Personne ne peut prétendre savoir avec certitude comment se comportera un tel système dans le chaos réel d’un conflit.
Cent vingt contrats en un — la logique implacable de la consolidation
La bureaucratie comme ennemi stratégique
Pour comprendre pourquoi ce contrat est si significatif, il faut d’abord comprendre le problème qu’il prétend résoudre. L’armée américaine gérait, jusqu’à présent, plus de 120 opérations d’approvisionnement distinctes pour ses besoins en systèmes autonomes et en technologies de combat. Cent vingt contrats. Cent vingt cycles de négociation, de livraison, de maintenance. Cent vingt lignes budgétaires. Cent vingt processus de validation. Dans un monde où la guerre se joue à la vitesse des algorithmes, cette fragmentation représentait un handicap insurmontable. Des systèmes qui ne communiquaient pas entre eux. Des données qui ne se partageaient pas. Des capacités qui se développaient en silos étanches, incapables de se renforcer mutuellement. La décision de tout consolider sous Lattice est, d’abord et avant tout, une décision de survie institutionnelle. Ou plutôt : une reconnaissance tardive que la fragmentation est une forme de vulnérabilité.
Les deux périodes de cinq ans prévues par le contrat — une période de base et une option d’extension — donnent à Anduril un horizon temporel suffisant pour intégrer non seulement les systèmes existants mais aussi les développements futurs. En d’autres termes, l’armée américaine ne s’est pas contentée d’acheter une solution pour aujourd’hui. Elle a acheté un partenaire de long terme, un co-développeur de ses capacités pour la prochaine décennie. C’est une relation nouvelle, qui déplace le centre de gravité du développement militaire depuis les grandes entreprises traditionnelles vers une startup de la Silicon Valley. Ce glissement ne s’était jamais produit à cette échelle. Et il ne passera pas inaperçu.
Cent vingt contrats en un. L’efficacité administrative est indéniable. Mais ce que cette consolidation signifie réellement, c’est une concentration de pouvoir sans précédent entre les mains d’une seule entreprise privée. Une startup de dix ans qui, demain matin, sera au cœur des décisions de combat de la première armée du monde. Est-ce que quelqu’un a vraiment mesuré l’ampleur de cette dépendance ?
Le modèle prix fixe : un pari sur la prévisibilité
Le fait que ce contrat soit à prix fixe n’est pas anodin. Dans l’industrie de la défense, les contrats à prix fixe sont rares pour les projets technologiques complexes, précisément parce qu’ils transfèrent le risque financier vers le fournisseur. Si Anduril dépasse les budgets, c’est son problème, pas celui du Pentagone. Ce choix révèle quelque chose d’important sur la confiance que l’armée américaine place dans la capacité d’Anduril à livrer ce qui a été promis. Il révèle aussi la solidité financière d’une startup qui a levé des milliards de dollars auprès d’investisseurs qui ont parié sur exactement ce moment. Le modèle prix fixe force l’innovation — ou la destruction. Anduril n’a pas le luxe de prendre du retard sur des coûts dépassés. Elle doit performer. Et cette pression est, en soi, une garantie d’efficacité que les mécanismes bureaucratiques traditionnels n’ont jamais su produire.
La guerre contre les drones : le vrai déclencheur du contrat
Ukraine, Houthis, et la réalité des essaims
Pour comprendre pourquoi l’armée américaine signe ce contrat en mars 2026, il faut regarder ce qui s’est passé sur les théâtres d’opération depuis 2022. En Ukraine, les drones ont transformé la nature du combat d’une manière que personne n’avait entièrement anticipée. Des drones FPV bon marché ont détruit des chars valant des millions de dollars. Des essaims de drones ont attaqué des bases logistiques, des dépôts de munitions, des positions de commandement. Les systèmes de défense antimissile traditionnels se sont révélés inadaptés à cette nouvelle menace — trop lents, trop coûteux, conçus pour d’autres types d’adversaires. Dans le golfe d’Aden, les drones et missiles des Houthis du Yémen ont mis en évidence les mêmes vulnérabilités. Les frégates américaines ont tiré des missiles de plusieurs millions de dollars pour abattre des drones à deux mille dollars pièce. L’équation économique est absurde. Et elle est insoutenable à long terme. Le général Roths le sait. Le Pentagone le sait. C’est précisément pour cette raison que le contrat Anduril porte explicitement sur la création d’un cadre commun de lutte contre les véhicules aériens non pilotés.
Les systèmes d’Anduril sont déjà déployés en Ukraine. Le missile Barracuda et le drone Bolt-M figurent dans le portefeuille de l’entreprise. Mais c’est Lattice qui constitue la vraie réponse systémique. Plutôt que de chercher à abattre chaque drone individuellement avec des munitions coûteuses, Lattice permet de coordonner des contre-mesures multiples en temps réel — brouillage électronique, interception par drone, tir de précision — selon une logique de décision optimisée par algorithme. Le but n’est pas d’éliminer la menace drone par drone. C’est de la neutraliser en tant que système cohérent, en frappant ses points de coordination, ses relais de communication, ses centres de commande.
Ce n’est pas une abstraction militaire. Ces drones que Lattice est censé neutraliser — ils existent. Ils tuent. Ils ont changé la guerre en Ukraine d’une manière qui m’a saisi aux entrailles. Et quelque part dans cet avenir algorithmique, il y a des soldats en chair et en os dont la survie dépendra de la qualité d’un code informatique. Cette réalité-là, aucun contrat ne peut l’effacer.
La prolifération des drones comme enjeu géopolitique
La prolifération des drones militaires n’est plus une question de demain. Elle est d’aujourd’hui, brutalement présente, dans chaque conflit actif sur la planète. La Chine produit des drones militaires à une échelle industrielle. L’Iran a fourni des centaines de drones à la Russie pour frapper l’Ukraine. Des acteurs non étatiques — milices, groupes armés — utilisent des drones commerciaux modifiés avec une efficacité dévastatrice. Face à cette démocratisation de la puissance aérienne à bas coût, les armées conventionnelles ont besoin d’une réponse systémique, pas de solutions ad hoc. C’est exactement le créneau qu’Anduril occupe avec Lattice. Et c’est exactement pourquoi ce contrat dépasse largement le cadre d’un simple accord commercial entre le Pentagone et une startup. Il s’inscrit dans une stratégie globale de réponse à une transformation radicale de l’environnement sécuritaire international.
Palmer Luckey et la doctrine du "réarmement technologique"
Un fondateur qui n’a jamais caché ses ambitions
Palmer Luckey n’est pas un entrepreneur ordinaire. Fondateur de l’Oculus Rift, racheté par Facebook pour deux milliards de dollars en 2014, il a été licencié de Meta en 2017 dans des circonstances controversées — peu après avoir été impliqué dans le financement d’une organisation pro-Trump. Sa réponse a été de fonder Anduril Industries. Le nom est une référence à l’épée elfique de Tolkien — « la flamme de l’ouest ». Le symbole est délibérément martial, délibérément romantisé. Luckey a été explicite dès le début : il voulait faire ce que la Silicon Valley refusait de faire depuis que Google et Amazon avaient reculé face aux pressions internes de leurs employés sur les contrats militaires. Il voulait construire des armes. Pas des applications. Pas des plateformes. Des systèmes de combat. Et il voulait les construire avec la vitesse et l’agilité d’une startup technologique, pas avec la lenteur et les surcoûts d’un contractant défense traditionnel.
Sa doctrine peut se résumer ainsi : l’Occident démocratique a perdu son avance technologique militaire non par manque de talent ou de ressources, mais par manque de volonté de l’utiliser. Les grandes entreprises technologiques ont refusé les contrats militaires. Les contractants défense traditionnels ont optimisé pour les budgets, pas pour la performance. Le résultat est une armée américaine qui dépense des fortunes pour des systèmes inadaptés aux conflits du XXIe siècle. Luckey propose une alternative simple : des entreprises qui ont envie de gagner des guerres, qui ont la technologie pour le faire, et qui sont financièrement incitées à livrer des résultats réels. Ce contrat de 20 milliards est la validation la plus retentissante de cette doctrine.
Palmer Luckey est une figure polarisante. Il me fascine et m’inquiète en même temps. Sa lucidité sur les failles de l’industrie défense est réelle — et pertinente. Mais sa certitude que la technologie seule peut résoudre des problèmes fondamentalement humains me semble, au fond, la même illusion que celle qui a conduit la Silicon Valley à croire qu’elle pouvait « optimiser » la démocratie.
La Silicon Valley entre dans l’arsenal
Ce contrat marque un tournant dans la relation entre la culture technologique de la Silicon Valley et le complexe militaro-industriel américain. Pendant deux décennies, les grandes entreprises tech ont maintenu une distance calculée vis-à-vis du Pentagone. Google a retiré sa participation au projet Maven — un programme d’IA militaire — sous pression de ses employés. Microsoft a maintenu son contrat JEDI malgré des protestations internes. Mais l’émergence d’entreprises comme Anduril, Shield AI, Palantir ou Rebellion Defense représente une nouvelle génération de sociétés technologiques explicitement alignées sur les besoins militaires. Cette génération n’a pas honte de construire des armes. Elle considère que la supériorité technologique militaire des démocraties est une condition nécessaire à la préservation de l’ordre libéral mondial. C’est une vision du monde cohérente. Et elle est en train de remodeler le paysage de la défense américaine de manière durable.
Ce que Lattice change pour le soldat sur le terrain
De la décision humaine à l’assistance algorithmique
Au-delà des milliards et des acronymes, il y a une question concrète : qu’est-ce que Lattice change pour le soldat qui opère sur le terrain ? La réponse est complexe et mérite d’être décortiquée honnêtement. D’un côté, la plateforme promet de réduire la charge cognitive du combattant en lui fournissant, en temps réel, une image opérationnelle unifiée du champ de bataille. Au lieu de devoir synthétiser des informations fragmentées provenant de sources multiples — capteurs, drones de reconnaissance, rapports d’unités adjacentes — le commandant dispose d’une représentation intégrée, mise à jour en permanence par des algorithmes d’IA. La vitesse de décision augmente. La précision augmente. Les erreurs dues à l’information incomplète diminuent. Sur le papier, c’est une révolution. Dans la réalité du combat, les choses sont toujours plus compliquées.
Car l’autre côté de la médaille, c’est la dépendance systémique. Un soldat qui opère avec Lattice est un soldat dont les capacités sont étroitement liées à la disponibilité du réseau, à la fiabilité des capteurs, à l’intégrité des algorithmes. Si le réseau est brouillé — et les adversaires sophistiqués savent exactement comment le faire — la désorientation est totale. Si les algorithmes sont compromis — par une cyberattaque, par des données empoisonnées — les décisions qu’ils produisent peuvent être catastrophiquement mauvaises. La centralisation qui est la force de Lattice est aussi sa vulnérabilité la plus profonde. Et cette vulnérabilité a un nom : le point de défaillance unique.
J’ai pensé à ces soldats qui, demain, feront confiance à un algorithme pour leur dire où est l’ennemi, quelle menace est prioritaire, quel drone intercepter en premier. Je ne doute pas de la sophistication de la technologie. Je doute de notre capacité à anticiper tous les scénarios dans lesquels elle échouera. Et dans la guerre, l’échec ne se compte pas en bugs — il se compte en vies.
L’humain dans la boucle : question éthique centrale
La question de la place de l’humain dans la boucle décisionnelle est l’une des plus importantes que pose ce contrat. Les systèmes d’armes létaux autonomes — ceux qui peuvent identifier une cible et l’éliminer sans intervention humaine — font l’objet d’un débat intense dans les milieux juridiques, éthiques et militaires depuis plusieurs années. Le droit international humanitaire exige qu’un être humain maintienne un contrôle « significatif » sur les décisions létales. Mais qu’est-ce que le contrôle « significatif » quand un algorithme prend des décisions en millisecondes, dans un environnement saturé d’information, avec une complexité opérationnelle dépassant largement les capacités cognitives humaines ? Cette question n’est pas théorique. Elle se pose concrètement à chaque déploiement de systèmes comme Lattice. Et les réponses apportées jusqu’ici sont, pour le moins, insuffisantes.
Les alliés de l'OTAN face au défi de l'interopérabilité
Un système américain dans une alliance multinationale
L’un des enjeux les plus complexes du déploiement de Lattice à grande échelle concerne l’interopérabilité au sein de l’OTAN. L’Alliance atlantique regroupe 32 nations, chacune avec ses propres systèmes d’armement, ses propres protocoles de communication, ses propres cultures militaires. L’intégration de Lattice dans les opérations américaines crée une asymétrie potentiellement problématique : les États-Unis disposent d’une conscience opérationnelle unifiée et assistée par l’IA, tandis que leurs alliés opèrent encore avec des systèmes fragmentés et incompatibles. Soit les alliés adoptent Lattice — et deviennent dépendants d’une plateforme américaine contrôlée par une entreprise privée. Soit ils développent leurs propres équivalents — et fragmentent davantage l’espace informationnel de l’Alliance. Les deux options posent des problèmes de souveraineté numérique qui n’ont pas encore trouvé de réponse satisfaisante au sein des structures de l’OTAN.
Le Royaume-Uni et l’Australie, dans le cadre du partenariat AUKUS, ont déjà commencé à explorer des formes d’intégration avec des systèmes d’IA militaires américains. Mais la question de savoir qui contrôle les données, qui accède aux algorithmes, qui peut modifier les paramètres de décision reste fondamentalement ouverte. Dans un contexte où la souveraineté technologique est devenue un enjeu géopolitique de premier plan — comme l’a montré le débat européen sur Huawei et les réseaux 5G — la dépendance à une plateforme d’IA militaire américaine gérée par une startup privée soulève des questions que personne ne pose encore assez fort.
L’Europe est, comme toujours dans ces moments décisifs, en retard d’une guerre. Pendant que les Américains consolident leur architecture de combat autour de l’IA, les armées européennes débattent encore de leurs budgets de défense. Ce n’est pas un jugement — c’est une observation douloureuse. L’écart technologique qui se creuse aujourd’hui sera très difficile à combler demain.
La réponse chinoise et russe
Il serait naïf d’analyser ce contrat sans considérer la réaction qu’il provoquera à Pékin et à Moscou. La Chine a investi massivement dans le développement de systèmes d’IA militaires et de drones autonomes. Son programme de fusion civilo-militaire intègre les ressources des entreprises technologiques privées dans la stratégie de modernisation de l’Armée populaire de libération. L’annonce d’un contrat Anduril de 20 milliards sera perçue à Pékin non comme une menace immédiate, mais comme une confirmation de ce que les planificateurs militaires chinois anticipaient déjà : la compétition technologique militaire entre les États-Unis et la Chine est entrée dans sa phase décisive. La réponse sera une accélération des programmes chinois équivalents. Du côté russe, la leçon tirée du conflit ukrainien — où les systèmes Anduril sont déjà actifs — alimentera également une course à la contre-mesure électronique et au développement de drones capables de saturer les défenses Lattice.
Le débat éthique sur l'IA militaire que personne ne veut avoir
Des règles qui n’existent pas encore
Il existe un paradoxe saisissant au cœur de ce contrat. L’armée américaine déploie un système d’IA capable de coordonner des armes létales autonomes à une échelle sans précédent — et il n’existe à ce jour aucun cadre juridique international contraignant qui régule spécifiquement ces systèmes. Les Conventions de Genève ont été négociées à une époque où l’idée d’une machine décidant de tuer était de la science-fiction. Le droit humanitaire international parle de « discrimination » et de « proportionnalité » — des concepts profondément humains, qui présupposent un jugement que les algorithmes ne possèdent pas de la même manière. Des discussions ont lieu à l’ONU depuis plusieurs années sur la régulation des systèmes d’armes létaux autonomes. Elles n’ont abouti à rien. Et pendant que les diplomates débattent, des contrats comme celui-ci sont signés, des systèmes sont déployés, des précédents sont créés.
Le Comité international de la Croix-Rouge a appelé à plusieurs reprises à l’interdiction des systèmes d’armes entièrement autonomes — ceux qui peuvent identifier une cible et l’engager sans décision humaine. Mais la définition même de « entièrement autonome » est contestée. Quand un humain approuve une règle d’engagement générale et qu’un algorithme applique cette règle dans le chaos de la bataille, le système est-il autonome ? Anduril et le Pentagone affirment que Lattice maintient toujours un humain dans la boucle. Mais cette affirmation mérite d’être scrutée avec une rigueur bien plus grande que celle qui est actuellement appliquée.
Le silence institutionnel sur ces questions m’exaspère et m’alarme. Nous sommes en train de construire les règles de la guerre de demain par défaut — non pas en décidant consciemment de ce que nous voulons permettre, mais en laissant les contrats signer à notre place. Ce n’est pas une politique. C’est une abdication.
La responsabilité en cas d’erreur algorithmique
La question de la responsabilité juridique en cas d’erreur létale d’un système comme Lattice est l’une des plus épineuses que pose cette nouvelle ère de la guerre algorithmique. Si un algorithme d’IA coordonné par Lattice identifie par erreur un hôpital comme une cible militaire et dirige des systèmes autonomes contre lui — qui est responsable ? Le soldat qui a approuvé les règles d’engagement générales ? Le commandant qui a déployé le système ? Les ingénieurs d’Anduril qui ont conçu l’algorithme ? Le gouvernement américain qui a signé le contrat ? Ces questions ne sont pas théoriques. Dans le contexte des conflits actuels, où des erreurs de ciblage ont déjà causé des victimes civiles massives même avec des systèmes à supervision humaine directe, la délégation de décisions tactiques à des algorithmes multiplie de manière exponentielle le risque d’erreurs aux conséquences catastrophiques — et juridiquement non imputables.
L'industrie de la défense traditionnelle face à sa propre obsolescence
Lockheed, Raytheon, Boeing : les dinosaures et le météore
Pour les grands contractants défense traditionnels — Lockheed Martin, Raytheon, Northrop Grumman, Boeing — ce contrat est un signal d’alarme. Pas parce qu’ils perdent un contrat spécifique. Mais parce qu’il illustre un changement structurel dans la manière dont le Pentagone pense son approvisionnement. Ces entreprises ont bâti leur domination sur des relations institutionnelles de plusieurs décennies, sur la capacité à gérer des programmes d’armement colossaux sur des durées de 20 à 30 ans, sur leur compréhension intime des processus bureaucratiques du Pentagone. Ce modèle fonctionnait dans un monde où les cycles d’innovation militaire se comptaient en décennies. Il est de moins en moins adapté à un monde où ils se comptent en années — voire en mois. Anduril a livré une plateforme opérationnelle en moins de dix ans d’existence. Lockheed Martin met encore vingt ans à développer un avion de chasse.
La riposte des grands contractants est en cours. Raytheon a restructuré ses divisions pour mieux intégrer les technologies d’IA. Northrop Grumman investit massivement dans les systèmes autonomes. Boeing développe ses propres drones de combat. Mais ils partent de loin, avec des cultures d’entreprise profondément hostiles à la vitesse d’exécution que requiert la technologie logicielle. Le contrat Anduril est peut-être le premier signal d’un basculement structurel dans l’industrie de la défense — du hardware vers le software, de la plateforme vers la plateforme-service, du produit vers l’écosystème.
Il y a quelque chose d’ironique — et d’un peu vertigineux — dans le fait que l’armée la plus puissante du monde soit en train de confier l’architecture de sa puissance à une entreprise qui n’existait pas il y a dix ans. L’ironie serait légère si les enjeux ne l’étaient pas autant. Mais quand on parle de guerre, de vies, de souveraineté — la vitesse d’innovation a un coût que les bilans financiers ne capturent pas.
L’économie du contrat : vingt milliards bien dépensés ?
La question de la valeur du contrat mérite une analyse froide. Vingt milliards de dollars sur dix ans, c’est deux milliards par an. Pour l’armée américaine, qui dépense environ 800 milliards de dollars par an en défense, c’est moins d’un quart de un pour cent du budget annuel. Mis en perspective, c’est moins que le coût d’un seul programme F-35, qui a déjà dépassé les 400 milliards de dollars. Et pourtant, si Lattice fonctionne comme promis, son impact sur les capacités opérationnelles de l’armée américaine sera sans commune mesure avec ces chiffres. C’est le paradoxe de l’économie du software militaire : le coût marginal est faible, mais l’effet de levier est immense. Un algorithme qui améliore de 10% la précision des frappes, qui réduit de 20% le temps de réponse aux menaces de drones, qui permet de coordonner des essaims de cent drones au lieu de dix — ces gains se chiffrent non pas en milliards mais en vies sauvées, en batailles gagnées, en adversaires dissuadés.
Les leçons d'Ukraine : le laboratoire qui a tout changé
Trois ans de guerre, une décennie d’apprentissage
Il est impossible de comprendre ce contrat sans mesurer l’impact que le conflit en Ukraine a eu sur la pensée militaire américaine. Depuis le 24 février 2022, le champ de bataille ukrainien est devenu le plus grand laboratoire de guerre moderne que le monde ait jamais vu. Chaque semaine apporte de nouvelles leçons sur l’efficacité des drones, les limites des défenses antimissile conventionnelles, la valeur de la guerre électronique, le rôle des systèmes autonomes dans le combat moderne. L’armée américaine observe, analyse, adapte. Et ce qu’elle observe en Ukraine a directement influencé la décision de signer avec Anduril. Les drones ukrainiens fabriqués artisanalement ont démontré que la suprématie technologique ne garantit plus la supériorité tactique. Les systèmes Anduril déjà déployés en Ukraine ont montré leur efficacité dans des conditions réelles de combat. Ce contrat est, en partie, la formalisation d’enseignements tirés du terrain.
Le Barracuda et le Bolt-M d’Anduril ne sont pas des prototypes de laboratoire. Ce sont des systèmes testés en conditions réelles, contre un adversaire sophistiqué disposant de capacités de guerre électronique avancées. Cette validation terrain est précieuse. Elle donne au contrat une crédibilité que des promesses de performance en simulateur n’auraient jamais pu fournir. Et elle donne à Anduril une légitimité opérationnelle que ses concurrents traditionnels, qui n’ont pas leurs systèmes en combat réel actif, ne peuvent pas revendiquer.
L’Ukraine a payé un prix inconcevable pour que le monde comprenne comment la guerre a changé. Chaque donnée militaire extraite de ce conflit est trempée dans le sang de ceux qui l’ont vécue. Il me semble important de ne jamais oublier cela quand on parle de « leçons apprises » et de « contrats validés par le terrain ».
La défense contre-drone comme priorité absolue
Si un seul concept résume l’urgence qui sous-tend ce contrat, c’est celui de la défense contre-drone. La multiplication des véhicules aériens non pilotés sur les champs de bataille contemporains a créé une menace asymétrique que les armées conventionnelles peinent encore à absorber. Des drones à mille dollars peuvent neutraliser des équipements à plusieurs millions. Des essaims de drones peuvent saturer les défenses les plus sophistiquées. Et la cadence d’innovation dans ce domaine est vertigineuse — ce qui était une capacité exclusive aux États nations il y a cinq ans est aujourd’hui à la portée d’acteurs non étatiques avec un accès minimal aux marchés commerciaux. Lattice, tel que décrit par le général Roths, est conçu précisément pour répondre à cette menace — pas de manière isolée, mais de manière systémique, en créant un cadre d’interopérabilité qui permet à des systèmes hétérogènes de se coordonner automatiquement contre une menace distribuée.
Les risques géopolitiques d'une armée privatisée par algorithme
Quand une startup détient les clés du Pentagone
Il y a une question que peu de gens osent poser franchement : que se passe-t-il quand une entreprise privée devient le fournisseur central de l’architecture de décision d’une armée nationale ? La relation entre Anduril et l’armée américaine crée une dépendance d’un genre nouveau — non pas la dépendance à un équipement qui peut être remplacé, mais la dépendance à une plateforme logicielle intégrée, dont la compréhension intime réside dans les serveurs d’une entreprise privée cotée en bourse, soumise à des pressions d’actionnaires, potentiellement sujette à des rachats ou à des changements de direction. Les secrets d’État, les stratégies militaires, les vulnérabilités des systèmes adverses — tout cela passe désormais par les algorithmes d’Anduril. Cette concentration est-elle acceptable ? La question mérite une réponse démocratique, pas seulement un contrat de dix ans.
La comparaison avec d’autres formes de privatisation militaire est instructive. Les sociétés militaires privées — Blackwater et ses successeurs — ont fait l’objet de scandales et de controverses profonds. La sous-traitance de fonctions logistiques critiques a créé des angles morts dans la responsabilité démocratique. La privatisation de l’architecture de commandement et de contrôle — ce que représente fondamentalement le contrat Lattice — est d’un ordre de magnitude différent. Ce n’est pas la logistique qui est externalisée. C’est le cerveau opérationnel. Et cette distinction devrait nous maintenir éveillés.
Je ne dis pas qu’Anduril est malveillante. Je dis que concentrer autant de pouvoir dans les mains d’une seule entité privée — aussi compétente soit-elle — crée des risques structurels que nous n’avons pas encore pleinement identifiés. La démocratie a besoin de garde-fous. Même — surtout — quand les résultats à court terme semblent excellents.
Le spectre de la cyberattaque systémique
La centralisation de l’architecture de combat autour de Lattice crée un vecteur d’attaque d’une attractivité irrésistible pour les adversaires des États-Unis. Une cyberattaque réussie contre Lattice ne compromettrait pas un système isolé. Elle compromettrait potentiellement l’ensemble de l’architecture opérationnelle de l’armée américaine déployée sur un théâtre donné. Les équipes de cybersécurité d’Anduril sont sans doute parmi les meilleures au monde — la société recrute dans les plus hauts niveaux de la communauté du renseignement américain. Mais « parmi les meilleures » ne signifie pas « infaillibles ». Les services de renseignement russes et chinois ont démontré à de multiples reprises leur capacité à pénétrer des systèmes considérés comme hautement sécurisés. L’attaque SolarWinds de 2020, qui a compromis des dizaines d’agences gouvernementales américaines via une mise à jour logicielle routine, est le modèle de ce dont il faut se protéger. Et Lattice, en tant que plateforme centralisée mise à jour régulièrement, partage exactement la même surface d’attaque.
Ce que les rivaux observent depuis Pékin et Moscou
La lecture stratégique adversaire
Depuis les salles d’analyse de Pékin, ce contrat sera lu avec une attention minutieuse. Les analystes militaires de l’APL — l’Armée populaire de libération — ont publié abondamment sur la nécessité pour la Chine de développer ses propres équivalents à Lattice dans le cadre de ce qu’ils appellent la guerre « intelligentisée ». Le programme IA militaire chinois, centralisé autour du CASC et de sociétés comme DJI, AVIC et d’autres, progresse à une vitesse que les observateurs occidentaux tardent souvent à reconnaître. La réponse de Pékin à ce contrat ne sera pas publique et ne sera pas immédiate. Elle se manifestera dans des programmes de développement accélérés, dans des allocations budgétaires discrètes, dans des partenariats industriels qui ne feront la une des journaux que plusieurs années plus tard. De Moscou, la lecture sera différente — plus immédiate, plus liée à l’expérience concrète du conflit ukrainien. Les ingénieurs russes qui ont observé les systèmes Anduril en action en Ukraine savent exactement ce à quoi ils font face. Et ils ont eu plusieurs années pour développer des contre-mesures spécifiques.
Cette dynamique de course technologique — dans laquelle chaque avancée provoque une réponse adverse qui provoque à son tour une nouvelle avancée — est le moteur de l’accélération militaire technologique depuis un siècle. Lattice n’y échappe pas. En signant ce contrat, l’armée américaine accepte de s’engager dans cette course à une échelle et à une vitesse sans précédent. Elle parie que ses ressources et son avance technologique actuelle lui permettront de maintenir une supériorité durable. C’est un pari raisonnable. Ce n’est pas une certitude.
Les courses aux armements ne finissent pas bien pour ceux qui y participent. L’histoire du XXe siècle l’a enseigné avec suffisamment de clarté pour qu’on ne soit pas contraints d’apprendre la leçon une fois de plus. Et pourtant, face à des adversaires qui ne partagent pas ces réserves, l’abstention unilatérale équivaut à la défaite. C’est le dilemme central de la sécurité internationale — et Lattice n’y apporte pas de réponse.
L’équilibre des forces et la dissuasion algorithmique
La théorie de la dissuasion a gouverné la stratégie militaire des grandes puissances depuis la Guerre froide. Elle repose sur l’idée qu’un adversaire rationnel n’attaquera pas s’il est convaincu que le coût de l’attaque dépasse ses bénéfices potentiels. La dissuasion nucléaire a fonctionné parce que le coût d’une attaque nucléaire est existentiel et certain. La dissuasion conventionnelle est plus complexe, plus subtile, plus sujette aux erreurs de calcul. Dans quelle mesure Lattice renforce-t-il la dissuasion américaine ? En théorie, en rendant les forces américaines plus réactives, plus coordonnées, plus efficaces, il élève le coût perçu d’une attaque contre elles. En pratique, les effets sur la perception adverse sont difficiles à prévoir. Un adversaire qui pense que Lattice crée une fenêtre de vulnérabilité — parce qu’il croit pouvoir le compromettre avant qu’il soit pleinement déployé — pourrait paradoxalement être incité à agir plus tôt. Ces calculs sont spéculatifs. Mais ils sont exactement du type que font les planificateurs militaires de toutes les grandes puissances en ce moment.
La course réglementaire et le vide juridique international
Des traités pour une autre époque
Le droit international de la guerre a été construit autour de présupposés fondamentaux qui ne tiennent plus dans le contexte de la guerre algorithmique. Le principe de distinction — qui oblige à distinguer combattants et civils — suppose un agent moral capable de faire ce jugement. Le principe de proportionnalité — qui exige que les pertes civiles ne soient pas disproportionnées par rapport à l’avantage militaire — suppose un décideur capable d’évaluer cette proportion dans le contexte complet de la situation. Les algorithmes peuvent être entraînés pour optimiser ces principes dans des scénarios prédéfinis. Ils ne peuvent pas, actuellement, exercer un jugement moral dans des situations réellement inédites. C’est le gouffre béant entre le droit humanitaire international existant et la réalité que des contrats comme celui d’Anduril sont en train de créer. Et ce gouffre se creuse à une vitesse que le droit international n’a aucune chance de suivre sans une volonté politique dont aucune grande puissance ne fait preuve aujourd’hui.
Les Nations Unies ont tenu plusieurs cycles de négociations sur les systèmes d’armes létaux autonomes dans le cadre de la Convention sur certaines armes classiques. Ces discussions ont produit des recommandations non contraignantes, des principes généraux, et beaucoup de divergences. La Russie et les États-Unis s’opposent à tout traité contraignant qui limiterait leur liberté de développement. La Chine soutient des principes généraux tout en continuant à développer activement des systèmes autonomes. L’Union européenne plaide pour une réglementation plus stricte. L’impasse est totale. Et pendant ce temps, des contrats de vingt milliards se signent.
Je suis frappé par le contraste saisissant entre la vitesse à laquelle ces technologies se développent et déploient, et la lenteur absolue avec laquelle les institutions internationales tentent de les encadrer. Ce n’est pas de la mauvaise volonté. C’est une inadéquation structurelle entre les outils que nous avons construits pour gouverner le monde et la réalité de ce monde. Et c’est profondément inquiétant.
L’urgence d’un nouveau cadre éthique et juridique
L’urgence d’un cadre éthique et juridique adapté à la guerre algorithmique n’a jamais été aussi criante. Ce cadre ne peut pas être laissé aux seules armées ou aux seules entreprises technologiques — même de bonne foi, leurs intérêts institutionnels les poussent à maximiser leur liberté d’action plutôt qu’à la contraindre. Il ne peut pas non plus être laissé aux seuls juristes internationalistes, qui manquent souvent de la compréhension technique nécessaire pour réguler des systèmes qu’ils ne comprennent pas. Ce qu’il faut, c’est un dialogue réel entre ingénieurs, militaires, juristes, philosophes et représentants de la société civile — un dialogue mené avec urgence, informé par les réalités du terrain, et aboutissant à des règles contraignantes que les grandes puissances seraient incitées à respecter. Est-ce utopique ? Peut-être. Mais l’alternative — laisser les algorithmes définir les règles de la guerre par défaut — est infiniment plus dangereuse.
Vers une gouvernance mondiale de la guerre algorithmique
Le moment d’agir avant qu’il soit trop tard
Si le contrat Anduril illustre avec éclat les capacités technologiques américaines, il souligne avec une égale force l’absence criante de gouvernance internationale sur ces systèmes. L’histoire a montré que les technologies militaires révolutionnaires — de la dynamite à l’arme chimique, de la bombe à fragmentation aux mines antipersonnel — peuvent être régulées quand la volonté politique existe. Le Traité d’Ottawa sur les mines antipersonnel a été négocié en moins de deux ans, avec une participation de 122 nations. Ce modèle est reproductible pour les systèmes d’armes létaux autonomes. Il n’est pas reproductible sans une pression populaire et politique que nous n’avons pas encore vue se manifester à l’échelle requise. La communauté internationale dispose d’une fenêtre d’action — étroite, peut-être déjà en train de se fermer — pour établir des normes minimales avant que la prolifération des systèmes comme Lattice ne rende toute régulation caduque.
Ces normes ne doivent pas interdire l’innovation militaire légitime. Elles doivent garantir que l’humain reste décisionnaire sur les actes létaux, que la responsabilité juridique reste traçable, que les erreurs algorithmiques ont des conséquences légales pour leurs concepteurs et leurs utilisateurs. C’est exigeant. C’est nécessaire. C’est ce que nos valeurs démocratiques imposent — si nous choisissons de les défendre aussi fermement que nous défendons nos frontières. Et pourtant, la guerre algorithmique n’est pas une affaire de spécialistes. Elle concerne chaque citoyen de chaque démocratie, parce que c’est en leur nom que ces armes seront déployées, avec leurs impôts qu’elles seront financées, et selon leurs valeurs qu’elles seront programmées. Exiger un débat démocratique sérieux sur les limites éthiques des systèmes d’armes autonomes n’est pas de l’angélisme. C’est l’exercice normal de la souveraineté populaire.
Je mesure l’inconfort de cette position : exiger une régulation internationale dans un monde où les adversaires des démocraties ne respectent pas les règles existantes. Mais abaisser nos propres standards éthiques pour correspondre à ceux de nos adversaires, c’est leur offrir une victoire que les armes seules ne pourraient pas leur donner. C’est perdre ce pour quoi nous disons nous battre.
Les citoyens comme acteurs de cette gouvernance
Les parlements ont le devoir d’auditionner des experts, de légiférer sur ces questions, de créer des mécanismes de surveillance indépendants. Les médias ont le devoir d’informer, de vulgariser, de rendre ces enjeux accessibles. Et les citoyens ont le devoir de s’y intéresser — parce que ce qui se décide aujourd’hui dans les couloirs du Pentagone et les bureaux d’Anduril façonnera le monde que nous transmettrons à ceux qui viendront après nous. La démocratie n’est pas un spectateur de l’histoire militaire. Elle en est — ou devrait en être — l’autrice. Ce contrat de vingt milliards nous rappelle avec une brutalité salutaire que nous avons laissé d’autres écrire à notre place.
Conclusion : l'avenir que nous sommes en train de choisir
Un choix de civilisation déguisé en contrat d’armement
Ce contrat de vingt milliards entre l’armée américaine et Anduril est bien plus qu’un accord commercial. C’est un acte fondateur. Il marque le moment où la première armée du monde a officiellement décidé de déléguer l’architecture de sa puissance de combat à une intelligence artificielle coordonnée par une entreprise privée. Ce moment aura des résonances pour des décennies. Il définira des précédents que d’autres armées — chinoises, russes, européennes — suivront. Il ouvrira des questions éthiques que nos sociétés démocratiques ne peuvent plus se permettre d’esquiver. Et il révèle, avec une clarté brutale, que nous sommes entrés dans une ère nouvelle — celle de la guerre algorithmique — sans vraiment avoir décidé collectivement si c’était l’ère que nous voulions habiter.
La technologie Lattice est réelle. Sa performance opérationnelle est réelle. L’urgence sécuritaire à laquelle elle répond est réelle. Je ne remets pas en cause la nécessité pour les États-Unis — et pour les démocraties en général — de développer des capacités militaires adaptées aux menaces du XXIe siècle. Ce que je remets en cause, c’est l’absence de délibération démocratique sérieuse sur les limites que nous voulons imposer à ces systèmes. Sur les valeurs que nous refusons de sacrifier à l’autel de l’efficacité opérationnelle. Sur la définition de ce que signifie encore « contrôle humain » quand les décisions se prennent en millisecondes. Et pourtant, le temps presse. Et pourtant, les adversaires n’attendent pas. Et pourtant, cette tension entre efficacité et éthique est précisément celle que les démocraties ont toujours eu à gérer — et qu’elles ne peuvent pas déléguer à un algorithme.
Je ne sais pas si Lattice va rendre le monde plus sûr ou plus dangereux. Personne ne le sait vraiment. Ce que je sais, c’est que la façon dont nous répondrons à cette question — comme citoyens, comme démocraties, comme espèce capable de réflexion morale — définira qui nous sommes. Pas seulement ce que nous pouvons faire. Qui nous choisissons d’être. Et cette question-là, aucune intelligence artificielle ne peut y répondre à notre place.
La chute du rideau sur l’ancienne guerre
L’armée qui existait avant le 13 mars 2026 et celle qui existe après ne sont pas tout à fait la même. Un seuil a été franchi. Pas dans le bruit des explosions ou le fracas des batailles, mais dans le silence discret d’un contrat signé entre fonctionnaires et ingénieurs. C’est souvent ainsi que les révolutions militaires opèrent — pas en fanfare, mais en décisions administratives qui semblent techniques jusqu’à ce qu’on mesure leur portée réelle. La poudre à canon a changé la guerre. La mitrailleuse l’a changée. L’avion, la bombe atomique, le missile guidé. Chaque fois, des institutions se sont adaptées, des doctrines ont été réécrites, des équilibres de pouvoir ont basculé. Lattice n’est peut-être pas dans la même catégorie. Ou peut-être qu’il l’est. Nous le saurons dans dix ans. Ce qui est certain, c’est que nous ne pouvons pas prétendre que nous n’avions pas le choix de nous en préoccuper aujourd’hui.
Signé Maxime Marquette
Sources
Sources primaires
Sources secondaires
Département de la Défense des États-Unis — communiqués officiels, mars 2026
Reuters — couverture industrie défense et intelligence artificielle militaire, 2025-2026
Ce contenu a été créé avec l'aide de l'IA.