Le cerveau numérique de l’opération Epic Fury
Il s’appelle Maven Smart System. Développé par Palantir Technologies, il constitue le centre nerveux numérique de l’opération contre l’Iran. Ce n’est pas un simple outil. C’est une plateforme de contrôle de mission alimentée par plus de cent cinquante sources de données distinctes : satellites, drones de reconnaissance, interceptions de communications, renseignement électromagnétique, imagerie thermique. Le système analyse en temps réel des volumes de données qu’un analyste humain mettrait des semaines à traiter. Il identifie des véhicules, des bâtiments, des infrastructures militaires. Il recommande des cibles. Il les géolocalise au mètre près. Il les priorise selon leur importance stratégique. Et il propose l’armement adapté à chaque objectif. Pendant la phase initiale de l’opération Epic Fury, Maven a généré et priorisé plus de mille cibles potentielles en vingt-quatre heures.
Il y a vingt ans, identifier mille cibles prenait des semaines de travail pour des dizaines d’analystes. Aujourd’hui, un algorithme le fait pendant que vous prenez votre café du matin. Et pourtant, derrière chaque point lumineux sur l’écran, il y a un bâtiment. Dans ce bâtiment, peut-être une famille.
La chaîne de la mort compressée à l’extrême
Les spécialistes militaires utilisent un terme technique : la kill chain, la chaîne de destruction. C’est la séquence complète qui va de la détection d’une cible à sa neutralisation. Historiquement, cette chaîne se mesurait en heures, parfois en jours. Lors de la première guerre du Golfe en 1991, le cycle complet pouvait prendre soixante-douze heures. En 2003, les progrès technologiques l’avaient réduit à quelques heures. En février 2026, cette chaîne s’est compressée à quelques minutes. Parfois quelques secondes. Le Pentagone a confirmé que les outils d’intelligence artificielle jouent un rôle critique en effectuant le tri initial des données entrantes, permettant aux analystes humains de se concentrer sur la vérification de haut niveau. Mais quand le tri initial à lui seul génère mille recommandations en vingt-quatre heures, la vérification humaine devient un goulot d’étranglement. Un goulot que la pression opérationnelle pousse à élargir toujours davantage.
Le fantôme de Shock and Awe
Irak 2003 contre Iran 2026, deux guerres et un gouffre technologique
La comparaison entre l’Irak de 2003 et l’Iran de 2026 n’est pas qu’un exercice académique. Elle révèle l’accélération vertigineuse de la capacité de destruction occidentale en vingt-trois ans. En mars 2003, l’opération Shock and Awe avait mobilisé 504 missiles de croisière et environ 1 700 sorties aériennes sur plusieurs jours. L’objectif était la sidération psychologique de l’adversaire. En février 2026, les forces américano-israéliennes ont dépassé ce volume en une seule journée. L’amiral Cooper du CENTCOM a déclaré qu’il ne restait pas un seul navire iranien en mer dans le golfe Persique, le détroit d’Ormuz ou le golfe d’Oman. Plus de trente bâtiments de la marine iranienne détruits. Une vague de cinquante chasseurs déployée pour atteindre le bunker souterrain du Guide suprême à Téhéran. En une semaine, les lancements de missiles balistiques iraniens avaient été réduits de quatre-vingt-six pour cent.
Shock and Awe promettait la sidération. Epic Fury l’a rendue obsolète. Ce qui prenait des semaines en 2003 prend désormais des heures. Et pourtant, la seule chose qui n’a pas accéléré, c’est le temps nécessaire pour comprendre ce qu’on est en train de détruire.
La doctrine de la vitesse absolue
Ce qui distingue fondamentalement 2026 de 2003, ce n’est pas seulement la puissance de feu. C’est la philosophie opérationnelle. En Irak, la doctrine visait la paralysie de l’adversaire par la destruction simultanée de ses centres de commandement. En Iran, la doctrine vise quelque chose de plus radical : la compression temporelle de la guerre elle-même. Frapper si vite que l’adversaire n’a pas le temps de riposter. Frapper si fort que sa capacité de représailles s’effondre avant même d’être pleinement mobilisée. L’Iran a tout de même répondu, lançant plus de cinq cents missiles balistiques et navals et près de deux mille drones depuis le 28 février. Quarante pour cent vers Israël. Soixante pour cent vers les forces américaines dans la région. Mais la courbe de lancement s’est effondrée en quelques jours. La machine a fait ce qu’elle devait faire.
L'intelligence artificielle ne dort jamais
Cent cinquante flux de données, zéro fatigue
Un analyste du renseignement travaille en moyenne douze heures par jour en temps de guerre. Après la sixième heure, sa capacité cognitive commence à décliner. Après la dixième, les erreurs se multiplient. L’intelligence artificielle intégrée au Maven Smart System ne connaît ni fatigue, ni baisse d’attention, ni biais émotionnel. Elle traite cent cinquante flux de données avec la même acuité à trois heures du matin qu’à midi. C’est précisément cet avantage qui a permis le tempo opérationnel sans précédent de l’opération Epic Fury. Le système Maven, alimenté entre autres par le modèle de langage Claude d’Anthropic, a non seulement suggéré des centaines de cibles mais a fourni des coordonnées géographiques précises et des ordres de priorité. Le Washington Post a rapporté que cette intégration de l’IA est devenue centrale dans les opérations américaines contre l’Iran.
La machine ne pleure pas. La machine ne doute pas. La machine ne se demande pas si le bâtiment qu’elle vient de recommander pour destruction abritait une école il y a encore trois mois. La machine fait ce pour quoi elle a été conçue : optimiser la mort. Et elle le fait remarquablement bien.
La compression des décisions, le nouveau péril
Les experts en sécurité ont identifié un phénomène qu’ils appellent la compression décisionnelle. Quand l’IA génère des recommandations de frappe à un rythme que les humains ne peuvent physiquement pas suivre, deux choses se produisent. Soit on ralentit la machine pour permettre une vérification humaine adéquate, et on perd l’avantage de vitesse. Soit on accélère la validation humaine pour suivre le rythme de la machine, et on réduit le temps de réflexion à presque rien. Le Pentagone insiste sur le fait que la sélection des cibles repose sur un processus juridique rigoureux impliquant des commandants et des responsables. Et pourtant, mille frappes en vingt-quatre heures laissent en moyenne quatre-vingt-six secondes par décision. Combien de ces quatre-vingt-six secondes sont réellement consacrées à la vérification juridique ? Combien à la considération éthique ? Combien au simple fait de se demander si la cible recommandée par l’algorithme est vraiment ce que l’algorithme dit qu’elle est ?
Le prix humain de la vitesse
Les chiffres que les algorithmes ne calculent pas
Au septième jour de l’opération Epic Fury, les organisations de défense des droits humains ont commencé à compiler un bilan. Les chiffres sont contestés, partiels, impossibles à vérifier dans un pays sous bombardement. Mais ils existent. L’agence HRANA a documenté plus de mille quatre-vingt-dix-sept morts civils et plus de cinq mille blessés dans les cinq premiers jours. Parmi eux, cent quatre-vingt-un enfants de moins de dix ans. À Minab, dans le sud de l’Iran, le premier jour de la guerre, un missile a frappé une école primaire. Cent soixante-quinze élèves et membres du personnel sont morts. Cent soixante-quinze. Le Maven Smart System avait-il classé ce bâtiment comme cible militaire ? Un analyste humain avait-il eu le temps de vérifier ? Ou bien, dans la frénésie des mille cibles quotidiennes, cette vérification avait-elle été compressée elle aussi, réduite à un regard de quelques secondes sur un écran où tous les bâtiments se ressemblent ?
Cent soixante-quinze enfants. L’algorithme les a peut-être comptés comme des dommages collatéraux statistiquement acceptables. Mais chacun de ces enfants avait un prénom. Chacun avait un cartable. Chacun avait des parents qui l’attendaient à la sortie de l’école.
La guerre propre et ses mensonges
La rhétorique officielle parle de frappes chirurgicales, de précision, de dommages collatéraux minimisés. Les technologies employées dans l’opération Epic Fury sont présentées comme le summum de la guerre propre : des missiles guidés au mètre près, une intelligence artificielle qui minimise les risques civils, des processus de validation rigoureux. Et pourtant, Al Jazeera rapportait que le bilan des morts en Iran dépassait les mille deux cent cinquante-cinq personnes au bout d’une semaine. Treize Israéliens tués par les ripostes iraniennes. Huit soldats américains — dont six lors d’une frappe iranienne sur un centre d’opérations provisoire au Koweït. Plus de deux cents morts au Liban. Quatorze dans les États du Golfe. La précision algorithmique n’a pas empêché le sang de couler. Elle a simplement accéléré le rythme auquel il coule.
Les drones, la nouvelle infanterie du ciel
LUCAS et les essaims autonomes
Parmi les systèmes d’armes déployés contre l’Iran, un acronyme résume l’avenir : LUCAS, pour Low-cost Uncrewed Combat Attack System. Des drones de combat autonomes à bas coût, capables d’opérer en essaims coordonnés. Ce ne sont plus les Predator de la guerre contre le terrorisme, ces drones lourds et chers qui nécessitaient un pilote à distance et une liaison satellite permanente. Les LUCAS sont conçus pour être expendables — sacrifiables. Leur coût unitaire permet d’en déployer des dizaines, voire des centaines simultanément. Ils communiquent entre eux, se répartissent les cibles, et sont capables de mimétisme des signatures ennemies — imitant les signaux radar d’autres appareils pour tromper les systèmes de défense. L’article du Kyiv Post mentionne que ces essaims autonomes avec capacité de mimétisme de signature ennemie représentent une rupture fondamentale dans la doctrine d’emploi de la force aérienne.
On ne peut pas abattre un essaim. On ne peut pas négocier avec un algorithme. On ne peut pas raisonner avec une machine qui a été programmée pour trouver sa cible et l’atteindre, quoi qu’il en coûte. La question n’est plus de savoir si cette technologie existe. Elle vole déjà.
Le Precision Strike Missile et la profondeur stratégique
Le PrSM, Precision Strike Missile, est l’autre révolution silencieuse de ce conflit. Ce missile balistique tactique de nouvelle génération offre une portée et une précision qui rendent obsolètes les systèmes précédents. Combiné avec le réseau de ciblage alimenté par Maven, il permet de frapper des objectifs profondément enfouis avec une réactivité sans précédent. Le bunker du Guide suprême à Téhéran était protégé par des mètres de béton et des couches de terre. Il a fallu une vague coordonnée de cinquante chasseurs — des F-35 et des Typhoon — pour le percer. Mais la décision de frapper, la planification de la mission, la coordination des trajectoires, tout cela a été accéléré par l’IA. Ce qui aurait pris des semaines de planification dans les guerres précédentes s’est fait en heures.
La leçon ukrainienne
Le laboratoire du Donbass
Rien de ce qui se passe en Iran n’est apparu dans le vide. Le conflit en Ukraine, qui entre dans sa quatrième année, a servi de laboratoire grandeur nature pour les technologies déployées aujourd’hui au Moyen-Orient. Les drones ukrainiens qui frappent quotidiennement les positions russes — 1 750 par semaine selon le président Zelensky — ont démontré que la guerre de masse par drones n’est plus une théorie mais une réalité opérationnelle. L’Ukraine déploie désormais plus de deux cents drones par jour sur le front. La Russie répond avec ses propres essaims — cent cinquante-cinq drones Shahed lancés en une seule nuit. Le champ de bataille ukrainien est devenu le banc d’essai où les doctrines de guerre algorithmique appliquées en Iran ont été conceptualisées, testées et raffinées.
L’Ukraine paie le prix de son propre enseignement. Les technologies que ses ingénieurs ont perfectionnées dans la boue du Donbass servent maintenant à frapper un autre pays. Et pourtant, c’est peut-être le paradoxe le plus cruel de cette guerre : chaque innovation née de la survie ukrainienne accélère la course vers des conflits où la survie humaine devient secondaire face à l’efficience algorithmique.
Les drones protecteurs et la doctrine exportée
L’Ukraine ne se contente pas d’inspirer. Elle exporte. Des drones ukrainiens sont désormais déployés pour protéger des forces américaines en Jordanie, selon des rapports récents. La technologie anti-drone développée par Kyiv pour contrer les Shahed iraniens — ces mêmes drones que la Russie utilise contre les villes ukrainiennes — a prouvé son efficacité et attire l’attention des forces occidentales. Le système Merops, les intercepteurs Magura, les drones Vampire — autant d’innovations nées sur le front ukrainien qui redéfinissent la guerre défensive à l’ère des essaims. La boucle est complète : la guerre en Ukraine a engendré les technologies qui façonnent maintenant le conflit iranien, et les leçons du conflit iranien reviendront alimenter le front ukrainien.
La course aux armements algorithmiques
Quand l’adversaire acquiert les mêmes capacités
Le danger le plus grave de la guerre algorithmique n’est pas dans son efficacité actuelle. Il est dans sa prolifération inévitable. Les analystes stratégiques avertissent que les rivaux régionaux sont en train d’acquérir des niveaux similaires de ciblage assisté par IA et de capacités de renseignement. Quand deux adversaires possèdent tous les deux des chaînes de destruction compressées, la dynamique de crise devient exponentiellement plus dangereuse. Chaque camp cherche l’avantage de vitesse décisionnelle pour éviter d’être frappé en premier. Les temps d’alerte réduits augmentent les incitations à agir tôt pendant une crise. Le risque de mauvais calcul explose. L’escalade horizontale — l’extension rapide d’un conflit à plusieurs théâtres d’opérations — devient une possibilité que les systèmes de sécurité traditionnels n’ont jamais été conçus pour gérer.
Nous avons construit des machines capables de prendre des décisions de vie ou de mort en quarante-cinq secondes. Nous n’avons pas construit de machines capables de comprendre les conséquences de ces décisions. Et nous n’avons certainement pas construit d’institutions humaines capables de fonctionner à cette vitesse.
La souveraineté décisionnelle en péril
Il y a un mot que les rapports militaires évitent soigneusement : autonomie. Officiellement, l’IA ne fait que recommander. L’humain décide. Le commandant approuve. L’officier juridique valide. Mais la structure même de l’autorité militaire est en train de muter. L’espace dans lequel les conseillers juridiques, les analystes et les commandants peuvent questionner les hypothèses avant que les armes soient tirées se rétrécit à chaque accélération du tempo opérationnel. Quand un système génère mille recommandations par jour, le réflexe humain n’est plus de questionner chaque recommandation. Il est de faire confiance au système. De valider en bloc. D’approuver par défaut. À quel moment la recommandation devient-elle la décision ? À quel moment le commandant qui approuve systématiquement ce que la machine propose cesse-t-il d’être celui qui décide ?
L'Iran n'est pas l'Irak
Un adversaire qui riposte
La comparaison avec 2003 a ses limites. L’armée irakienne de Saddam Hussein s’était largement effondrée face au Shock and Awe. L’Iran n’a pas cédé. Malgré la destruction de la majorité de sa marine, malgré la décapitation de son leadership, malgré la réduction drastique de ses capacités balistiques, Téhéran a riposté avec une férocité que les planificateurs n’avaient peut-être pas pleinement anticipée. Plus de cinq cents missiles balistiques et navals. Près de deux mille drones. Des frappes sur Israël, sur des bases américaines, sur les alliés du Golfe — Azerbaïdjan, Bahreïn, Irak, Jordanie, Koweït, Oman, Qatar, Arabie saoudite, Émirats arabes unis. Six soldats américains tués au Koweït. Plus de deux cents morts au Liban. La guerre propre promise par la technologie s’est heurtée à la réalité brute d’un adversaire qui refuse de mourir en silence.
On nous avait dit que la vitesse ferait l’économie de la douleur. Que frapper vite, c’était frapper moins. Que l’algorithme épargnerait les vies. Et pourtant, les morts s’accumulent des deux côtés, avec la même obstination que dans toutes les guerres précédentes. La seule différence, c’est la vitesse à laquelle ils meurent.
L’élargissement imprévu du conflit
Le président Trump avait déclaré que la guerre durerait quatre à cinq semaines. C’est le genre de prédiction que l’histoire se plaît à démentir. L’Iran a frappé des pays qui ne se considéraient pas en guerre. Des missiles ont touché le Koweït, le Qatar, les Émirats. L’OTAN a dû intercepter un missile iranien au-dessus de la Turquie. Le conflit, conçu comme une frappe chirurgicale limitée dans le temps et dans l’espace, déborde déjà ses frontières prévues. Les algorithmes peuvent optimiser les frappes. Ils ne peuvent pas optimiser la géopolitique. Ils ne peuvent pas prédire qu’un missile de représailles touchera un pays allié et transformera un conflit bilatéral en crise régionale.
La première guerre de l'intelligence artificielle
Un précédent qui change tout
Le magazine Commonweal l’a appelée la première guerre de l’IA. Ce n’est pas un titre sensationnel. C’est un constat. Pour la première fois dans l’histoire militaire, un système d’intelligence artificielle a joué un rôle central — pas périphérique, pas auxiliaire, mais central — dans la planification et l’exécution d’une campagne militaire majeure. Maven n’a pas remplacé les commandants. Mais il a façonné le champ de bataille avant que les commandants ne prennent leurs décisions. Il a déterminé quelles cibles étaient prioritaires. Il a calculé quelles armes utiliser. Il a proposé des séquences de frappe. Les humains ont eu le dernier mot. Mais le premier mot, le cadrage, la structuration du choix — tout cela appartenait à la machine. Quand on définit les options, on définit la décision.
Nous sommes entrés dans une ère où les machines ne se contentent plus d’exécuter nos ordres. Elles formulent les questions auxquelles nous répondons. Elles dessinent le terrain sur lequel nous décidons. Et nous appelons ça du progrès.
Le dilemme éthique fondamental
Le débat sur l’IA militaire n’est pas nouveau. Les Nations Unies discutent depuis des années de la régulation des systèmes d’armes autonomes. Mais l’opération Epic Fury a transformé un débat théorique en réalité opérationnelle. La question n’est plus de savoir si l’IA sera utilisée en guerre. Elle l’est. La question n’est plus de savoir si elle influencera les décisions de vie ou de mort. Elle le fait. La question qui reste — la seule qui compte — est de savoir où placer la ligne. À quel moment l’assistance algorithmique devient-elle une délégation de facto ? À quel moment le processus rigoureux invoqué par le Pentagone cesse-t-il d’être rigoureux parce que la vitesse de la machine ne laisse plus le temps de la rigueur ? Cent soixante-quinze enfants à Minab attendent une réponse.
L'avenir qui se dessine
La guerre à la vitesse de la lumière
Casey Christie, analyste en sécurité basé à Londres et auteur de l’article du Kyiv Post, identifie les composantes qui définissent cette nouvelle ère : la suprématie informationnelle, la dominance aérienne, la cybercapacité et l’intégration d’une architecture numérique qui permet des opérations coordonnées à une échelle jamais vue. L’avenir, selon cette analyse, n’est pas dans les chars ou les divisions blindées. Il est dans les réseaux. Dans les algorithmes qui connectent les capteurs aux tireurs. Dans les essaims de drones qui s’organisent sans intervention humaine. Dans les missiles qui trouvent leur cible grâce à des données analysées en temps réel par une IA qui n’a jamais vu le champ de bataille autrement que comme un ensemble de coordonnées et de probabilités.
La guerre du futur ne ressemblera pas à la guerre. Elle ressemblera à une opération logistique. Des flux de données. Des algorithmes d’optimisation. Des tableaux de bord. Et quelque part, très loin des écrans, des êtres humains qui meurent à une vitesse que personne n’a jamais eu le temps de remettre en question.
Ce que trois mille cibles en une semaine signifie pour demain
Le précédent est posé. Trois mille cibles en sept jours, c’est un chiffre. Mais c’est aussi une norme. Désormais, toute puissance militaire qui ne peut pas atteindre ce tempo opérationnel sera considérée comme inférieure. La Chine observe. La Russie prend note. Chaque armée du monde intègre les leçons de l’opération Epic Fury dans ses doctrines. La course aux armements du XXIe siècle n’est pas nucléaire. Elle est algorithmique. Et dans cette course, il n’y a pas de traité de non-prolifération. Il n’y a pas de ligne rouge. Il n’y a qu’une accélération perpétuelle vers un horizon où la guerre se fera à la vitesse des données, et où les humains — ceux qui la subissent comme ceux qui la décident — ne seront plus que des variables dans une équation qu’ils ne contrôlent plus.
Le silence des machines et le cri des hommes
La question qui hantera cette génération
Il y a un silence dans cette guerre qui devrait nous terrifier plus que le bruit des explosions. C’est le silence des salles de contrôle où des opérateurs valident des frappes sur des écrans qui ressemblent à des jeux vidéo. C’est le silence entre le moment où l’algorithme propose et le moment où l’humain approuve — un silence qui se mesure désormais en secondes. C’est le silence de cent soixante-quinze familles à Minab qui ne retrouveront jamais leurs enfants. Ce silence est le son de la guerre telle qu’elle sera désormais menée. Efficiente. Rapide. Optimisée. Et profondément, irrémédiablement détachée de ce qu’elle détruit.
À quel moment avons-nous décidé que la vitesse valait plus que la prudence ? Que l’efficience importait plus que la conscience ? Que quarante-cinq secondes suffisaient pour décider de la mort d’un être humain ? Personne n’a pris cette décision. Elle s’est prise toute seule, algorithme après algorithme, frappe après frappe, cible après cible. Et c’est peut-être ça, la vérité la plus terrifiante de cette nouvelle ère : nous n’avons pas choisi la guerre algorithmique. Elle nous a choisis.
Le monde d’après les trois mille cibles
Nous vivons désormais dans un monde où trois mille cibles en sept jours est non seulement possible, mais reproductible, scalable, exportable. Un monde où la chaîne de destruction se compresse au point de devenir un réflexe automatisé plutôt qu’une décision délibérée. Un monde où les leçons de l’Ukraine alimentent les frappes sur l’Iran, et où les leçons de l’Iran alimenteront le prochain conflit. Les généraux du futur ne seront pas jugés sur leur courage ou leur sagesse. Ils seront jugés sur leur capacité à intégrer les données plus vite que l’adversaire. L’humanité n’est pas en train de perdre le contrôle de la guerre. Elle est en train de le céder, volontairement, méthodiquement, algorithme après algorithme, à des systèmes qui n’ont aucune notion de ce que signifie détruire une vie.
Signé Maxime Marquette
Sources
Sources primaires
Kyiv Post — 3,000 Targets in a Week – The New Speed of War, Casey Christie, 9 mars 2026
CNN — What we know on the ninth day of the US and Israel’s war with Iran, 7 mars 2026
Al Jazeera — US-Israel attacks on Iran: Death toll and injuries live tracker, mars 2026
Al Jazeera — Death toll in Iran surpasses 1,000 as Israel-US strikes continue, 4 mars 2026
CNN — Six US service members killed in Iranian strike in Kuwait, 2 mars 2026
Bloomberg — US Military Relying on AI as Key Tool to Speed Iran Operations, 5 mars 2026
The Washington Post — Pentagon leverages AI in Iran strikes amid feud with Anthropic, 4 mars 2026
Sources secondaires
Council on Foreign Relations — Gauging the Impact of U.S.-Israeli Strikes on Iran, mars 2026
Chatham House — US and Israel attack Iran: Early analysis from Chatham House experts, février 2026
House of Commons Library — US-Israel strikes on Iran: February/March 2026, mars 2026
Commonweal Magazine — The First AI War, mars 2026
HRANA — Rising Casualties and Intensified Strikes in Tehran and Western Provinces, mars 2026
National Security Journal — Shock and Awe, 2026 Iran Edition, mars 2026
Interesting Engineering — Iran war exposes the expanding role of AI in military strike planning, mars 2026
Time — Civilian Death Toll in Iran Passes 1,000, Rights Group Says, mars 2026
Ce contenu a été créé avec l'aide de l'IA.