Skip to content
Intelligence artificielle et terrorisme : quand la machine devient l’arme ultime des fanatiques
Crédit: Adobe Stock

La démocratisation de l’horreur

L’UNICRI, l’Institut interrégional de recherche des Nations Unies sur la criminalité et la justice, a mené une enquête auprès de 27 représentants de gouvernements, d’entreprises, d’universités et d’organisations internationales. La question était simple : quelle est la probabilité que l’IA soit utilisée à des fins terroristes ? Les réponses ont de quoi donner des insomnies. 44 % des experts ont répondu « très probable ». 56 % ont répondu « assez probable ». Zéro — pas un seul expert sur 27 — n’a considéré ce scénario comme « improbable ». Quand l’unanimité est totale sur un risque, c’est généralement qu’il est réel. Les spécialistes ont identifié la « démocratisation » des nouvelles technologies comme le facteur clé de leurs inquiétudes. Ce mot, habituellement positif, prend ici une tonalité sinistre. Démocratiser l’IA, c’est aussi démocratiser sa capacité de nuisance.

Le rapport de l’UNICRI l’explique clairement : « À mesure que l’IA se répand, les barrières à l’entrée seront abaissées en réduisant les compétences et l’expertise technique nécessaires pour l’utiliser. » Traduction : un adolescent radicalisé dans sa chambre pourra bientôt faire ce qu’un ingénieur biologiste mettait des années à maîtriser. Les organisations terroristes ont traditionnellement utilisé des méthodes « low-tech » — armes à feu, couteaux, véhicules béliers. Non par choix, mais par nécessité. Elles n’avaient pas les moyens de faire mieux. L’IA change cette équation. John Laliberte, ancien chercheur en vulnérabilités à la NSA, résume parfaitement le danger : « Avec l’IA, même un petit groupe qui n’a pas beaucoup d’argent peut avoir un impact considérable. » Le terrorisme du pauvre vient de trouver son arme de destruction massive.

Les nouvelles capacités offertes aux fanatiques

Concrètement, que peut faire l’IA pour un groupe terroriste ? La liste est terrifiante. D’abord, le recrutement. Les chatbots basés sur l’IA peuvent désormais opérer 24 heures sur 24, sur de multiples plateformes, engageant des conversations qui imitent les interactions humaines. Ces programmes analysent les « déclencheurs comportementaux » et adaptent leurs réponses en fonction des inclinations idéologiques et des vulnérabilités de chaque individu. Un recruteur humain peut parler à quelques dizaines de personnes par jour. Un chatbot terroriste peut en cibler des milliers simultanément, personnalisant chaque approche avec une précision chirurgicale. Les jeunes « digital natives » de 2025, habitués aux algorithmes personnalisés et au contenu sur mesure, sont des cibles idéales pour ces stratégies de radicalisation automatisée.

Ensuite, la propagande. L’ISKP — la branche afghane de l’État islamique — a créé des programmes d’information avec des présentateurs générés par IA, des avatars réalistes qui délivrent des messages de propagande avec le professionnalisme d’un journal télévisé classique. Daech produit des deepfakes audio de ses propres dirigeants récitant des textes religieux. Les messages sont traduits instantanément en dizaines de langues grâce à l’IA. Ce qui prenait des semaines de travail humain se fait maintenant en quelques heures. En novembre 2025, un jeune britannique de 18 ans a été arrêté en montant dans un avion pour Istanbul, prétendument pour rejoindre Daech. Il avait été radicalisé par de la propagande traduite et distribuée par IA. Le gouvernement britannique a exprimé sa préoccupation face à « l’utilisation croissante de l’IA par les terroristes pour traduire et distribuer rapidement leur propagande ».

Ce qui me frappe, c’est la vitesse. Il y a deux ans à peine, on parlait de ChatGPT comme d’une curiosité amusante. Aujourd’hui, des organisations terroristes organisent des ateliers de formation pour apprendre à leurs membres à l’utiliser. Le Congrès américain a appris lors d’une audition récente que Daech et Al-Qaïda tiennent des séminaires sur l’IA. Des séminaires. Comme dans une entreprise tech de la Silicon Valley, sauf que l’objectif n’est pas de créer la prochaine licorne, mais de tuer le maximum de gens possible. Et nous, pendant ce temps, on débat de savoir si l’IA va voler les emplois des graphistes.

Sources

Sources primaires

UNICRI/UNOCT — Algorithms and Terrorism: The Malicious Use of Artificial Intelligence for Terrorist Purposes — 2021-2025
Nuclear Threat Initiative/Munich Security Conference — Expert Group Simulation on AI-Generated Pandemic — Février 2025
RAND Corporation — The Operational Risks of AI in Large-Scale Biological Attacks — 2024-2025
CNAS — AI and the Evolution of Biological National Security Risks — 2025
CSIS — Opportunities to Strengthen U.S. Biosecurity from AI-Enabled Bioterrorism — 2025
International AI Safety Report — Paris AI Action Summit — 2025

Sources secondaires

Euronews — Extremists could use AI to make bioweapons capable of sparking future pandemics — 3 décembre 2025
Fortune — Bill Gates says AI could be used as a bioterrorism weapon — 9 janvier 2026
Fortune — AI finds fans in the Islamic State and other militant groups — 15 décembre 2025
PBS News — Militant groups are experimenting with AI, and the risks are expected to grow — 14 décembre 2025
South China Morning Post — Chinese and US experts agree that AI use in defence sector must be restricted — Janvier 2026
The Diplomat — How China and the US Can Make AI Safer for Everyone — Janvier 2026
Bulletin of the Atomic Scientists — Stopping the Clock on catastrophic AI risk — Décembre 2025
GNET Research — Automated Recruitment: Artificial Intelligence, ISKP, and Extremist Radicalisation — Avril 2025
ICCT — Exploitation of Generative AI by Terrorist Groups — 2025
MEMRI — Artificial Intelligence And The New Era Of Terrorism — 2025

Ce contenu a été créé avec l'aide de l'IA.

facebook icon twitter icon linkedin icon
Copié!
Plus de contenu