La démocratisation de l’horreur
L’UNICRI, l’Institut interrégional de recherche des Nations Unies sur la criminalité et la justice, a mené une enquête auprès de 27 représentants de gouvernements, d’entreprises, d’universités et d’organisations internationales. La question était simple : quelle est la probabilité que l’IA soit utilisée à des fins terroristes ? Les réponses ont de quoi donner des insomnies. 44 % des experts ont répondu « très probable ». 56 % ont répondu « assez probable ». Zéro — pas un seul expert sur 27 — n’a considéré ce scénario comme « improbable ». Quand l’unanimité est totale sur un risque, c’est généralement qu’il est réel. Les spécialistes ont identifié la « démocratisation » des nouvelles technologies comme le facteur clé de leurs inquiétudes. Ce mot, habituellement positif, prend ici une tonalité sinistre. Démocratiser l’IA, c’est aussi démocratiser sa capacité de nuisance.
Le rapport de l’UNICRI l’explique clairement : « À mesure que l’IA se répand, les barrières à l’entrée seront abaissées en réduisant les compétences et l’expertise technique nécessaires pour l’utiliser. » Traduction : un adolescent radicalisé dans sa chambre pourra bientôt faire ce qu’un ingénieur biologiste mettait des années à maîtriser. Les organisations terroristes ont traditionnellement utilisé des méthodes « low-tech » — armes à feu, couteaux, véhicules béliers. Non par choix, mais par nécessité. Elles n’avaient pas les moyens de faire mieux. L’IA change cette équation. John Laliberte, ancien chercheur en vulnérabilités à la NSA, résume parfaitement le danger : « Avec l’IA, même un petit groupe qui n’a pas beaucoup d’argent peut avoir un impact considérable. » Le terrorisme du pauvre vient de trouver son arme de destruction massive.
Les nouvelles capacités offertes aux fanatiques
Concrètement, que peut faire l’IA pour un groupe terroriste ? La liste est terrifiante. D’abord, le recrutement. Les chatbots basés sur l’IA peuvent désormais opérer 24 heures sur 24, sur de multiples plateformes, engageant des conversations qui imitent les interactions humaines. Ces programmes analysent les « déclencheurs comportementaux » et adaptent leurs réponses en fonction des inclinations idéologiques et des vulnérabilités de chaque individu. Un recruteur humain peut parler à quelques dizaines de personnes par jour. Un chatbot terroriste peut en cibler des milliers simultanément, personnalisant chaque approche avec une précision chirurgicale. Les jeunes « digital natives » de 2025, habitués aux algorithmes personnalisés et au contenu sur mesure, sont des cibles idéales pour ces stratégies de radicalisation automatisée.
Ensuite, la propagande. L’ISKP — la branche afghane de l’État islamique — a créé des programmes d’information avec des présentateurs générés par IA, des avatars réalistes qui délivrent des messages de propagande avec le professionnalisme d’un journal télévisé classique. Daech produit des deepfakes audio de ses propres dirigeants récitant des textes religieux. Les messages sont traduits instantanément en dizaines de langues grâce à l’IA. Ce qui prenait des semaines de travail humain se fait maintenant en quelques heures. En novembre 2025, un jeune britannique de 18 ans a été arrêté en montant dans un avion pour Istanbul, prétendument pour rejoindre Daech. Il avait été radicalisé par de la propagande traduite et distribuée par IA. Le gouvernement britannique a exprimé sa préoccupation face à « l’utilisation croissante de l’IA par les terroristes pour traduire et distribuer rapidement leur propagande ».
Ce qui me frappe, c’est la vitesse. Il y a deux ans à peine, on parlait de ChatGPT comme d’une curiosité amusante. Aujourd’hui, des organisations terroristes organisent des ateliers de formation pour apprendre à leurs membres à l’utiliser. Le Congrès américain a appris lors d’une audition récente que Daech et Al-Qaïda tiennent des séminaires sur l’IA. Des séminaires. Comme dans une entreprise tech de la Silicon Valley, sauf que l’objectif n’est pas de créer la prochaine licorne, mais de tuer le maximum de gens possible. Et nous, pendant ce temps, on débat de savoir si l’IA va voler les emplois des graphistes.
Le cauchemar biologique : l'IA au service du bioterrorisme
Des progrès exponentiels et effrayants
Le Rapport international sur la sécurité de l’IA, préparé pour le Sommet de Paris de 2025, contient un chiffre qui devrait être en première page de tous les journaux : les modèles de langage sont devenus bien meilleurs pour les tâches liées aux armes biologiques et chimiques. Les évaluations montrent que les instructions de certains modèles pour libérer des substances létales se sont améliorées de 80 % rien qu’en 2024. 80 % en une seule année. À ce rythme, où en serons-nous en 2027 ? En 2030 ? Des étudiants du MIT ont utilisé des chatbots pour identifier quatre pathogènes pandémiques potentiels, l’IA expliquant comment les générer à partir d’ADN synthétique. Ce n’était pas une expérience secrète dans un laboratoire gouvernemental. C’était un exercice académique réalisé avec des outils accessibles au grand public.
Dario Amodei, le PDG d’Anthropic — l’entreprise qui a créé Claude, le modèle concurrent de ChatGPT —, a fait une révélation troublante en février 2025. En évaluant le modèle chinois DeepSeek, son équipe a découvert qu’il générait des informations sur les armes biologiques « qu’on ne peut pas trouver sur Google ou facilement dans les manuels ». Et Amodei d’ajouter : « Le modèle DeepSeek a été le pire de tous ceux que nous avons testés, car il n’avait absolument aucun blocage contre la génération de ces informations. » En clair : certains modèles d’IA peuvent enseigner la fabrication d’armes de destruction massive à quiconque le demande. Sans filtre. Sans garde-fou. Sans la moindre hésitation. C’est comme si on avait mis un manuel de fabrication de bombes nucléaires dans toutes les bibliothèques municipales, sauf que cette fois le manuel est interactif et répond aux questions.
Le scénario que personne ne veut imaginer
Un article de mars 2025 co-signé par Eric Schmidt, ancien PDG de Google, Alexandr Wang, ancien PDG de Scale AI, et Dan Hendrycks, directeur exécutif du Center for AI Safety, est allé encore plus loin dans l’analyse. Selon ces trois poids lourds de l’industrie, l’IA pourrait bientôt fournir des « instructions étape par étape sur la conception de pathogènes létaux, l’approvisionnement en matériaux et l’optimisation des méthodes de dispersion ». On ne parle plus seulement de fournir des informations théoriques. On parle d’un guide pratique complet, personnalisé, adapté aux ressources disponibles de l’utilisateur. L’équivalent d’avoir un virologue de niveau doctoral disponible 24 heures sur 24 pour répondre à toutes vos questions — sauf que ce virologue n’a aucune éthique et ne vous demandera jamais pourquoi vous voulez savoir comment créer une pandémie.
Le think tank RAND Corporation a mené une étude de « red team » — un exercice où des chercheurs jouent le rôle d’acteurs malveillants pour tester les vulnérabilités des systèmes. Les résultats ont évolué de manière alarmante entre 2024 et 2025. En 2024, RAND concluait que les modèles de langage n’étaient « pas encore assez matures » pour représenter un risque significatif de bioterrorisme. Un an plus tard, le même organisme notait que « des preuves récentes suggèrent fortement que les LLM pourraient permettre à des acteurs non formés de créer des pathogènes dangereux ». En 12 mois, la situation est passée de « pas encore prêt » à « risque imminent ». Les experts de RAND prévoient que le paysage des menaces va « s’étendre considérablement après 2027 », même s’ils reconnaissent que l’évolution pourrait être plus rapide que prévu. Personne ne sait vraiment jusqu’où ça peut aller, ni à quelle vitesse.
En préparant cet article, j’ai lu une revue juridique récente qui avertit que le bioterrorisme facilité par l’IA « n’est pas une menace hypothétique future — c’est un danger présent nécessitant une attention urgente ». Un danger présent. Pas demain. Maintenant. Et pourtant, quand j’en parle autour de moi, les gens haussent les épaules. « Oh, ils exagèrent toujours. » « Les gouvernements vont réguler. » « Ça n’arrivera pas vraiment. » C’est exactement ce qu’on disait avant chaque catastrophe de l’histoire humaine. Avant chaque pandémie. Avant chaque attentat. On refuse de croire au pire jusqu’à ce qu’il arrive. Et puis on se demande pourquoi personne n’avait prévenu.
Les cybermenaces : l'autre front de la guerre invisible
Quand l’IA attaque les infrastructures critiques
Le bioterrorisme n’est pas la seule menace. Les cyberattaques dopées à l’IA représentent un danger tout aussi réel, et potentiellement plus immédiat. Selon une enquête de Veeam, 66 % des responsables informatiques identifient les attaques générées par IA comme la menace la plus significative pour les données en 2026. Deux tiers des professionnels du secteur. Pas des alarmistes marginaux. Des gens qui gèrent des systèmes critiques au quotidien. En septembre 2025, le Google Threat Intelligence Group a documenté la première cyberattaque à grande échelle exécutée avec une supervision humaine minimale. L’IA ne se contentait plus d’assister les hackers. Elle menait l’opération de manière quasi autonome. On appelle ça l’« IA agentique » — des systèmes auto-dirigés qui planifient, exécutent et adaptent leurs campagnes sans intervention humaine.
Ryan Knisley, de la société de cybersécurité Axonius, a résumé la situation avec une formule qui fait froid dans le dos : « Si 2025 était l’année où nous sommes tombés amoureux de l’IA, 2026 sera l’année où nous paierons le prix pour que les hackers aient appris à l’utiliser plus vite et plus efficacement que nous. » Les projections sont terrifiantes. Le nombre de victimes de rançongiciels devrait augmenter de 40 % par rapport à 2024. Les attaques dopées à l’IA devraient représenter 50 % du paysage des menaces. Les infrastructures vitales — centrales nucléaires, systèmes hospitaliers, usines pétrochimiques — sont particulièrement vulnérables. Imaginez une IA terroriste qui prend le contrôle d’un réseau électrique pendant une vague de froid. Ou qui désactive les systèmes de ventilation d’un hôpital. Ou qui manipule les commandes d’une installation chimique. Ce ne sont plus des scénarios de films. Ce sont des risques que les experts évaluent concrètement.
Le phishing nouvelle génération et les deepfakes
L’e-mail reste le talon d’Achille de la cybersécurité. En 2026, il sera à l’origine de neuf violations sur dix, dopé par une intelligence artificielle qui rend les tentatives de phishing plus fluides et plus crédibles que jamais. Fini les messages bourrés de fautes d’orthographe envoyés depuis des adresses suspectes. L’IA génère désormais des courriels parfaitement rédigés, personnalisés, imitant le style d’écriture de personnes que vous connaissez. Elle peut analyser vos réseaux sociaux, comprendre vos centres d’intérêt, identifier vos points faibles. Un expert l’a dit clairement : « Plus besoin d’être expert en codage et réseau, l’intelligence artificielle offre un réel avantage pour quiconque souhaite effectuer une cyberattaque. Grâce à ces IA, il est possible d’envoyer un mail de phishing contenant un code malveillant en moins de dix minutes. » Dix minutes. Le temps de boire un café.
Et puis il y a les deepfakes. Les technologies de manipulation vidéo et audio sont devenues si sophistiquées qu’il est de plus en plus difficile de distinguer le vrai du faux. Un deepfake convaincant peut montrer un dirigeant annonçant une fausse nouvelle, déclenchant une panique boursière ou des troubles sociaux. Il peut simuler un appel téléphonique de votre supérieur vous demandant de transférer des fonds d’urgence. Il peut créer de fausses preuves pour discréditer des individus ou manipuler l’opinion publique. Euronews rapporte que « les deepfakes deviennent plus réalistes et accessibles, augmentant les risques de fraude ». Les groupes terroristes l’ont bien compris. Daech utilise déjà des deepfakes pour produire du contenu de propagande. Quand on peut fabriquer la réalité, la vérité devient une victime collatérale.
Les acteurs étatiques : une menace dans l'ombre
Chine, Russie, Iran, Corée du Nord : les nouveaux cyber-belligérants
Si 2025 a été l’année où la cybersécurité est devenue un « point de tension géopolitique », selon le cabinet Forrester, 2026 sera celle où les opérations des acteurs étatiques comme la Russie, la Chine, l’Iran et la Corée du Nord s’étendront. Ces pays développent et déploient des IA offensives capables d’exécuter des attaques de manière autonome. Une enquête récente a révélé comment des hackers liés à la Chine ont utilisé Claude — l’IA d’Anthropic — pour mener « 80 à 90 % d’une intrusion ». Le modèle d’intelligence artificielle faisait presque tout le travail. L’humain n’était là que pour superviser et collecter les résultats. C’est une révolution dans l’art de la guerre cybernétique. Les ressources humaines ne sont plus le facteur limitant. N’importe quel État peut désormais multiplier sa capacité d’attaque par un facteur de dix, de cent, de mille.
L’Europe a été particulièrement touchée en 2025. Des perturbations dans les aéroports. Des allégations de sabotage électoral. Du spoofing GPS sur le vol de la présidente de la Commission européenne Ursula von der Leyen. Le continent a représenté 22 % de toutes les attaques de rançongiciels mondiales. Le dernier rapport de NETSCOUT révèle que plus de 8 millions d’attaques par déni de service distribué (DDoS) ont été lancées dans le monde au cours du seul premier semestre 2025. Cette dynamique repose sur deux moteurs : l’hacktivisme géopolitique et l’automatisation renforcée par l’intelligence artificielle. Les frontières entre terrorisme, criminalité organisée et guerre étatique s’estompent. Et l’IA accélère ce brouillage en permettant à des acteurs de toutes tailles de frapper au-dessus de leur catégorie.
Il y a quelque chose de profondément ironique — et terrifiant — dans le fait que nous ayons créé des outils qui pourraient nous détruire. L’intelligence artificielle était censée être notre plus grande réalisation. Notre ticket pour un avenir meilleur. Et elle l’est, potentiellement. Mais elle est aussi une arme que nous avons mise entre les mains de tous ceux qui veulent nous faire du mal. États hostiles. Groupes terroristes. Criminels. Fous isolés. Tous ont maintenant accès à une puissance de calcul et à des capacités qui auraient fait pâlir d’envie les services secrets de la Guerre froide. Et nous continuons à nous demander si l’IA va nous piquer nos emplois. Comme si c’était le problème.
La France dans le viseur : tensions géopolitiques et vulnérabilités
Une cible privilégiée des cyberattaques
La France, en raison des tensions géopolitiques actuelles, fait face à une augmentation significative des cyberattaques. Son positionnement sur les conflits en Ukraine, au Moyen-Orient et dans d’autres zones de crise en fait une cible de choix pour les acteurs malveillants, qu’ils soient étatiques ou terroristes. Les experts en cybersécurité français notent que l’IA rend les campagnes de phishing plus sophistiquées et difficiles à détecter. Les tentatives d’hameçonnage ciblant les entreprises et administrations françaises sont en hausse constante, avec des messages de plus en plus personnalisés et convaincants. L’ANSSI — l’Agence nationale de la sécurité des systèmes d’information — multiplie les alertes, mais les ressources ne suivent pas toujours face à l’ampleur de la menace.
Les infrastructures critiques françaises sont particulièrement exposées. Centrales nucléaires, réseaux de transport, systèmes hospitaliers, réseaux électriques — autant de cibles potentielles pour des attaques sophistiquées dopées à l’IA. Le bilan cyber de 2025 montre que l’IA et l’hacktivisme géopolitique ont accentué la pression sur tous les fronts. Les experts de Stor Solutions résument l’enjeu : « Avec la généralisation de l’accès à l’intelligence artificielle, l’impact et la précision des cyberattaques risquent de s’accroître : les infrastructures vitales seront confrontées à de nouvelles menaces. » Ce n’est pas une prédiction pour un futur lointain. C’est la réalité de 2026. La question n’est plus de savoir si la France sera attaquée, mais quand, comment, et si elle sera prête à répondre.
Le terrorisme augmenté sur le sol français
La menace terroriste sur le territoire français n’a jamais disparu. Elle évolue. Les groupes comme Al-Qaïda, l’État islamique et le Hezbollah sont déjà actifs dans l’utilisation de ces technologies, selon les rapports de l’ICCT — le Centre international de contre-terrorisme. En France, la DGSI surveille de près la montée en puissance des capacités numériques des réseaux terroristes. Les services de renseignement français ont identifié plusieurs tentatives d’utilisation d’outils d’IA générative par des individus radicalisés sur le territoire. Des contenus de propagande personnalisés ciblant spécifiquement la jeunesse française ont été détectés. Des guides techniques sur l’utilisation de l’IA à des fins malveillantes circulent dans les cercles djihadistes francophones.
Marcus Fowler, ancien agent de la CIA, nuance toutefois le niveau de menace immédiate : les groupes terroristes « sont en retard par rapport à la Chine, la Russie ou l’Iran et considèrent encore les usages les plus sophistiqués de l’IA comme ‘aspirationnels’ ». Mais il ajoute immédiatement : « Les risques sont trop élevés pour être ignorés et sont susceptibles de croître à mesure que l’utilisation d’une IA bon marché et puissante se répand. » Le secrétaire d’État autrichien Jörg Leichtfried a averti que l’IA pourrait être utilisée pour « radicaliser des personnes avec de la propagande sur mesure ». La France, avec sa communauté musulmane importante, son histoire coloniale complexe et sa position géopolitique, représente un terrain particulièrement propice pour ce type de ciblage algorithmique de la radicalisation.
Les réponses politiques : entre action et paralysie
Les initiatives américaines
Face à l’ampleur de la menace, les États-Unis ont commencé à réagir. En février 2025, le Congrès a présenté le « Generative AI Terrorism Risk Assessment Act », une loi qui exigerait du secrétaire à la Sécurité intérieure qu’il mène des évaluations annuelles sur les menaces terroristes posées par les organisations utilisant l’IA générative. L’administration Trump a intégré ces préoccupations dans son Plan d’action sur l’IA et dans un décret de mai 2025. Le plan avertit explicitement que l’IA et la biologie synthétique « pourraient créer de nouvelles voies pour des acteurs malveillants cherchant à synthétiser des pathogènes dangereux ». Trump lui-même, lors de son discours à l’Assemblée générale des Nations Unies en 2025, a appelé à un effort international pour « mettre fin au développement des armes biologiques une fois pour toutes » et a proposé d’utiliser l’IA pour vérifier le respect de ces engagements.
Mais le vrai test sera la rapidité avec laquelle les recommandations de haut niveau se traduiront en politiques concrètes. Le CSIS — Centre d’études stratégiques et internationales — note que le rythme des avancées technologiques dépasse systématiquement celui de la régulation. Le temps que les législateurs comprennent un problème et votent une loi, la technologie a déjà évolué trois fois. C’est une course que les gouvernements sont en train de perdre. Les entreprises d’IA elles-mêmes ont tiré la sonnette d’alarme. OpenAI et Anthropic ont toutes deux averti que si rien n’est fait, l’IA sera bientôt capable d’aider des acteurs malveillants à créer des armes biologiques. Quand les créateurs de la technologie demandent qu’on les régule, c’est généralement qu’ils ont vu quelque chose qui les effraie.
La coopération internationale : espoir ou illusion ?
L’accord tacite entre experts chinois et américains sur les risques de l’IA appliquée aux armes biologiques offre une lueur d’espoir. Lors du récent sommet de l’APEC, Trump et Xi Jinping ont convenu d’envisager une coopération sur l’IA dans l’année à venir. Des visites réciproques sont prévues pour 2026. Les experts estiment que c’est le moment idéal pour élaborer un « agenda intelligent » sur l’IA. Le secrétaire général des Nations Unies, António Guterres, a appelé à une approche universelle de la gouvernance de l’IA, soulignant que « le Bureau de la lutte contre le terrorisme, en collaboration avec l’UNICRI, a fourni des recommandations sur la façon dont les États membres peuvent lutter contre l’utilisation potentielle de l’IA à des fins terroristes ».
Mais la coopération internationale se heurte à des obstacles fondamentaux. La Chine et les États-Unis sont engagés dans une compétition technologique féroce. Chaque camp craint de prendre du retard sur l’autre. Les régulations qui freineraient l’innovation sont vues avec méfiance. Le rapport du Département d’État sur le respect des traités accuse ouvertement la Chine de poursuivre des recherches biologiques et toxicologiques avec des applications militaires potentielles, en utilisant l’intelligence artificielle. La confiance mutuelle est au plus bas. Et pendant que les grandes puissances se méfient les unes des autres, les groupes terroristes avancent. Ils n’ont pas besoin d’autorisations. Ils n’ont pas de comités d’éthique. Ils exploitent simplement les failles d’un système qui n’a pas été conçu pour les arrêter.
L’horloge de l’Apocalypse du Bulletin of the Atomic Scientists est à 89 secondes de minuit. C’est le plus proche de la catastrophe qu’elle n’ait jamais été. Et ce n’est plus seulement le nucléaire qui nous menace. C’est l’IA. C’est le cyber. C’est le bioterrorisme. Nous avons multiplié les façons dont l’humanité peut se détruire elle-même, et nous n’avons créé aucun mécanisme efficace pour l’en empêcher. Les experts se réunissent, produisent des rapports, lancent des avertissements. Les gouvernements promettent d’agir. Et puis rien ne se passe vraiment. Jusqu’au jour où quelque chose se passera. Et là, on se demandera pourquoi personne n’avait rien fait.
Conclusion : 89 secondes avant minuit
Le monde au bord du précipice
2026 commence avec l’horloge de l’Apocalypse des Atomic Scientists positionnée à 89 secondes de minuit. Jamais elle n’a été aussi proche du point final. La compétition entre grandes puissances génère de nouveaux risques nucléaires. L’IA, le cyber offensif et les armes antisatellites créent de nouvelles vulnérabilités pour les puissances nucléaires. Et au milieu de tout cela, les groupes terroristes observent, apprennent, expérimentent. Ils n’ont pas les moyens de lancer une frappe nucléaire. Mais ils pourraient bientôt avoir les moyens de déclencher une pandémie. Ou de paralyser un pays entier par une cyberattaque. Ou de manipuler l’opinion publique avec des deepfakes indétectables. L’IA est un égalisateur. Elle met des capacités autrefois réservées aux États entre les mains de n’importe qui.
Le rapport du CNAS conclut que les capacités de l’IA ont historiquement bénéficié aux défenseurs, mais que les futurs modèles de pointe pourraient perturber cet équilibre de manière « dramatique et potentiellement dangereuse ». Le curseur pourrait basculer du côté des attaquants. Et une fois ce seuil franchi, il sera peut-être trop tard pour réagir. Les 14 experts réunis par la Nuclear Threat Initiative ont qualifié leur scénario de pandémie générée par IA de « digne d’une action à court terme pour la prévenir ». Pas à long terme. À court terme. Maintenant. Parce que demain pourrait être trop tard. Parce que 850 millions de cas et 60 millions de morts ne sont pas une abstraction statistique. Ce sont des êtres humains. Des familles. Des vies.
L’urgence d’agir avant qu’il ne soit trop tard
Que faire ? Les experts s’accordent sur plusieurs pistes. Une coopération internationale renforcée, au-delà des rivalités géopolitiques. Des régulations qui imposent aux développeurs d’IA des garde-fous contre les usages malveillants. Un investissement massif dans la cyberdéfense et la détection des menaces biologiques. Une éducation du grand public aux risques liés à ces technologies. Et surtout, une prise de conscience collective que nous sommes face à un danger existentiel. Pas dans un siècle. Maintenant. Le sous-secrétaire général des Nations Unies, Vladimir Voronkov, a souligné que « les terroristes ont été des adopteurs précoces des technologies émergentes, qui tendent à être sous-régulées et sous-gouvernées ». Nous avons une fenêtre d’opportunité. Elle se referme rapidement.
Quelque part en ce moment, dans un appartement anonyme, quelqu’un tape une requête dans un modèle d’IA. Peut-être cherche-t-il des informations inoffensives. Peut-être pas. Les algorithmes ne font pas la différence. Ils répondent. Ils aident. Ils optimisent. C’est ce pour quoi ils ont été conçus. Mais ils n’ont pas été conçus pour distinguer un étudiant curieux d’un terroriste en herbe. Et c’est là que réside le danger. L’IA n’est ni bonne ni mauvaise. Elle est un outil. Un outil d’une puissance inédite dans l’histoire humaine. La question est de savoir dans quelles mains il finira. Et si nous serons capables de contrôler ce que nous avons créé. 89 secondes avant minuit. Le compte à rebours continue.
Je termine cet article avec un sentiment d’urgence que je n’avais pas en le commençant. En quelques semaines de recherches, j’ai compris que nous marchons au bord d’un précipice sans le voir. L’intelligence artificielle est la technologie la plus transformatrice depuis l’invention du feu — et potentiellement la plus dangereuse. Nous l’avons libérée dans le monde sans savoir comment la contrôler. Sans savoir comment empêcher les pires d’entre nous de l’utiliser. Le XXIe siècle nous avait promis des voitures volantes et la colonisation de Mars. Il pourrait nous offrir des pandémies synthétiques et des cyberattaques paralysantes. Ce n’est pas une fatalité. Mais pour l’éviter, il faudrait que nous prenions le problème au sérieux. Vraiment au sérieux. Maintenant. Pas après la prochaine catastrophe. Avant.
Encadré de transparence du chroniqueur
Positionnement éditorial
Je ne suis pas journaliste, mais chroniqueur et analyste. Mon expertise réside dans l’observation et l’analyse des dynamiques technologiques, sécuritaires et géopolitiques qui façonnent notre monde. Mon travail consiste à décortiquer les menaces émergentes, à comprendre les implications des nouvelles technologies, à contextualiser les risques identifiés par les experts et à proposer des perspectives analytiques sur les transformations qui redéfinissent notre sécurité collective.
Je ne prétends pas à l’objectivité froide du journalisme traditionnel, qui se limite au rapport factuel. Je prétends à la lucidité analytique, à l’interprétation rigoureuse, à la compréhension approfondie des enjeux complexes qui nous concernent tous. Mon rôle est de donner du sens aux faits, de les situer dans leur contexte stratégique, et d’offrir une lecture critique des développements qui pourraient affecter notre avenir.
Méthodologie et sources
Ce texte respecte la distinction fondamentale entre faits vérifiés et analyses interprétatives. Les informations factuelles présentées proviennent exclusivement de sources primaires et secondaires vérifiables.
Sources primaires : rapports de l’UNICRI et du Bureau des Nations Unies contre le terrorisme, études de la RAND Corporation, publications du CNAS (Center for a New American Security), communications de la Nuclear Threat Initiative et de la Conférence de Munich sur la sécurité, déclarations officielles de responsables gouvernementaux et d’experts en sécurité.
Sources secondaires : analyses d’Euronews, Fortune, PBS News, Science (AAAS), The Diplomat, Bulletin of the Atomic Scientists, Global Biodefense, GNET Research, ICCT, CIGI, Atlantic Council, ainsi que les rapports des sociétés de cybersécurité Veeam, NETSCOUT, Fortinet et Google Threat Intelligence Group.
Nature de l’analyse
Les analyses, interprétations et perspectives présentées dans les sections analytiques de cet article constituent une synthèse critique et contextuelle basée sur les informations disponibles, les tendances observées et les évaluations d’experts cités dans les sources consultées.
Mon rôle est d’interpréter ces faits, de les contextualiser dans le cadre des dynamiques technologiques et sécuritaires contemporaines, et de leur donner un sens cohérent. Ces analyses reflètent une expertise développée à travers l’observation continue des questions de sécurité internationale et la compréhension des implications des technologies émergentes.
Toute évolution ultérieure de la situation — notamment en matière de régulation, de capacités de l’IA ou d’incidents terroristes — pourrait naturellement modifier les perspectives présentées ici. Cet article sera mis à jour si de nouvelles informations officielles majeures sont publiées.
Sources
Sources primaires
UNICRI/UNOCT — Algorithms and Terrorism: The Malicious Use of Artificial Intelligence for Terrorist Purposes — 2021-2025
Nuclear Threat Initiative/Munich Security Conference — Expert Group Simulation on AI-Generated Pandemic — Février 2025
RAND Corporation — The Operational Risks of AI in Large-Scale Biological Attacks — 2024-2025
CNAS — AI and the Evolution of Biological National Security Risks — 2025
CSIS — Opportunities to Strengthen U.S. Biosecurity from AI-Enabled Bioterrorism — 2025
International AI Safety Report — Paris AI Action Summit — 2025
Sources secondaires
Euronews — Extremists could use AI to make bioweapons capable of sparking future pandemics — 3 décembre 2025
Fortune — Bill Gates says AI could be used as a bioterrorism weapon — 9 janvier 2026
Fortune — AI finds fans in the Islamic State and other militant groups — 15 décembre 2025
PBS News — Militant groups are experimenting with AI, and the risks are expected to grow — 14 décembre 2025
South China Morning Post — Chinese and US experts agree that AI use in defence sector must be restricted — Janvier 2026
The Diplomat — How China and the US Can Make AI Safer for Everyone — Janvier 2026
Bulletin of the Atomic Scientists — Stopping the Clock on catastrophic AI risk — Décembre 2025
GNET Research — Automated Recruitment: Artificial Intelligence, ISKP, and Extremist Radicalisation — Avril 2025
ICCT — Exploitation of Generative AI by Terrorist Groups — 2025
MEMRI — Artificial Intelligence And The New Era Of Terrorism — 2025
Ce contenu a été créé avec l'aide de l'IA.