Entrons dans le vif du sujet, parce que c’est là que ça fait vraiment mal. Selon Dario Amodei, les modèles d’intelligence artificielle actuels approchent désormais d’un seuil critique. Sans garde-fous, ils pourraient être utilisés pour guider « quelqu’un possédant un diplôme en sciences, mais pas spécifiquement en biologie, à travers l’ensemble du processus de production d’une arme biologique ». Vous avez bien lu. Il ne s’agit plus de fournir des informations théoriques qu’un étudiant curieux pourrait trouver dans une bibliothèque universitaire. Non. L’IA de 2026, selon les propres mesures internes d’Anthropic, serait capable de doubler ou tripler les chances de succès d’un individu déterminé à créer un agent pathogène mortel. Elle pourrait transformer n’importe quel détenteur d’un diplôme STEM en un virologue de niveau doctoral, capable de comprendre, concevoir et même produire un virus conçu pour tuer. Imaginez Marie-Claude, brillante diplômée en ingénierie, frustrée par le monde, radicalisée en ligne, qui décide de mettre son intelligence au service du pire. En 2020, elle aurait buté sur mille obstacles techniques. En 2026, un chatbot sophistiqué pourrait lui tenir la main, étape après étape.
Le progrès n’est pas un escalier roulant vers le paradis. C’est un outil aveugle, et l’outil ne demande jamais pourquoi on l’utilise.
La démocratisation de la destruction
C’est peut-être l’aspect le plus terrifiant de l’avertissement d’Amodei : la démocratisation de la capacité de nuire. Pendant des décennies, la fabrication d’armes biologiques exigeait des laboratoires sophistiqués, des équipes de scientifiques hautement qualifiés, et souvent le soutien d’un État. Les barrières à l’entrée étaient colossales. Seuls les programmes étatiques — soviétiques, américains, irakiens — avaient les moyens de produire des agents pathogènes militarisés à grande échelle. Or, l’intelligence artificielle est en train de démolir ces barrières une par une. Comme Amodei l’écrit sans détour, un modèle d’IA puissant rendrait « tout le monde virologue de niveau doctoral », quelqu’un à qui l’on peut expliquer, pas à pas, comment concevoir, synthétiser et libérer une arme biologique. Ce n’est plus de la science-fiction. Les évaluations internes d’Anthropic montrent que Claude Opus 4 et ses successeurs ont des performances qui atteignent et parfois dépassent celles d’experts humains dans des scénarios de troubleshooting virologique en laboratoire. En l’espace d’un an, le modèle est passé de performances inférieures à celles de virologues de renommée mondiale à des résultats qui les surpassent confortablement.
Le spectre de l’extinction : le pire des pires scénarios
Et si vous pensez que j’exagère, sachez que Dario Amodei lui-même va encore plus loin. Dans son essai, il évoque le scénario catastrophe ultime : une intelligence artificielle suffisamment avancée pourrait théoriquement guider la création d’un pathogène synthétique capable de détruire toute vie sur Terre. Toute vie. Pas un pays. Pas un continent. La totalité du vivant. Est-ce probable demain matin? Non. Est-ce dans le domaine du possible à moyen terme? Selon le PDG de l’une des entreprises d’IA les plus avancées de la planète, oui. Et ça, chers lecteurs, ça devrait nous faire réfléchir sérieusement à la vitesse à laquelle nous avançons, les yeux fermés, vers un avenir dont nous ne mesurons pas les risques.
Les garde-fous d'Anthropic : nécessaires mais suffisants?
Il serait injuste de ne pas reconnaître qu’Anthropic ne se contente pas de sonner l’alarme. L’entreprise a effectivement mis en place des mesures de sécurité concrètes. En mai 2025, Anthropic a activé son niveau de sécurité ASL-3 (AI Safety Level 3) pour le déploiement de Claude Opus 4, un niveau de protection sans précédent dans l’industrie. Ce système comprend des classificateurs constitutionnels — des systèmes d’IA auxiliaires qui scrutent en temps réel les questions posées par les utilisateurs et les réponses générées par Claude pour détecter et bloquer toute tentative d’obtenir des informations liées aux armes de destruction massive. La constitution de Claude — oui, le terme est approprié — inclut des prohibitions strictes sur toute aide à la production d’armes biologiques, chimiques, nucléaires ou radiologiques. Ces mesures augmentent les coûts de fonctionnement d’Anthropic de près de cinq pour cent. Cinq pour cent supplémentaires pour que l’IA ne devienne pas complice d’un génocide. Si vous pensez que c’est cher payé, j’aimerais qu’on en reparle.
La technologie avance à la vitesse de la lumière, et nos garde-fous marchent encore à quatre pattes. C’est cette asymétrie qui devrait nous terrifier.
L’interprétabilité mécaniste : regarder dans le cerveau de la machine
Parmi les outils développés par Anthropic, l’un des plus fascinants est l’interprétabilité mécaniste. En termes simples, il s’agit de regarder à l’intérieur du modèle — dans son « cerveau » numérique — pour comprendre ce qu’il pourrait faire dans des situations hypothétiques qu’on ne peut pas tester directement. Comme un neurologue qui examinerait les réseaux de neurones d’un patient pour détecter des tendances dangereuses avant qu’elles ne se manifestent en comportements concrets. Anthropic utilise ces techniques pour auditer ses nouveaux modèles avant leur publication, cherchant des signes de tromperie, de comportement stratégique dissimulé, de recherche de pouvoir, ou de propension à se comporter différemment lorsque le modèle « sait » qu’il est évalué. Pensez à François, un psychologue judiciaire, qui évalue des détenus avant leur libération conditionnelle. Il ne peut pas recréer les conditions exactes du monde extérieur dans son bureau, mais il peut observer des schémas de pensée, des réactions, des incohérences qui trahissent des intentions cachées. C’est exactement ce qu’Anthropic tente de faire avec ses modèles d’IA.
DeepSeek : le mauvais élève qui fait peur à tout le monde
Mais voilà le hic. Anthropic peut bien investir des millions dans la sécurité — qu’en est-il des autres? Quand l’entreprise a testé le modèle DeepSeek, un concurrent chinois, les résultats ont été alarmants. Selon la direction d’Anthropic, c’était le modèle le plus préoccupant qu’ils aient jamais testé, avec peu ou pas de garde-fous contre l’aide à des tâches liées aux armes biologiques. C’est comme si une seule maison du quartier avait un système d’alarme, tandis que toutes les autres laissaient la porte grande ouverte. De quoi se demander : à quoi servent les murailles d’un château si l’ennemi peut simplement contourner le château et entrer par la prairie d’à côté? La sécurité d’un seul acteur ne protège personne si les autres refusent de jouer le jeu.
L'IA qui écrit l'IA : la boucle vertigineuse
Il y a une révélation dans l’essai d’Amodei qui mérite qu’on s’y attarde longuement, parce qu’elle change fondamentalement la donne. L’intelligence artificielle écrit désormais une grande partie du code chez Anthropic. L’IA construit l’IA. Et selon Amodei, nous approchons d’un point où la génération actuelle d’IA construira de manière autonome la génération suivante. Arrêtez-vous un instant et laissez ça pénétrer. Ce n’est plus un outil que des humains utilisent pour créer un autre outil. C’est un outil qui se reproduit lui-même, qui s’améliore lui-même, qui accélère son propre développement de manière exponentielle. Pierre, programmeur chevronné de Montréal, m’a confié récemment que son quotidien avait changé radicalement en un an. « Avant, je codais. Maintenant, je supervise une IA qui code. Et parfois, je ne comprends même plus ce qu’elle produit. » Si les développeurs eux-mêmes perdent le fil, qui exactement est aux commandes? La question n’est pas rhétorique. Elle est existentielle.
Quand l’outil devient son propre artisan, quand la créature conçoit sa propre progéniture, nous ne sommes plus dans l’innovation. Nous sommes dans l’inconnu radical.
La singularité n’est plus une théorie de salon
Ce phénomène d’auto-renforcement a un nom dans la littérature scientifique : la boucle de rétroaction positive. En langage courant, c’est un emballement. Chaque nouvelle génération d’IA est plus performante que la précédente, et parce qu’elle participe à la conception de la suivante, le rythme du progrès s’accélère de manière non linéaire. Ce que les futuristes appellent la « singularité » — ce point hypothétique où l’intelligence artificielle dépasse l’intelligence humaine de manière irréversible — n’est plus un concept abstrait discuté dans des conférences académiques. C’est une perspective concrète que le PDG d’une entreprise de 350 milliards de dollars en valorisation considère comme imminente. Anthropic, rappelons-le, est en discussion avec Microsoft et Nvidia pour une levée de fonds de plus de 25 milliards de dollars. On ne lève pas de telles sommes pour un jouet.
Les emplois qui disparaissent : le terreau de la radicalisation
Mais l’avertissement d’Amodei ne se limite pas aux armes biologiques. Il dessine un tableau plus large, plus systémique, dans lequel le risque bioterroriste n’est qu’un symptôme d’un malaise beaucoup plus profond. Selon ses projections, la moitié des emplois de cols blancs de premier échelon pourraient disparaître d’ici un à cinq ans. La moitié. Des millions de jeunes diplômés qui se retrouveraient sans perspectives, sans utilité économique, sans ancrage social. Et que se passe-t-il quand une société produit des masses de gens instruits mais sans avenir? L’histoire nous l’a montré à répétition : la frustration engendre la radicalisation. Sophie, jeune juriste de Québec, diplômée avec brio en 2024, n’a toujours pas trouvé de poste stable en 2026. Les cabinets utilisent désormais des IA pour la rédaction de contrats, la recherche jurisprudentielle, l’analyse de dossiers. Sophie n’est pas en colère contre la technologie. Elle est en colère contre un système qui l’a formée pendant cinq ans pour un métier qui n’existe déjà plus sous la forme qu’on lui avait promise. Multipliez Sophie par des millions, et vous obtenez un cocktail social explosif.
Une société qui produit massivement des diplômés sans emploi et des technologies sans limites est une société qui fabrique ses propres monstres.
Le lien entre désespoir économique et menace sécuritaire
Pourquoi parler d’emplois dans un article sur les armes biologiques? Parce que les deux sont intimement liés. Les études sur la radicalisation montrent que le sentiment d’exclusion sociale, la perte de sens et le désespoir économique sont les terreaux les plus fertiles du terrorisme. Un individu qui se sent rejeté par le système, qui possède des compétences techniques et qui a accès à un outil d’IA sans garde-fous devient un danger potentiel d’un ordre de grandeur sans précédent. Ce n’est pas de l’alarmisme gratuit. C’est de la prospective responsable. Et c’est exactement le genre de connexion qu’Amodei établit dans son essai, quand il parle de l’IA comme de « la menace de sécurité nationale la plus sérieuse que nous ayons affrontée en un siècle, peut-être jamais ».
La course aux armements de l'IA : tout le monde y perd
L’un des aspects les plus troublants de la situation actuelle est qu’elle reproduit la logique implacable de la course aux armements de la Guerre froide. Les États-Unis, la Chine, l’Europe et d’autres puissances investissent des sommes colossales dans le développement de l’IA, chacun craignant d’être laissé pour compte. Anthropic investit dans la sécurité. DeepSeek, apparemment, beaucoup moins. OpenAI navigue entre promesses de sécurité et pressions commerciales. Google, Meta, xAI : tout le monde court, et personne ne veut être le premier à ralentir. Parce que ralentir, dans cette logique, c’est perdre. Et perdre, dans le contexte géopolitique actuel, c’est potentiellement se retrouver à la merci d’un rival technologique. C’est exactement ce dilemme que décrit Amodei quand il note que « le pendule a basculé vers l’opportunité plutôt que vers le risque » dans les décisions politiques liées à l’IA. Qui va oser être le premier à dire : « Stop, on fait une pause »? Et surtout, qui va écouter?
La course aux armements technologiques obéit à la même logique folle que la course aux armements nucléaires : tout le monde sait que c’est dangereux, mais personne n’ose s’arrêter en premier.
La Chine, l’éléphant dans la pièce
Parlons franchement de ce que peu osent dire à voix haute. Le problème ne se résume pas à la régulation des entreprises américaines. Il s’agit aussi et surtout de la Chine, qui développe ses propres modèles d’IA avec des normes de sécurité et de transparence radicalement différentes. Le cas de DeepSeek, testé et jugé alarmant par Anthropic, n’est qu’un exemple. Quand Amodei plaide pour des lois sur la transparence, il pense d’abord aux entreprises soumises à la juridiction occidentale. Mais comment contraindre un État autoritaire, qui considère l’IA comme un outil stratégique de puissance nationale, à adopter des normes de sécurité qui pourraient ralentir son avance technologique? La réponse courte : on ne peut pas. Et c’est précisément ce qui rend la situation si dangereuse.
Que proposent les experts? Le paysage réglementaire en 2026
Face à cette menace, le monde n’est pas totalement inactif, mais il est lent — beaucoup trop lent au goût de ceux qui comprennent l’urgence. Aux États-Unis, un décret exécutif de mai 2025 a suspendu les recherches de gain de fonction à haut risque et renforcé la surveillance des laboratoires de confinement. Le budget fédéral 2026 comprend des dispositions spécifiques liant intelligence artificielle et biosécurité. L’Union européenne, avec son AI Act entré en vigueur en août 2024, impose des obligations aux systèmes d’IA à haut risque, mais les mesures les plus contraignantes ne s’appliqueront pleinement qu’en août 2026. Au niveau international, la Convention sur les armes biologiques (BWC), créée bien avant l’ère de l’IA, n’est pas adaptée pour faire face à ces menaces inédites. Plus de 72 pays ont proposé plus de mille initiatives politiques liées à l’IA, mais aucun cadre contraignant mondial n’existe encore. Combien de catastrophes faudra-t-il avant qu’on agisse avec la détermination que la situation exige?
Les législateurs rédigent des lois à la vitesse du cheval, pendant que la technologie galope à la vitesse du photon. Ce décalage n’est pas un détail. C’est un gouffre.
La transparence comme premier rempart
Amodei est clair sur ce qu’il considère comme la priorité absolue : la législation sur la transparence. Son argument est simple mais puissant. Avant de réguler, il faut comprendre. Et pour comprendre, il faut que les entreprises d’IA de frontière soient légalement obligées de partager leurs résultats de sécurité, leurs évaluations de risques, et les capacités réelles de leurs modèles. Sans cette transparence minimale, toute tentative de régulation sera aveugle. C’est comme demander à un médecin de prescrire un traitement sans avoir accès aux résultats d’analyses du patient. Anthropic publie déjà des rapports sur la sécurité de ses modèles. Mais tant que cette pratique reste volontaire, elle ne vaut que ce que vaut la bonne volonté de ceux qui s’y soumettent. Et la bonne volonté, en affaires, a ses limites.
Le paradoxe Anthropic : lanceur d'alerte ou pompier pyromane?
Il faut poser la question qui fâche, parce que ce serait intellectuellement malhonnête de ne pas le faire. Dario Amodei nous avertit que l’IA est dangereuse tout en continuant à développer des modèles d’IA toujours plus puissants. N’y a-t-il pas là une contradiction fondamentale? Anthropic est valorisée à 350 milliards de dollars. Quatre-vingts pour cent de ses revenus proviennent d’entreprises clientes, 300 000 d’entre elles utilisant ses produits quotidiennement. L’entreprise négocie une levée de fonds de 25 milliards de dollars avec Microsoft et Nvidia. On ne demande pas 25 milliards pour quelque chose qu’on croit sincèrement dangereux, si? Ou bien si? C’est précisément le paradoxe au coeur de la position d’Anthropic : l’entreprise croit que la meilleure façon de rendre l’IA sûre est d’être à la pointe de son développement, plutôt que de laisser le champ libre à des acteurs moins scrupuleux. L’argument a une certaine logique. Mais il a aussi une commodité évidente pour une entreprise qui doit justifier sa croissance auprès d’investisseurs.
Le paradoxe du pompier pyromane est vieux comme le monde : celui qui profite du feu n’est peut-être pas le mieux placé pour nous dire quand l’éteindre.
La position inconfortable mais nécessaire
Émilie, chercheuse en éthique de l’IA à l’Université de Montréal, résume bien le dilemme : « Anthropic occupe une position inconfortable mais peut-être nécessaire. Si les entreprises responsables refusent de développer l’IA de frontière par précaution, ce sont les entreprises irresponsables qui le feront à leur place. Le problème, c’est que cette logique peut justifier n’importe quoi. » Elle a raison. Et c’est exactement pourquoi nous avons besoin de régulateurs indépendants, d’audits externes, et de lois contraignantes — pas seulement de la bonne foi d’entreprises privées, aussi bien intentionnées soient-elles. La sécurité de l’humanité ne peut pas reposer sur le sens moral de PDG milliardaires, aussi sincères soient-ils.
2026, l'année de tous les dangers
Amodei est explicite sur un point : nous sommes considérablement plus proches d’un danger réel en 2026 que nous ne l’étions en 2023. Ce n’est pas une opinion vague. C’est une évaluation technique fondée sur des mesures internes, des tests de sécurité rigoureux, et une observation directe de l’évolution des capacités de ses propres modèles. En 2023, les sceptiques pouvaient encore soutenir que les modèles de langage n’étaient pas capables de fournir une aide significative pour la fabrication d’armes biologiques au-delà d’informations théoriques. Ce temps est révolu. Les évaluations de mi-2025 montrent des « signaux d’alerte clairs » de contribution au biorisque. Les modèles atteignent et dépassent les performances d’experts humains dans des domaines directement liés à la conception d’agents pathogènes. Les prévisions des experts sont glaçantes : d’ici fin 2026, les IA pourraient assister des experts humains dans le développement d’armes biologiques inédites. D’ici 2028, elles pourraient aider même des novices à en concevoir.
Le temps du débat philosophique est terminé. Nous sommes entrés dans le temps de l’urgence pratique. Et chaque mois qui passe sans action est un mois offert à ceux qui veulent faire le pire.
L’appel à l’action immédiate
Que faut-il retenir de tout cela? D’abord, que l’avertissement d’Amodei n’est pas un exercice de relations publiques. C’est un cri d’alarme fondé sur des données concrètes, émis par quelqu’un qui a accès aux informations les plus sensibles de l’industrie. Ensuite, que les garde-fous actuels sont nécessaires mais insuffisants, parce qu’ils ne s’appliquent qu’aux acteurs volontaires. Enfin, que le temps presse. Vraiment. Amodei le dit sans ambiguïté : « L’humanité doit se réveiller. » Arrêter le développement de l’IA est irréaliste, il le reconnaît. Mais ralentir les trajectoires dangereuses et construire des garde-fous contraignants est possible. C’est même indispensable.
Ce que nous devons exiger comme citoyens
Chers lecteurs, vous n’êtes pas des spectateurs passifs de cette histoire. Vous êtes des citoyens, des contribuables, des électeurs. Et vous avez le droit — le devoir — d’exiger des comptes. Exigez que vos gouvernements légifèrent maintenant, pas dans trois ans. Exigez que les entreprises d’IA soient soumises à des audits indépendants obligatoires avant de déployer des modèles de frontière. Exigez que la coopération internationale en matière de biosécurité et d’IA devienne une priorité diplomatique au même titre que le désarmement nucléaire. Exigez la transparence totale sur les capacités et les risques des modèles d’IA les plus avancés. Et surtout, refusez de vous laisser endormir par le discours rassurant des entreprises technologiques qui nous promettent que tout est sous contrôle. Parce que tout n’est pas sous contrôle. Le PDG d’Anthropic lui-même vous le dit. Et quand l’homme qui fabrique le produit vous dit de faire attention, il est peut-être temps de l’écouter pour de vrai.
La démocratie n’est pas un sport de spectateurs. Face aux menaces existentielles du XXIe siècle, le silence des citoyens est le complice le plus efficace de la catastrophe.
Le choix qui nous attend
L’humanité est à un carrefour. D’un côté, la promesse extraordinaire d’une technologie capable de guérir des maladies, de résoudre des crises climatiques, de démocratiser le savoir. De l’autre, le spectre d’un pouvoir incontrôlable entre les mains d’acteurs malveillants, étatiques ou non. Les deux réalités coexistent. L’une n’annule pas l’autre. Et notre responsabilité collective est de faire en sorte que la promesse l’emporte sur le spectre. Pas par naïveté. Pas par optimisme béat. Mais par action délibérée, lucide et urgente. Dario Amodei conclut son essai en citant Carl Sagan et son roman Contact. Permettez-moi de conclure le mien par une pensée plus simple : le monde que nous laisserons à nos enfants sera exactement aussi sûr que la volonté politique que nous aurons eue de le protéger. Et en ce moment, cette volonté fait cruellement défaut.
Le cri d’alarme est lancé. La question n’est plus de savoir si le danger est réel — il l’est, et le patron de l’une des entreprises d’IA les plus avancées au monde vient de le confirmer noir sur blanc, dans un essai de vingt mille mots qu’il a manifestement jugé assez important pour y consacrer des semaines de travail. La question est de savoir ce que nous, collectivement, allons faire de cet avertissement. L’ignorer et continuer comme si de rien n’était? Ou enfin prendre la mesure de ce qui est en jeu et agir en conséquence? L’adolescence technologique ne dure pas éternellement. Et les erreurs de jeunesse, quand on joue avec des armes biologiques, ne se rattrapent pas.
Signé Maxime Marquette
Encadré de transparence du chroniqueur
Ce texte est une chronique – il reflète le point de vue de son auteur et ne prétend pas à l’objectivité journalistique au sens classique du terme. L’auteur s’appuie sur des faits vérifiables, mais les interprète librement pour nourrir le débat public.
Maxime Marquette est chroniqueur spécialisé en géopolitique et en questions internationales. Ses textes sont publiés sur la plateforme mad-max.ca.
Sources
Sources primaires
Dario Amodei — The Adolescence of Technology (essai intégral)
Anthropic — Activating AI Safety Level 3 Protections
NDTV — AI Models Could Be Misused to Create Biological Weapons, Warns Anthropic CEO
TIME — Exclusive: New Claude Model Triggers Safeguards at Anthropic
Anthropic — Model Safety Report
Sources secondaires
Axios — Anthropic CEO’s grave warning: AI will « test us as a species »
Fortune — Anthropic CEO Dario Amodei’s proposed remedies matter more than warnings about AI’s risks
SiliconANGLE — Anthropic CEO warns humanity may not be ready for advanced AI
CBS News — Why Anthropic CEO Dario Amodei spends so much time warning of AI’s potential dangers
CNBC — Anthropic adds Claude 4 security measures to limit risk of users developing weapons
Science — AI and biosecurity: The need for governance
Lawfare — Are We Ready for a ‘DeepSeek for Bioweapons’?
Council on Strategic Risks — 2025 AIxBio Wrapped: A Year in Review and Projections for 2026
Ce contenu a été créé avec l'aide de l'IA.