Skip to content
COMMENTAIRE : Anthropic contre le Pentagone — Le jour où l’intelligence artificielle a dit non à la guerre
Crédit: Adobe Stock

Ce que le Pentagone voulait vraiment

La demande du secrétaire à la Défense Pete Hegseth ne laissait aucune place à l’interprétation. Il exigeait un « accès illimité » (unfettered access) à Claude — ce qui signifiait concrètement la suppression des restrictions de sécurité qu’Anthropic avait intégrées au modèle. Ces restrictions, appelées garde-fous dans l’industrie, empêchent l’IA d’aider à planifier des attaques, d’identifier des cibles humaines pour élimination, ou de participer à des opérations de surveillance de masse.

Hegseth voulait que ces protections soient retirées. Pas modifiées. Pas adaptées. Retirées. Il voulait un Claude militaire — une intelligence artificielle capable d’analyser des données de renseignement, d’identifier des cibles, de recommander des frappes et de coordonner des opérations autonomes. Le tout sans intervention humaine dans la boucle de décision.

Et pourtant. C’est exactement ce type d’utilisation que les fondateurs d’Anthropic avaient quitté OpenAI pour prévenir. Amodei et son équipe avaient créé Anthropic en 2021 précisément parce qu’ils estimaient que l’IA avait besoin de limites. Que la course à la performance sans contraintes éthiques mènerait à une catastrophe. Cinq ans plus tard, le moment de vérité était arrivé.

Quand Pete Hegseth dit « accès illimité », ce qu’il veut dire, c’est ceci : une intelligence artificielle capable de regarder un flux vidéo de drone, d’identifier un visage, de le comparer à une base de données, de calculer la probabilité qu’il soit un ennemi, et d’autoriser une frappe — le tout en quelques secondes, sans qu’un être humain n’appuie sur le bouton. C’est le rêve de chaque commandant militaire depuis que la guerre existe. C’est aussi le cauchemar de quiconque a lu un livre d’histoire.

La date limite ignorée

Amodei a proposé un compromis : Claude pourrait être utilisé pour l’analyse logistique, le traitement de données non classifiées, l’optimisation des chaînes d’approvisionnement. Mais pas pour le ciblage. Pas pour la surveillance. Pas pour les décisions de vie ou de mort. Le Pentagone a refusé le compromis. Le vendredi 27 février, la date limite a expiré. Anthropic n’a pas plié.

Ce contenu a été créé avec l'aide de l'IA.

facebook icon twitter icon linkedin icon
Copié!
Plus de contenu