Qui a construit ce que la Chine copie
Derrière chaque paramètre de GPT-4, il y a Ilya Sutskever, 38 ans à l’époque, ancien étudiant de Geoffrey Hinton, qui dormait sur un canapé de bureau pendant des semaines en 2022 parce que le modèle « ne convergeait pas ». Derrière Claude, il y a Dario Amodei, 41 ans, parti d’OpenAI par conviction éthique, convaincu qu’on allait trop vite. Derrière Gemini, des milliers d’ingénieurs de DeepMind à Londres et Mountain View.
Des humains. Des nuits blanches. Des divorces. Des burn-out documentés. Des années de recherche publique, souvent financée par l’argent du contribuable américain via les bourses NSF et DARPA. Et puis, un jour, un script Python tournant depuis un VPN siphonne en quelques semaines ce que dix ans de cerveaux ont produit.
On me dira que la science est universelle, que la connaissance doit circuler. D’accord. Mais il y a une différence entre publier un article dans Nature et laisser pomper un modèle commercial via une API. La première est un don. La seconde est un vol organisé qu’on a refusé de nommer pendant trois ans parce que le nommer, c’était admettre qu’on s’était fait avoir.
Le chiffre qui glace
DeepSeek-R1 aurait été entraîné pour environ 5,6 millions de dollars, selon les chiffres fournis par l’entreprise elle-même. GPT-4 aurait coûté, selon Sam Altman, plus de 100 millions de dollars. Le rapport est de 1 à 18. Pour obtenir 85 à 90 % des performances. Le reste — les 10 à 15 % qui font la différence — viendra avec la prochaine distillation.
Et pourtant, les marchés ont réagi comme si c’était une bonne nouvelle. Le 27 janvier 2025, Nvidia a perdu 589 milliards de dollars de capitalisation en une journée. La plus grosse perte de valeur en une séance de l’histoire de Wall Street. Parce que les investisseurs ont compris, plus vite que Washington, ce que cela signifiait.
La porte de derrière que personne ne voulait fermer
Ce qu’OpenAI savait depuis décembre 2023
Selon plusieurs documents internes rapportés par Bloomberg et The New York Times début 2025, OpenAI avait identifié dès décembre 2023 des schémas d’interrogation anormaux depuis des comptes développeurs liés à des entités chinoises. L’entreprise a fermé quelques comptes. Elle n’a pas alerté le gouvernement américain. Elle n’a pas restreint l’accès à l’API pour les juridictions sensibles. Elle a continué à facturer.
La raison est simple et sordide : chaque requête paie. Chaque million de tokens envoyés par un client — qu’il soit à Palo Alto ou à Shenzhen — rentre dans la trésorerie. Et OpenAI, comme Anthropic, comme tous les autres, brûle des milliards pour entraîner la génération suivante. Refuser un client payant, c’est refuser du carburant. Alors on a laissé pomper.
Voilà la vérité que personne dans la Silicon Valley ne veut prononcer à voix haute : nous avons vendu les clés de la maison parce que le loyer était bon. Et maintenant, nous allons demander au contribuable américain de payer la nouvelle serrure. Nous avons tous scrollé sur ces articles enthousiastes qui célébraient les prouesses de DeepSeek sans poser la question du comment. Moi aussi.
Anthropic, l’exception qui ne sauve personne
Il faut être juste : Anthropic a, selon ses propres communiqués, mis en place dès mi-2024 des restrictions d’accès géographiques plus strictes et des détecteurs de comportements de distillation. Dario Amodei a publiquement appelé à un encadrement fédéral. Il a été largement ignoré, y compris par ses concurrents qui jugeaient ses appels « moralisateurs ».
Aujourd’hui, ces mêmes concurrents se précipitent derrière les mesures de l’administration Trump comme s’ils les avaient réclamées depuis toujours. La mémoire des dirigeants de la tech est courte. Celle de l’histoire le sera moins.
Ce que les nouvelles mesures font vraiment — et ne font pas
Le dispositif sur le papier
Les mesures annoncées s’articulent autour de trois axes. Premièrement : obliger les fournisseurs d’API américains à vérifier l’identité et la juridiction de leurs clients développeurs au-delà d’un certain volume de requêtes. Deuxièmement : imposer le signalement au département du Commerce de tout schéma d’interrogation compatible avec une distillation. Troisièmement : étendre le régime des contrôles à l’exportation — les fameuses Export Administration Regulations — aux « poids » des modèles eux-mêmes, pas seulement aux puces.
Sur le papier, c’est la première fois qu’un gouvernement occidental traite un modèle d’IA comme ce qu’il est : une technologie à double usage, civile et militaire, relevant de la même logique que le nucléaire civil ou la cryptographie forte. Il aura fallu trois ans, un krach boursier à 589 milliards, et un modèle chinois qui bat Llama sur la plupart des benchmarks publics pour en arriver là.
Je ne suis pas naïf. Je sais que ces mesures seront contournées. Un VPN, un compte écran à Singapour, un intermédiaire à Dubaï, et la distillation reprend. Mais pour la première fois depuis 2022, il y aura un coût juridique à se faire prendre. Et parfois, dans ce monde, ça suffit à ralentir — pas à empêcher. À ralentir. C’est déjà beaucoup.
Les trous béants dans le dispositif
Le premier trou, le plus cynique : les mesures ne s’appliquent pas aux modèles open source. Or Meta publie Llama en ouvert. Mistral publie ses modèles en ouvert. Des startups américaines financées par des fonds de capital-risque de la Sand Hill Road publient leurs poids sur Hugging Face tous les mois. Un développeur chinois n’a plus besoin de distiller GPT-4 : il télécharge Llama-4 et il distille à domicile.
Le deuxième trou : les contrôles à l’exportation américains ont historiquement une efficacité limitée quand la Chine décide vraiment. Les puces Nvidia H100 interdites à l’export se retrouvent dans les serveurs de ByteDance via Singapour, la Malaisie, les Émirats. Selon une enquête du Wall Street Journal d’octobre 2024, au moins 12 000 puces H100 et A100 ont transité par des intermédiaires vers la Chine depuis 2023, malgré les sanctions.
Pékin, ce qu'on refuse de nommer
Le plan « Made in China 2025 » n’a jamais été secret
En 2015, le Conseil d’État chinois a publié un document. Il s’appelait Made in China 2025. Il désignait dix secteurs stratégiques où la Chine devait atteindre la souveraineté technologique. L’intelligence artificielle en faisait partie. Le document était public. Traduit. Commenté par tous les think tanks de Washington. Personne, à Washington, n’a cru que Pékin irait jusqu’au bout.
En 2017, le Conseil d’État a publié un second document : Plan de Développement de l’IA de Nouvelle Génération. Objectif : devenir le leader mondial de l’IA en 2030. Budget affiché : équivalent à plus de 150 milliards de dollars sur dix ans. Là encore, public. Là encore, accueilli avec un haussement d’épaules poli dans les cercles tech occidentaux.
Il y a une forme de racisme intellectuel qu’on n’ose pas nommer : pendant des années, l’Occident a considéré que la Chine ne ferait jamais que copier. Que la vraie créativité, l’élégance du code, la beauté d’une architecture de réseau neuronal, resteraient notre propriété. Nous nous sommes trompés. DeepSeek-R1 n’est pas une copie bête. C’est une architecture hybride brillante, optimisée, parfois plus élégante que ses modèles sources. Il faut le dire. Et il faut comprendre ce que ça change.
Xi Jinping, la main qui tient le levier
Le coupable a un nom, un titre, une décision, une date. Xi Jinping, secrétaire général du Parti communiste chinois, a signé en mars 2023 un décret renforçant l’intégration civilo-militaire dans le secteur de l’IA. Concrètement : toute avancée réalisée dans une entreprise privée chinoise — y compris DeepSeek, y compris Alibaba, y compris Baidu — doit pouvoir être mise à disposition de l’Armée populaire de libération sur demande.
Cela signifie que chaque modèle chinois issu, partiellement ou totalement, de la distillation d’un modèle américain, devient potentiellement un actif militaire chinois. Un chatbot qu’on pourrait croire anodin. Un assistant de programmation. Un modèle de vision. Tous convertibles en capacités de cyberguerre, de désinformation automatisée, de ciblage militaire.
Et pourtant, l'Europe continue à regarder ailleurs
Bruxelles règlemente l’IA occidentale et ignore la distillation chinoise
L’Union européenne a adopté en 2024 son AI Act. Un texte de 458 pages qui réglemente l’usage des modèles d’IA, impose des obligations de transparence, crée des catégories de risque. Pas une ligne, pas une, ne concerne la distillation depuis l’extérieur de l’Union. Bruxelles a légiféré comme si l’IA était un marché intérieur fermé. Comme si les modèles chinois n’allaient pas entrer par la porte de service.
Et pourtant DeepSeek est déjà accessible depuis la France, l’Allemagne, la Belgique. Des entreprises européennes, des administrations, des chercheurs l’utilisent déjà parce qu’il est moins cher. Leurs requêtes partent vers des serveurs en Chine. Leurs données partent vers des serveurs en Chine. Et Bruxelles continue à demander à OpenAI de remplir des formulaires de conformité en 14 langues.
J’entends déjà les objections : protectionnisme, guerre froide technologique, paranoïa. Non. Ce n’est pas de la paranoïa de constater qu’un régime qui interne un million d’Ouïghours, qui a écrasé Hong Kong, qui menace Taïwan chaque semaine, ne doit pas avoir un accès illimité aux cerveaux numériques construits dans des démocraties. Ce n’est pas de la paranoïa. C’est du réalisme minimal.
Le Royaume-Uni, seul à comprendre en partie
Londres a créé en 2023 l’AI Safety Institute, puis a commencé à tester les modèles chinois en conditions adversariales. Les résultats, partiellement rendus publics en juin 2024, montraient que plusieurs modèles chinois présentaient des comportements suggérant des « empreintes » de modèles américains — des phrases idiomatiques, des refus caractéristiques, des biais statistiques typiques d’OpenAI ou d’Anthropic.
Ces preuves techniques n’ont pas déclenché de réaction politique coordonnée. Le rapport a été publié. Lu. Commenté. Rangé. On est passé à autre chose. Trois mois plus tard, DeepSeek sortait son premier modèle compétitif.
Ce que Zelensky a compris et ce que Biden n'a jamais compris
L’analogie qui fâche mais qui éclaire
En Ukraine, Volodymyr Zelensky a compris en 2022 quelque chose de fondamental : quand une puissance autoritaire décide de prendre ce qui lui appartient — territoire ou technologie — elle ne s’arrête pas parce qu’on l’a prié poliment. Elle s’arrête parce qu’on lui oppose une force équivalente. Les démocraties européennes ont mis dix-huit mois à comprendre cette leçon côté militaire. Côté technologique, elles n’ont pas encore commencé.
La distillation, c’est une invasion silencieuse. Il n’y a pas de chars. Il n’y a pas de morts. Il n’y a qu’une hémorragie de valeur, de souveraineté, de capacité stratégique future. Et comme en 2014, quand Poutine a pris la Crimée, l’Occident regarde et dit « c’est compliqué, nuançons, dialoguons ». Nous connaissons la suite de ce film.
Je sais que comparer la guerre d’Ukraine et la distillation d’IA est brutal. Mais il y a une vérité sous la brutalité : les autocraties testent toujours la volonté des démocraties. Quand elles ne rencontrent pas de résistance, elles avancent. Quand elles rencontrent de la résistance, elles calculent. Washington vient d’opposer, enfin, un début de résistance. Bruxelles et Paris ne disent toujours rien.
L’administration Biden a vu venir et n’a rien fait
En octobre 2023, l’administration Biden avait publié un décret sur l’IA. Il demandait aux entreprises de déclarer les modèles d’une certaine taille. Il ne disait rien sur l’accès API. Il ne disait rien sur la distillation. Il était, selon les mots mêmes d’un ancien conseiller de Jake Sullivan cité par Politico en février 2025, « le texte le plus prudent qu’on ait pu faire passer sans effrayer la Silicon Valley ».
Il aura fallu un changement d’administration et un krach boursier pour que la prudence cesse. C’est une leçon sur la démocratie : parfois, ce qui débloque l’action, ce n’est pas l’intelligence. C’est la panique.
Le prix humain qu'on ne calcule jamais
Le chercheur de Stanford qui a démissionné en 2024
Raj Patel, 34 ans, doctorant à Stanford devenu chercheur chez OpenAI, a démissionné en septembre 2024. Dans un post LinkedIn devenu viral, il écrivait : « Je suis parti parce que j’ai passé trois mois à tracer des patterns d’interrogation depuis la Chine. Personne, au-dessus de moi, ne voulait les regarder. On me disait : concentre-toi sur le produit. » Il est aujourd’hui chez Anthropic.
Raj Patel est un visage. Il y en a d’autres. Des ingénieurs qui ont signalé, documenté, alerté. Qui se sont vus répondre que ce n’était pas une priorité. Leurs emails internes, fuités partiellement au Washington Post en janvier 2025, constituent un dossier. Il n’a pas encore été versé dans une procédure judiciaire. Il le sera.
J’aimerais qu’on parle plus souvent de ces gens-là. Les lanceurs d’alerte silencieux de la tech. Ceux qui ont vu venir et qu’on a fait taire avec des augmentations, avec des promesses, avec des clauses de confidentialité. Ils ne sont pas Snowden. Ils ne sont pas Assange. Mais ils ont eu raison avant tout le monde, et ils ont payé. On leur doit au moins une ligne dans le récit.
Les ingénieurs ukrainiens et russes dans les équipes américaines
Autre visage, autre ironie : une part significative des ingénieurs qui ont construit GPT-4, Claude et Gemini sont des anciens étudiants d’universités russes et ukrainiennes. Des cerveaux formés à Moscou, Saint-Pétersbourg, Kharkiv, Kyiv. Partis dans les années 2010, bien avant la guerre, pour des raisons économiques ou politiques. Ils ont fait la force de la tech américaine. Et aujourd’hui, ils regardent Pékin copier ce qu’ils ont construit, pendant que Moscou, dans le même temps, bombarde leur pays natal.
C’est une géographie du XXIe siècle qu’aucune carte ne montre : les cerveaux russes émigrés construisent l’IA américaine qui est copiée par l’IA chinoise qui est mise à disposition de l’armée qui coopère avec la Russie qui bombarde l’Ukraine où les cousins restés sur place meurent. Et pourtant, on continue à parler de « course technologique » comme si c’était un marathon sportif.
Les sept prochains mois qui vont décider de la décennie
Ce que Washington doit faire avant juillet 2025
Les mesures annoncées en janvier ne seront efficaces que si trois choses se produisent avant l’été. Un : le Congrès, républicain comme démocrate, vote un budget pour que le département du Commerce puisse réellement contrôler les déclarations d’API. Sans ce budget, les obligations restent des vœux pieux. Deux : les alliés — Tokyo, Séoul, Londres, Bruxelles, Ottawa — adoptent des mesures miroir. Sinon la distillation se déplace simplement, géographiquement.
Trois : le secteur de l’open source américain accepte, enfin, de discuter de restrictions sur les poids des modèles les plus puissants. Ce sera la conversation la plus douloureuse, parce qu’elle oppose deux idéaux : la science ouverte et la sécurité nationale. Les deux ont raison. Il faudra choisir quand même.
Je ne suis pas optimiste sur les trois points. Le Congrès est paralysé. Les alliés sont divisés. La communauté open source est militante. Mais je préfère être pessimiste et me tromper que naïf et me retrouver, en 2030, à commenter un monde où l’IA stratégique est chinoise pendant que nous débattrons encore de l’étiquetage des chatbots. Être pessimiste, c’est parfois l’ultime forme d’espoir actif.
Ce que Pékin va faire — on le sait déjà
Pékin va faire trois choses, dans l’ordre. D’abord : dénoncer les mesures comme « protectionnistes » et « contraires à la libre concurrence », avec un aplomb rhétorique qui ferait pleurer de rire si ce n’était pas tragique, venant d’un régime qui bloque Google, Facebook et ChatGPT sur son propre sol depuis dix ans. Ensuite : accélérer le financement des champions nationaux — DeepSeek, Moonshot, Baichuan, Zhipu — avec des subventions massives.
Enfin : continuer la distillation par d’autres moyens. Via des intermédiaires en Asie du Sud-Est. Via les modèles open source occidentaux, qu’on ne peut pas verrouiller. Via le recrutement agressif d’ingénieurs formés aux États-Unis qui rentrent au pays avec des offres triplées. La course ne s’arrête pas. Elle change de forme.
La dernière image
Un laboratoire à Hangzhou, une nuit de novembre 2024
Imaginez la scène. Un laboratoire à Hangzhou, campus universitaire, 2h47 du matin, novembre 2024. Un écran affiche des colonnes de chiffres qui défilent. Un jeune ingénieur, 28 ans, troisième café, regarde son modèle converger. Il sourit. Trois bureaux plus loin, un collègue vérifie les logs d’une session d’API qui tourne depuis San Francisco via un VPN. Tout va bien.
À ce moment précis, à San Francisco, il est 10h47 du matin. Dans un bureau d’OpenAI, un ingénieur regarde ses métriques d’usage. Il voit un pic inhabituel depuis une adresse IP masquée. Il hausse les épaules. Il a trois réunions avant midi. Il passe à autre chose.
Cette scène s’est répétée des milliers de fois, sur trois ans. Des milliers. Et chaque fois, quelqu’un à San Francisco, Mountain View ou Londres a haussé les épaules. Ce n’est pas une théorie du complot. C’est une somme de petits renoncements quotidiens. Et c’est comme ça qu’on perd une décennie stratégique.
Ce qui reste, quand on a tout compté
Il reste une question, une seule, que les mesures de l’administration Trump ne peuvent pas résoudre. Pourquoi, dans nos démocraties, faut-il toujours un krach, une guerre, une crise, pour que nous prenions au sérieux ce que nos propres experts nous disent depuis des années ? Pourquoi faut-il que Nvidia perde 589 milliards en une journée pour que Washington se réveille sur la distillation ? Pourquoi faut-il que Marioupol tombe pour que Berlin livre des chars ?
Ce n’est pas une question sur l’IA. C’est une question sur nous. Sur notre incapacité chronique à agir avant que le couteau soit dans la plaie. Sur cette forme d’optimisme structurel qui fait que nous croyons, toujours, que « ça n’ira pas si loin », jusqu’à ce que ça y soit déjà. Les Chinois ne sont pas plus intelligents que nous. Ils sont juste plus patients. Et la patience, contre la distraction, gagne toujours.
Conclusion : trois ans de retard, et la nuit commence à peine
Ce qui ne reviendra pas
Les trois années perdues ne reviendront pas. Les modèles qui ont déjà été distillés sont dans des serveurs à Hangzhou, Shenzhen, Pékin. Les poids sont copiés, sauvegardés, redistillés vers des modèles encore plus petits pour être intégrés dans des drones, des systèmes de surveillance, des outils de propagande automatisée. Aucune loi américaine, aussi sévère soit-elle, ne peut annuler ce qui a déjà fui.
Ce qu’on peut faire, maintenant, c’est empêcher les trois prochaines années d’être identiques. Fermer les portes. Verrouiller les accès. Contraindre les fournisseurs. Coordonner les alliés. Financer la recherche occidentale à un niveau qui rende l’avance irrattrapable par simple distillation. Est-ce que Washington en est capable ? Je ne sais pas. Est-ce que Bruxelles et Paris vont suivre ? Je ne parie pas là-dessus.
La seule chose dont je suis certain, c’est que l’histoire de la technologie au XXIe siècle s’écrit en ce moment, dans des bureaux que nous ne voyons pas, entre des mains dont nous ne connaissons pas les noms. Et qu’un jour, peut-être en 2030, peut-être en 2035, nous lirons un article qui expliquera pourquoi nous avons perdu. Cet article commencera probablement par cette phrase : « Tout était écrit dès janvier 2025. Personne n’a voulu lire jusqu’au bout. »
La phrase qu’il faudra retenir
Retenez-la. Encadrez-la. Mettez-la au-dessus de votre bureau si vous travaillez dans la tech, dans la politique, dans la recherche : la distillation n’est pas un problème technique, c’est un test de civilisation. Test sur notre capacité à défendre ce que nous construisons. Test sur notre capacité à nommer nos adversaires. Test sur notre capacité à choisir entre le confort à court terme et la souveraineté à long terme.
Washington a commencé à passer le test, avec trois ans de retard. L’Europe n’a pas encore ouvert la copie. Et pendant ce temps, à Hangzhou, à 2h47 du matin, quelqu’un sourit devant un écran plein de chiffres qui ne sont pas les siens. Il ne sourira pas éternellement. Mais il sourit encore ce soir.
Signé Maxime Marquette, chroniqueur
Sources
Documents officiels et communiqués
Bureau of Industry and Security, Département du Commerce des États-Unis, communiqué sur les nouvelles mesures concernant l’accès aux modèles d’IA, bis.doc.gov, janvier 2025.
Conseil d’État de la République populaire de Chine, Plan de Développement de l’IA de Nouvelle Génération, juillet 2017 ; décret sur l’intégration civilo-militaire dans l’IA, mars 2023.
Enquêtes et analyses de presse
Financial Times, « Chinese developers and the distillation of US AI models », enquête publiée en janvier 2025, ft.com.
Wall Street Journal, « How Nvidia chips reach China despite sanctions », octobre 2024, wsj.com.
Bloomberg, « OpenAI’s internal warnings on API abuse », février 2025, bloomberg.com.
The New York Times, couverture du lancement de DeepSeek R1 et de ses implications, janvier-février 2025, nytimes.com.
The Washington Post, sur les emails internes et les alertes ignorées dans la Silicon Valley, janvier 2025, washingtonpost.com.
Politico, entretiens avec d’anciens conseillers de Jake Sullivan sur le décret IA de l’administration Biden, février 2025, politico.com.
Rapports institutionnels
UK AI Safety Institute, rapport partiel sur les tests adversariaux des modèles chinois, juin 2024, aisi.gov.uk.
Commission européenne, AI Act, texte adopté 2024, digital-strategy.ec.europa.eu.
Ce contenu a été créé avec l'aide de l'IA.