Deux agents, zéro intuition
Le système chinois ne fonctionne pas comme un mathématicien. Un mathématicien a de l’intuition — cette capacité inexplicable à sentir qu’une piste est bonne avant de savoir pourquoi. La machine n’a rien de cela. Elle a de la force brute dirigée. Le premier agent — appelons-le le chercheur — génère des séquences logiques, des enchaînements de lemmes, des ébauches de preuves. Il en produit des milliers par heure. La plupart sont absurdes. Certaines sont intéressantes. Quelques-unes sont prometteuses.
Le second agent — le vérificateur — prend chaque ébauche et la passe au crible d’un système de vérification formelle, un logiciel qui ne tolère aucune approximation, aucun « il est évident que », aucun saut logique. Chaque étape doit être prouvée depuis les axiomes. Ce que le vérificateur rejette, le chercheur le reformule. Ce que le vérificateur accepte, le chercheur l’étend. La boucle tourne 80 heures. Et au bout de ces 80 heures, une démonstration complète émerge — pas élégante, pas intuitive, mais formellement correcte selon les critères de la machine.
Le mot qui manque dans cette description, c’est « comprendre ». La machine n’a pas compris le problème. Elle l’a résolu. La distinction semble mineure. Elle est abyssale. Et elle pose une question que les mathématiciens n’avaient jamais eu à affronter : une preuve qu’aucun humain ne comprend est-elle encore une preuve ?
La vérification formelle, juge sans appel
Les systèmes de vérification formelle — comme Lean, Coq ou Isabelle — existent depuis des décennies. Ils sont utilisés pour certifier des logiciels critiques dans l’aéronautique ou le nucléaire. Leur principe est simple : chaque affirmation doit être déduite des précédentes par des règles explicites. Pas de raccourci. Pas de confiance. Pas de « le lecteur vérifiera aisément ». C’est un juge incorruptible, mais aveugle — il ne sait pas si la preuve est intéressante, seulement si elle est correcte. L’équipe de Pékin a utilisé ce type de système comme second agent. Ce qui signifie que la preuve, si elle est confirmée par les pairs, aura un degré de certitude formelle supérieur à la plupart des preuves humaines publiées dans les revues mathématiques — où les erreurs passent parfois inaperçues pendant des années.
Le précédent qui change tout — et celui qui tempère
AlphaProof, DeepMind et la Médaille Fields virtuelle
Ce n’est pas la première fois qu’une intelligence artificielle s’attaque aux mathématiques. En juillet 2024, AlphaProof, développé par Google DeepMind, a résolu quatre des six problèmes de l’Olympiade internationale de mathématiques — un score qui lui aurait valu une médaille d’argent face aux meilleurs lycéens du monde. Mais les problèmes d’olympiade sont des exercices — brillants, difficiles, mais bornés. On sait qu’une solution existe. On sait à peu près où chercher. Une conjecture ouverte depuis dix ans, c’est autre chose. C’est un territoire sans carte, sans garantie qu’un chemin existe.
Et pourtant, il faut tempérer. Le résultat de l’Université de Pékin est un preprint — un article déposé en ligne, non encore soumis à l’évaluation par les pairs. En mathématiques, le preprint est le premier mot, pas le dernier. Andrew Wiles avait publié sa première preuve du dernier théorème de Fermat en 1993 — elle contenait une erreur qu’il lui a fallu un an pour corriger. Les preprints sont des promesses. La science vit de promesses tenues, pas de promesses faites. Tant que des mathématiciens humains spécialisés en algèbre commutative n’auront pas vérifié ligne par ligne que la preuve générée par la machine est non seulement formellement correcte mais mathématiquement significative, la prudence reste de mise.
La prudence, oui. Mais une prudence qui a le cœur qui bat un peu plus vite que d’habitude. Parce que si cette preuve tient — si elle est confirmée — alors ce n’est pas un exploit isolé. C’est le signal que l’IA vient de franchir un seuil que beaucoup pensaient encore lointain : la création autonome de connaissance mathématique originale.
Ce que le preprint ne dit pas encore
Le papier de l’équipe de Pékin décrit la méthode, le résultat et la vérification formelle. Il ne décrit pas ce que la preuve signifie pour le champ. Une démonstration en mathématiques n’est pas seulement un verdict — vrai ou faux. C’est un chemin. Et la valeur d’un chemin réside souvent dans les paysages qu’il traverse, les connexions qu’il révèle entre des domaines apparemment séparés. La preuve de Wiles pour Fermat a révélé des liens profonds entre les courbes elliptiques et les formes modulaires — des liens qui ont nourri vingt ans de recherche ultérieure. La preuve de la machine de Pékin est-elle un cul-de-sac correct, ou un corridor qui ouvre sur de nouvelles salles ? Personne ne le sait encore. Et la machine, elle, ne sait même pas que la question existe.
La Chine, nouvelle puissance de l'IA mathématique
Pékin investit là où personne ne regarde
L’Université de Pékin — Beida, comme l’appellent les Chinois — n’est pas un acteur nouveau en intelligence artificielle. Mais sa percée en mathématiques automatisées révèle une stratégie que l’Occident sous-estime. Pendant que la Silicon Valley concentre ses ressources sur les modèles de langage grand public — ChatGPT, Gemini, Claude —, la Chine investit massivement dans les applications scientifiques de l’IA. Démonstration de théorèmes. Découverte de matériaux. Conception de médicaments. Optimisation industrielle. Des domaines moins visibles, moins viraux, mais stratégiquement bien plus dangereux pour l’équilibre technologique mondial.
Le gouvernement chinois a alloué plus de 15 milliards de dollars à la recherche en IA fondamentale pour la période 2024-2027, selon les estimations du Center for Security and Emerging Technology de Georgetown. Une partie significative va aux mathématiques et à la physique assistées par IA. L’objectif n’est pas de gagner la course aux chatbots. C’est de gagner la course à la connaissance — celle qui produit des brevets, des technologies de rupture et des avantages militaires que les modèles de langage, aussi impressionnants soient-ils, ne produiront jamais seuls.
Nous sommes fascinés par l’IA qui écrit des poèmes et génère des images. La Chine, elle, construit l’IA qui démontre des théorèmes et découvre des molécules. Le spectacle est pour nous. La puissance sera pour eux. Et nous ne l’avons même pas vu venir.
Le silence occidental est assourdissant
L’annonce de l’Université de Pékin n’a fait l’objet d’aucune conférence de presse à Washington. Aucun communiqué de la National Science Foundation. Aucun tweet du OSTP (Office de la politique scientifique et technologique de la Maison Blanche). DeepMind n’a pas commenté. OpenAI non plus. Le silence n’est pas de l’indifférence — c’est de la sidération polie. Parce que si une université chinoise peut résoudre en 80 heures un problème que les meilleurs mathématiciens du monde n’ont pas résolu en dix ans, alors la question n’est plus de savoir si l’IA va transformer les mathématiques. C’est de savoir qui contrôlera cette transformation.
Ce que les mathématiciens ressentent — et ne disent pas
La fierté mêlée de vertige
Terence Tao, médaille Fields 2006 et l’un des mathématiciens vivants les plus respectés, a écrit sur son blog en janvier 2025 que l’IA deviendrait « un collaborateur indispensable » pour les mathématiciens d’ici la fin de la décennie. Il a utilisé le mot « collaborateur » — pas « remplaçant ». La nuance est essentielle. Elle est aussi, peut-être, un bouclier. Parce que le résultat de Pékin n’est pas une collaboration. C’est une substitution. Aucun mathématicien n’a guidé la machine. Aucun humain n’a posé les jalons. La machine a cherché seule, trouvé seule, vérifié seule. L’humain est intervenu au début — pour formuler le problème — et interviendra à la fin — pour valider. Entre les deux, il n’était pas nécessaire.
Et pourtant, réduire la réaction des mathématiciens à de la peur serait une erreur. Beaucoup ressentent un enthousiasme prudent. Kevin Buzzard, professeur à l’Imperial College de Londres et pionnier de la formalisation mathématique avec le système Lean, a déclaré que les outils de preuve automatisée pourraient « libérer les mathématiciens des tâches mécaniques » pour leur permettre de se concentrer sur l’imagination et l’intuition. C’est possible. C’est même souhaitable. Mais il y a un détail que cette vision optimiste omet : que se passe-t-il quand la machine développe aussi l’imagination ?
Je regarde les mathématiciens découvrir ce que les chauffeurs de taxi, les traducteurs et les illustrateurs ont découvert avant eux : l’instant exact où l’on passe de « c’est un outil formidable » à « est-ce que j’ai encore une raison d’exister professionnellement ? ». La différence, c’est que les mathématiciens sont les derniers à qui l’on pensait poser cette question.
Le syndrome de Kasparov, version 2025
En 1997, Garry Kasparov a perdu contre Deep Blue. Les échecs n’ont pas disparu. Les joueurs humains n’ont pas cessé de jouer. Mais quelque chose a changé — définitivement. Le prestige absolu de l’intelligence humaine aux échecs s’est évaporé en six parties. Les mathématiciens se trouvent aujourd’hui dans une position analogue, mais plus profonde. Les échecs sont un jeu fermé — 64 cases, 32 pièces, des règles fixes. Les mathématiques sont un univers ouvert — infini, créatif, en expansion. Si une machine peut conquérir même un fragment de cet univers sans aide humaine, alors ce n’est pas un jeu qui est tombé. C’est l’idée que la pensée abstraite originale est un monopole humain.
La question que personne ne veut poser
Comprendre ou résoudre : faut-il choisir ?
La preuve générée par le système de Pékin est, selon ses créateurs, formellement vérifiée. Chaque étape découle logiquement de la précédente. Aucun saut. Aucune approximation. Mais un mathématicien humain qui lirait cette preuve — si elle fait plusieurs centaines de pages, comme c’est souvent le cas avec les preuves automatisées — n’en tirerait peut-être aucune compréhension intuitive. Il verrait que c’est correct. Il ne verrait pas pourquoi c’est vrai. La distinction entre correction et compréhension est au cœur de ce que signifie faire des mathématiques. Une preuve que personne ne comprend est un objet étrange — formellement valide, intellectuellement opaque.
Ce n’est pas nouveau. La preuve des quatre couleurs en 1976 — premier théorème majeur démontré avec l’aide d’un ordinateur — avait déjà soulevé cette question. Kenneth Appel et Wolfgang Haken avaient utilisé un programme pour vérifier 1 936 configurations qu’aucun humain ne pouvait examiner à la main. Les mathématiciens avaient grincé des dents. Quarante-neuf ans plus tard, la preuve des quatre couleurs est acceptée. Mais elle n’est toujours pas comprise au sens classique du terme. Elle est vraie. Elle est vérifiée. Elle reste étrangère.
Et si nous entrions dans un âge où les mathématiques avancent plus vite que la capacité humaine à les comprendre ? Où les théorèmes s’accumulent comme des livres dans une langue que nous n’avons pas encore appris à lire ? Ce n’est pas de la science-fiction. C’est la trajectoire exacte que dessine le résultat de Pékin.
Le fossé entre la preuve et le sens
William Thurston, médaille Fields 1982, avait écrit en 1994 que « la mission des mathématiciens n’est pas de prouver des théorèmes, mais de comprendre les mathématiques ». La preuve n’est qu’un véhicule. La destination, c’est la compréhension. Si la machine fournit le véhicule mais pas la destination, alors le mathématicien humain reste indispensable — non pas pour prouver, mais pour donner du sens. C’est une répartition rassurante. Elle tient peut-être. Et pourtant, elle repose sur l’hypothèse que la compréhension humaine restera toujours nécessaire. Que la science ne peut pas avancer sur des fondations que personne ne comprend. L’histoire des sciences suggère le contraire. La mécanique quantique fonctionne. Personne ne la comprend vraiment. On l’utilise quand même.
80 heures, 10 ans, et ce que le ratio dit de nous
Le temps humain contre le temps machine
87 600 heures. C’est le nombre d’heures dans dix ans. Le système de Pékin a trouvé en 80. Le ratio est de 1 pour 1 095. Même en tenant compte du fait que les mathématiciens humains ne travaillaient pas tous à plein temps sur ce seul problème, même en divisant par dix le nombre d’heures humaines réellement investies, le ratio reste vertigineux. Et ce ratio va s’aggraver. Les modèles deviennent plus puissants tous les six mois. Les capacités de calcul doublent. Les architectures s’affinent. Ce qui prenait 80 heures en 2025 en prendra peut-être 8 en 2027.
Cédric Villani, médaille Fields 2010, avait déclaré en 2023 que l’IA ne remplacerait pas les mathématiciens « avant au moins cinquante ans ». Deux ans plus tard, une machine résout un problème ouvert depuis une décennie sans aide humaine. Le calendrier des prédictions rassurantes vient de prendre un coup. Pas fatal. Mais suffisant pour que le doute s’installe dans les couloirs des départements de mathématiques de Princeton, d’Oxford et de l’École normale supérieure.
Il y a dix ans, ce problème d’algèbre commutative était le terrain de jeu exclusif de l’esprit humain. Un espace où la machine ne pouvait pas entrer. Aujourd’hui, la machine est entrée, a résolu, et est ressortie avant que quiconque ait eu le temps de comprendre comment. Le vertige n’est pas que la machine soit rapide. C’est que l’espace qu’on croyait réservé à l’humain rétrécit — et qu’il rétrécit plus vite que nos prédictions.
Ce que cela change pour un doctorant de 26 ans
Imaginez Léa, 26 ans, doctorante en algèbre commutative à l’université Paris-Saclay. Elle travaille depuis trois ans sur un problème voisin de celui que la machine de Pékin vient de résoudre. Elle se lève à 7 heures. Elle passe ses journées dans un bureau de 9 mètres carrés au troisième étage du bâtiment Sophie Germain. Son salaire de doctorante est de 1 740 euros net par mois. Elle a refusé un poste d’ingénieure à 55 000 euros chez un géant de la tech pour poursuivre la recherche fondamentale. Et ce matin, en ouvrant arXiv — le serveur de preprints — elle découvre qu’une machine a fait en trois jours ce qu’elle espérait accomplir en cinq ans. Léa ne va pas arrêter sa thèse. Mais elle va passer sa journée à regarder le mur. Et à se poser une question à laquelle personne dans son labo n’a de réponse.
L'après : ce qui vient si personne ne regarde
Les cinq prochaines années selon la trajectoire actuelle
Si le résultat de Pékin est confirmé — et si la méthode se généralise —, les cinq prochaines années verront une accélération sans précédent. Des dizaines de conjectures ouvertes seront attaquées par des systèmes de preuve automatisée. Certaines tomberont. Les revues mathématiques devront inventer de nouveaux protocoles d’évaluation — comment faire relire par des humains une preuve de 500 pages générée par une machine ? Les agences de financement devront décider si elles continuent à payer des chercheurs pour résoudre des problèmes que des machines résolvent plus vite. Et les universités devront répondre à la question la plus inconfortable : combien de postes de mathématiciens faut-il encore ouvrir ?
La National Science Foundation américaine finance actuellement environ 2 300 bourses doctorales en mathématiques pures. L’European Research Council en finance environ 800. Ces chiffres reposent sur l’hypothèse que la recherche mathématique nécessite des cerveaux humains en quantité. Si une machine peut remplacer dix cerveaux sur certains types de problèmes, l’arithmétique du financement de la recherche change. Et pourtant, couper les postes serait une catastrophe — parce que la machine ne pose pas de questions. Elle résout celles qu’on lui pose. Qui posera les questions si les humains ne sont plus là ?
Le danger n’est pas que l’IA remplace les mathématiciens. Le danger est qu’on décide qu’elle les remplace — et qu’on coupe le financement de la pensée humaine au moment précis où nous avons le plus besoin d’humains capables de penser ce que les machines ne pensent pas. Le résultat de Pékin est une prouesse. La réaction politique à ce résultat pourrait être un désastre.
La course invisible
DeepMind, OpenAI, Meta AI et au moins quatre laboratoires chinois travaillent sur des systèmes similaires. La course n’est plus publique — elle est souterraine. Les prochains résultats arriveront sans prévenir, comme celui de Pékin. Et chaque résultat déplacera un peu plus la frontière de ce que nous croyions réservé à l’esprit humain. La question n’est plus si. La question n’est plus quand. La question est : qu’est-ce que nous faisons, nous, les humains, pendant que la machine avance ?
La dernière ligne de la preuve
Ce qu’il reste quand la machine a fini
Quelque part dans un serveur de l’Université de Pékin, la preuve est stockée. Des lignes de code. Des enchaînements logiques. Des symboles formels vérifiés par un programme. Aucune marge griffonnée. Aucun café renversé sur le manuscrit. Aucun moment d’eurêka à 3 heures du matin. La preuve est propre, froide, correcte. Elle ne connaît pas la joie d’avoir trouvé. Elle ne connaît pas la frustration des années d’échec. Elle ne sait pas qu’elle existe.
Et Léa, dans son bureau de 9 mètres carrés à Paris-Saclay, regarde toujours le mur. Sur son tableau blanc, il y a une équation inachevée, écrite au feutre bleu. Le feutre est à moitié sec. Elle ne l’a pas encore remplacé. Ce soir, elle ira courir dans le parc du campus, comme chaque soir. Le long du sentier, elle ne pensera pas à la machine de Pékin. Elle pensera à son problème. À la beauté étrange de l’algèbre commutative. À cette intuition qu’elle sent monter depuis des semaines et qu’elle n’arrive pas encore à formuler. La machine a trouvé la réponse. Léa cherche encore la question.
Signé Maxime Marquette, chroniqueur
Sources
arXiv — serveur de preprints, Université Cornell
Université de Pékin — site officiel
Google DeepMind — AlphaProof, résultats Olympiade internationale de mathématiques, juillet 2024
Terence Tao — blog personnel, réflexions sur l’IA et les mathématiques
Ce contenu a été créé avec l'aide de l'IA.