Du dormitaire à la cathédrale numérique
Il faut se souvenir d’où vient Mark Zuckerberg. En 2004, il était un étudiant de 19 ans, dans son petit dortoir d’université, qui codait Facebook entre les cours. Aujourd’hui, il est l’un des hommes les plus puissants de la planète. Mais quelque chose a changé. Le jeune Mark voulait connecter les gens. Le Mark d’aujourd’hui veut construire l’infrastructure de l’intelligence future. C’est une évolution fascinante. Presque métaphysique. Il ne se contente plus de faciliter les interactions humaines. Il prépare le terrain pour quelque chose qui pourrait les dépasser. La superintelligence. Ce moment théorique où les machines penseront mieux, plus vite, plus profondément que nous.
Cette vision n’est pas nouvelle. Zuckerberg en parle depuis des années. Mais Meta Compute marque un tournant. C’est la première fois qu’il engage autant de ressources, autant de capital, autant de temps dans cette direction. Les chiffres donnent le vertige. 72 milliards de dollars dépensés en 2025 rien que pour l’IA. Des accords nucléaires pour sécuriser l’énergie. Une nouvelle organisation dédiée, qui relève directement de lui. Ce n’est plus un projet. C’est une croisade. Et Zuckerberg est en première ligne. Il ne délègue pas. Il ne passe pas le relais. C’est sa vision. Son argent. Son héritage.
Vous savez ce qui me frappe ? La constance. Zuckerberg a toujours eu cette capacité à voir plus loin que les autres. Quand tout le monde disait que Facebook ne passerait pas MySpace, il a continué. Quand on lui disait que l’acquisition d’Instagram était une erreur, il a insisté. Quand Instagram semblait menacé par TikTok, il a pivoté vers Reels. Aujourd’hui, tout le monde se moque de Llama 4. Tout le monde dit que Meta est en retard dans la course à l’IA. Et je parie que Zuckerberg est en train de sourire. Parce qu’il a vu ça venir. Il sait quelque chose que nous ne savons pas. Et Meta Compute, c’est sa réponse. Le grand bras d’honneur à tous ceux qui doutent.
La structure de Meta Compute
Meta Compute n’est pas juste un nom marketing. C’est une organisation réelle, avec une structure précise et des responsabilités clairement définies. Zuckerberg l’a pensée comme une machine de guerre. Chaque pièce a sa place. Chaque personne a sa mission. Au sommet, il y a Santosh Janardhan, le responsable de l’infrastructure mondiale de Meta. C’est un vétéran. L’homme qui a construit les data centers qui alimentent Facebook, Instagram, WhatsApp aujourd’hui. Il connaît chaque tuyau, chaque câble, chaque serveur. Son rôle : continuer ce qu’il fait toujours, mais à une échelle démultipliée. La fondation technique. Les opérations quotidiennes. La réalité du terrain.
À côté de lui, il y a Daniel Gross. Là, c’est différent. Gross vient d’être recruté par Meta. Il était PDG de Safe Superintelligence, une startup qui travaille exactement sur ce que Zuckerberg prépare. C’est un visionnaire. Un stratège. Son rôle : planifier le long terme. Pas les opérations de demain. Mais les besoins de dans dix ans. Dans vingt ans. Il doit définir les besoins futurs de calcul. Il doit gérer les relations avec les fournisseurs stratégiques. Il doit développer les modèles d’affaires qui rendront possible cette expansion à multi-gigawatts. En gros, il est l’architecte de l’impossible.
Imaginez le contraste entre ces deux hommes. Janardhan, le pragmatique. L’ingénieur qui sait comment faire tourner un data center aujourd’hui. Et Gross, le visionnaire. Le stratège qui imagine ce que sera nécessaire dans une décennie. Ensemble, ils forment une équipe parfaite. C’est comme un pilote et un navigateur. L’un regarde le tableau de bord. L’autre regarde l’horizon. Et Zuckerberg ? Il tient le volant. Il décide de la destination. Et de la vitesse. On se demande souvent comment les grandes décisions sont prises dans les entreprises géantes. Ici, la réponse est simple : par trois hommes qui ont compris qu’ils sont en train d’écrire l’histoire.
Section 3 : L'énergie — Le défi qui rend tout le reste secondaire
Des gigawatts pour nourrir les machines
Quand on parle d’IA, on pense souvent aux algorithmes, aux réseaux de neurones, aux innovations logicielles. Mais la réalité est beaucoup plus terre-à-terre. L’IA, ça consomme. Beaucoup. Énormément. Un seul modèle d’IA de pointe peut nécessiter des mois de calculs ininterrompus sur des milliers de processeurs spécialisés. Et chaque processeur consomme de l’électricité. Beaucoup. Le problème, c’est que l’électricité, c’est une ressource finie. Une ressource qui devient de plus en plus chère. De plus en plus rare. De plus en plus controversée.
C’est là que le plan de Zuckerberg devient fascinant. Il ne se contente pas de dire qu’il va construire des data centers. Il dit qu’il va construire l’infrastructure énergétique qui les alimentera. Des dizaines de gigawatts cette décennie. Des centaines à terme. Pour vous donner une idée : un gigawatt, c’est environ un million de kilowatts. C’est la puissance d’une centrale nucléaire de taille moyenne. C’est l’électricité consommée par environ 700 000 foyers américains. Meta prévoit d’en construire dizaines. Puis centaines. Ce n’est plus de l’informatique. C’est de l’énergie à l’échelle nationale.
Là, je m’arrête et je respire un grand coup. Des centaines de gigawatts. C’est l’énergie de pays comme la Belgique, la Suède, l’Autriche. Pour une seule entreprise. Pour une seule mission. Est-ce que c’est raisonnable ? Est-ce que c’est responsable ? Je ne sais pas. Mais ce que je sais, c’est que ça révèle quelque chose de fondamental sur notre époque. Nous sommes en train de transférer une part massive de notre énergie collective vers une entreprise unique, pour créer quelque chose dont nous ne connaissons même pas la forme finale. C’est un pari colossal. Un pari sur l’avenir. Un pari qui pourrait changer tout.
Les accords nucléaires — Le choix qui divise
Pour comprendre l’ampleur de l’ambition de Meta, il faut regarder les détails. Rien n’est laissé au hasard. La semaine dernière, Meta a annoncé des accords qui ont fait le tour du monde : des contrats de vingt ans avec trois centrales nucléaires de l’entreprise Vistra. Vingt ans. C’est la durée d’un contrat hypothécaire. C’est une génération. Meta s’engage à acheter l’électricité produite par ces centrales pendant vingt ans. À un prix probablement avantageux, mais qui représente tout de même des milliards de dollars. Et ce n’est pas tout. Meta a également signé des accords avec deux entreprises qui espèrent construire des petits réacteurs modulaires (SMR) — une nouvelle génération de centrales nucléaires plus petites, plus flexibles, encore expérimentales.
Pourquoi le nucléaire ? C’est simple. C’est la seule source d’énergie qui offre à la fois la stabilité (les centrales tournent 24/7, quoi qu’il arrive), la puissance (un seul réacteur produit des gigawatts), et la faible empreinte carbone (contrairement au charbon ou au gaz). Pour une entreprise comme Meta, qui a fait des engagements climatiques ambitieux, c’est une équation complexe. Comment concilier la course à l’IA, qui consomme de plus en plus d’énergie, avec la nécessité de réduire son empreinte carbone ? La réponse de Zuckerberg : le nucléaire.
Et là, je suis tiraillé. D’un côté, j’admire la cohérence. Si on veut de l’IA à grande échelle, il faut de l’énergie propre et stable. Le nucléaire, c’est ça. De l’autre, je m’inquiète. Est-ce que nous voulons vraiment d’un monde où quelques entreprises géantes contrôlent des centrales nucléaires ? Où l’énergie atomique est déployée pour entraîner des modèles d’IA ? Et puis il y a les communautés locales. Les gens qui vivent près de ces centrales. Qui voient l’activité industrielle augmenter. Dont les factures d’électricité risquent d’augmenter. Est-ce qu’on leur a demandé leur avis ? Est-ce qu’ils ont choisi de participer à cette course ? Je doute que quiconque leur ait posé la question.
Section 4 : L'infrastructure comme avantage stratégique — La doctrine Zuckerberg
Posséder pour contrôler
Dans la Silicon Valley, il y a une croyance qui a dominé pendant des années : l’innovation, c’est le logiciel. Les algorithmes, les architectures, les idées. Le hardware, c’est secondaire. On peut toujours acheter des processeurs, louer des serveurs, utiliser le cloud. Mais Zuckerberg remet en question cette doctrine. Sa thèse : dans la course à la superintelligence, l’infrastructure n’est pas secondaire. Elle est déterminante. Si vous contrôlez la puce, le data center, l’énergie, vous contrôlez le coût, la vitesse, la capacité d’innovation. Vous ne dépendez de personne. Vous ne payez pas de marge à des fournisseurs tiers. Vous ne subissez pas les pénuries du marché.
C’est une approche verticale radicale. Pensez-y : Meta ne se contente pas d’acheter des processeurs chez Nvidia ou AMD. L’entreprise développe ses propres puces. Ses propres architectures. Ses propres réseaux. Ses propres data centers. Et maintenant, avec Meta Compute, sa propre énergie. C’est une intégration verticale complète, à une échelle que même Apple ou Google n’ont jamais tentée. Pourquoi ? Parce que Zuckerberg a compris quelque chose de fondamental : dans la course à l’IA, l’avantage concurrentiel ne viendra pas de l’algorithme parfait. Il viendra de la capacité à entraîner ces algorithmes. Et pour ça, il faut de la puissance. Beaucoup de puissance.
Fermez les yeux et représentez-vous la scène. Un data center Meta, quelque part dans le Midwest américain. Des rangées interminables de serveurs. Chaque serveur avec des processeurs conçus par Meta. Chaque processeur alimenté par de l’électricité produite dans une centrale nucléaire sous contrat avec Meta. Chaque watt, chaque transistor, chaque calcul, contrôlé par une seule entreprise. C’est de la science-fiction, non ? C’est ce que nous pensions quand on lisait des romans cyberpunk dans les années 80. Et pourtant, c’est en train de devenir réalité. Zuckerberg est en train de construire ce monde. Un monde où l’infrastructure n’est pas un moyen, mais une fin en soi. L’infrastructure comme arme stratégique. L’infrastructure comme source de pouvoir.
Le pari sur le long terme
Ce qui est fascinant dans l’approche de Zuckerberg, c’est l’horizon temporel. Les contrats nucléaires sont sur vingt ans. Les investissements en infrastructure se comptent en dizaines de milliards. Les plans de capacité s’étendent sur des décennies. Ce n’est pas de la gestion trimestrielle. Ce n’est pas de l’optimisation des résultats annuels. C’est une vision de siècle. Zuckerberg mise sur le fait que l’IA sera dominante pendant des décennies. Que la demande de calcul continuera d’augmenter exponentiellement. Que celui qui contrôlera l’infrastructure contrôlera l’avenir.
Et ce n’est pas un pari isolé. Regardez ce que font les autres géants technologiques. Microsoft investit massivement dans l’infrastructure OpenAI. Google développe ses propres processeurs TPU et construit des data centers spécialisés. Amazon via AWS dépense des milliards en hardware IA. Même Elon Musk avec xAI prévoit de déployer 2 gigawatts de puissance de calcul dans un seul site. La course est mondiale. Elle est féroce. Et elle ne s’arrêtera pas demain.
Et moi là-dedans ? Je me sens comme un spectateur privilégié d’un moment historique. Nous vivons à une époque où des entreprises privées dépensent des sommes que seuls les États pouvaient se permettre il y a quelques années. Pour construire quoi ? Des cathédrales numériques. Des temples de calcul qui hébergeront peut-être une forme d’intelligence supérieure. Est-ce que c’est beau ? Est-ce que c’est effrayant ? Les deux, probablement. Ce qui est certain, c’est que nous n’avons jamais vu ça. Et que nos enfants vivront dans le monde que cette génération de technologistes est en train de construire.
Section 5 : Les défis politiques et sociaux — Le prix caché de l'ambition
Les communautés locales — Les invisibles de l’équation
Quand on parle de data centers et d’IA, on pense souvent à la Silicon Valley, aux ingénieurs, aux milliards de dollars. Mais il y a une autre réalité. Les data centers, ils sont construits quelque part. Ils consomment de l’électricité produite quelque part. Ils ont un impact sur des communautés réelles. Des gens qui ne sont pas des ingénieurs de la tech. Des gens qui vivent dans des villes de taille moyenne, dans le Midwest américain ou ailleurs, dont la vie va être transformée par l’arrivée de ces infrastructures massives.
Prenons un exemple concret. Un data center de plusieurs centaines de mégawatts consomme énormément d’électricité. Cette électricité doit être produite, transportée, distribuée. Le réseau local doit être renforcé. Des lignes haute tension doivent être construites. Des sous-stations installées. Tout ça a un coût. Et souvent, ce coût est répercuté sur les consommateurs locaux. Les tarifs d’électricité augmentent. Les factures des ménages gonflent. Pourquoi ? Pour alimenter des serveurs qui entraînent des modèles d’IA dont la plupart des habitants de la région n’utiliseront jamais directement.
Imaginez-vous dans cette situation. Vous vivez dans une petite ville de l’Iowa ou du Nebraska. Vous avez une maison, un travail, une vie normale. Un jour, on vous annonce qu’un data center géant va être construit à côté. On vous dit que ça va créer des emplois, dynamiser l’économie locale. Mais on ne vous dit pas que vos factures d’électricité vont augmenter de 20%. Que les ressources en eau seront détournées pour refroidir les serveurs. Que le bruit constant des générateurs va perturber votre sommeil. On ne vous demande pas votre avis. On ne vous demande pas si vous voulez participer à cette course à l’IA. On décide pour vous. Et vous, vous payez le prix. Est-ce que c’est juste ? Je ne sais pas. Mais ça me pose question.
L’eau — L’autre ressource critique
On parle beaucoup d’électricité, mais il y a une autre ressource critique : l’eau. Les data centers consomment énormément d’eau, principalement pour le refroidissement. Les processeurs génèrent une chaleur intense. Cette chaleur doit être évacuée. La méthode la plus courante : des tours de refroidissement qui utilisent de l’eau. Beaucoup d’eau. Un seul data center de taille moyenne peut consommer plusieurs millions de litres d’eau par an. Et avec des data centers à l’échelle gigawatt, les volumes deviennent astronomiques.
Dans de nombreuses régions du monde, l’eau est déjà une ressource sous tension. Les sécheresses se multiplient. Les nappes phréatiques s’épuisent. Les conflits autour de l’eau émergent. Et pendant ce temps, l’IA en demande toujours plus. Des milliards de litres pour refroidir des serveurs. Pour entraîner des modèles qui peut-être n’auront jamais d’impact concret sur la vie des gens dont l’eau est détournée. C’est une tension éthique majeure.
Section 6 : La compétition mondiale — Une course sans fin
Les acteurs de la partie
Meta n’est pas seule dans cette course. Loin de là. La compétition pour l’hégémonie de l’IA implique les plus grandes entreprises technologiques au monde, et même des États. Google, avec son modèle Gemini et ses processeurs TPU personnalisés. Microsoft, qui a parié massivement sur OpenAI et ChatGPT. Amazon, via AWS, qui fournit l’infrastructure pour des milliers d’entreprises IA. OpenAI, qui cherche à construire sa propre infrastructure indépendante. xAI d’Elon Musk, qui ambitionne d’avoir plus de puissance de calcul que tous les autres réunis dans cinq ans. Et bien sûr, les géants chinois comme Baidu, Alibaba, Tencent, qui développent leurs propres modèles et infrastructures.
C’est une course à plusieurs niveaux. Au niveau des modèles : qui aura le plus performant ? Au niveau des applications : qui aura le plus d’utilisateurs ? Au niveau de l’infrastructure : qui aura la plus grande capacité de calcul ? Et c’est à ce dernier niveau que Meta Compute change la donne. En se concentrant sur l’infrastructure, Zuckerberg parie que c’est là que se jouera la victoire finale.
Et là, je me sens comme au cœur d’une partie d’échecs à l’échelle mondiale. Chaque coup est calculé. Chaque investissement est une déclaration. Chaque annonce est un message. Google dit : nous avons les meilleurs algorithmes. Microsoft dit : nous avons le meilleur partenaire. Musk dit : nous serons les plus grands. Et Zuckerberg dit : nous aurons l’infrastructure. Qui va gagner ? Je ne sais pas. Mais ce qui est certain, c’est que nous sommes témoins d’une compétition sans précédent. Une compétition qui redéfinit ce que signifie être une entreprise technologique au 21e siècle.
Les enjeux géopolitiques
La course à l’IA n’est pas seulement économique. Elle est géopolitique. Les États-Unis et la Chine sont en compétition ouverte pour l’hégémonie technologique. L’IA est au cœur de cette compétition. Qui aura les meilleurs modèles ? Qui aura les meilleures infrastructures ? Qui aura les meilleures applications ? Les réponses à ces questions détermineront l’équilibre des pouvoirs dans les décennies à venir.
Dans ce contexte, les initiatives comme Meta Compute prennent une dimension supplémentaire. Elles ne sont pas seulement des décisions d’entreprise. Elles sont des contributions à l’effort national américain. Une infrastructure gigawattique construite par Meta, c’est autant d’avance potentielle pour les États-Unis dans la course mondiale. Et les États le comprennent. Les gouvernements soutiennent ces initiatives, par des subventions, des régulations favorables, des accords énergétiques. La course à l’IA est devenue une course nationale.
Section 7 : L'avenir — Vers la superintelligence ?
La promesse ultime
Toute cette infrastructure, tous ces investissements, toute cette énergie — pour quoi ? La réponse de Zuckerberg est claire : la superintelligence artificielle. Ce moment hypothétique où une IA surpassera l’intelligence humaine dans tous les domaines. Ce n’est pas de la science-fiction lointaine. C’est l’objectif déclaré de Meta, d’OpenAI, de Google, de tous les leaders de l’IA. Ils croient que c’est possible. Ils croient que c’est imminent. Ils croient que ça vaut la peine d’y consacrer des centaines de milliards de dollars.
Qu’est-ce que la superintelligence changerait ? Tout. La médecine : des IA capables de découvrir des traitements pour des maladies aujourd’hui incurables. La science : des IA capables de faire avancer la recherche à une vitesse inimaginable. L’économie : des IA capables d’optimiser tous les processus, de créer de la valeur à une échelle sans précédent. Les problèmes globaux : le climat, la pauvreté, les inégalités — peut-être que la superintelligence pourrait proposer des solutions que nous n’avons même pas imaginées. C’est cette promesse qui motive Zuckerberg et ses pairs.
Et là, je suis partagé. D’un côté, l’espoir. L’espoir que cette technologie puisse résoudre des problèmes qui semblent insolubles aujourd’hui. L’espoir que nous puissions vivre dans un monde meilleur grâce à l’IA. De l’autre, la peur. La peur de l’inconnu. La peur de créer quelque chose que nous ne pourrons pas contrôler. La peur que la superintelligence nous dépasse de façon irréversible. Est-ce que l’humanité est prête pour ça ? Je ne sais pas. Mais ce qui est certain, c’est que nous sommes en train de construire le futur. Et que ce futur sera très différent de ce que nous imaginons.
Les questions sans réponse
La superintelligence soulève plus de questions qu’elle n’apporte de réponses. Comment la contrôlerons-nous ? Quels principes moraux suivra-t-elle ? Quelles décisions prendra-t-elle ? Qui sera responsable de ses actions ? Et peut-être plus fondamentalement : est-ce que nous devrions même essayer de la créer ? Ce sont des questions philosophiques profondes, auxquelles personne n’a de réponse satisfaisante. Et pourtant, nous construisons l’infrastructure pour y arriver. Nous investissons des milliards. Nous consommons l’énergie de nations. Comme si la réponse était évidente.
Peut-être que la réponse n’est pas évidente. Peut-être que nous sommes en train de prendre un pari existential sans vraiment en mesurer les conséquences. Ou peut-être que c’est la prochaine étape naturelle de l’évolution humaine. Peut-être que créer une intelligence supérieure est ce que nous sommes censés faire. Je ne sais pas. Personne ne sait vraiment.
Section 8 : Dina Powell McCormick — La dimension politique
La nouvelle présidente
Parmi toutes les annonces de Meta Compute, il y en a une qui est passée relativement inaperçue, mais qui est cruciale : la nomination de Dina Powell McCormick comme présidente et vice-présidente de Meta. C’est une nomination qui en dit long sur la stratégie de Zuckerberg. Powell McCormick n’est pas une technologiste. Elle est une femme politique, une diplomate, une négociatrice. Ancienne sous-secrétaire d’État américaine, ancienne directrice du National Economic Council. Elle connaît les gouvernements. Elle connaît les fonds souverains. Elle sait comment négocier avec les États.
Et c’est exactement ce dont Meta a besoin maintenant. Construire une infrastructure à l’échelle de centaines de gigawatts, ce n’est pas seulement une question technique. C’est une question politique. Il faut obtenir des permis. Il faut négocier des accords énergétiques. Il faut gérer les relations avec les communautés locales. Il faut naviguer les régulations environnementales. Powell McCormick est là pour tout ça. Pour faire le pont entre l’ambition technologique de Meta et la réalité politique du monde.
Ce qui me frappe, c’est l’intelligence du coup. Zuckerberg comprend que Meta Compute ne peut pas réussir sans une dimension politique forte. L’infrastructure, c’est du concret. Ça se construit quelque part. Ça a un impact réel. Ça nécessite des autorisations, des soutiens, des partenariats. Et pour ça, il faut quelqu’un qui parle le langage des gouvernements. Powell McCormick, c’est cette personne. Elle fait le lien entre le monde de la tech et le monde de la politique. Entre la vision de Zuckerberg et la réalité des États. C’est une nomination qui révèle à quel point Meta est sérieuse dans cette entreprise.
Les alliances stratégiques
Le rôle de Powell McCormick va au-delà de la gestion des relations politiques. Elle est également chargée de développer des alliances stratégiques. Meta ne peut pas tout faire seule. Même avec 72 milliards par an, l’entreprise a besoin de partenaires. Des partenaires financiers (fonds souverains, investisseurs institutionnels). Des partenaires industriels (fournisseurs d’énergie, constructeurs de centrales). Des partenaires technologiques (entreprises de semi-conducteurs, de logiciels). Powell McCormick est là pour identifier ces partenaires, négocier avec eux, conclure des accords.
C’est une dimension souvent oubliée de la course à l’IA. On pense aux algorithmes, aux processeurs, aux data centers. Mais on oublie que tout ça nécessite des partenariats complexes, des négociations difficiles, des alliances stratégiques. Et que le succès dépend autant de la capacité à construire ces alliances que de la capacité à développer la technologie elle-même.
Section 9 : Le point de bascule — Un moment historique
La réalisation de l’inévitable
En regardant Meta Compute, les accords nucléaires, les investissements massifs, on réalise quelque chose de fondamental : nous sommes à un point de bascule historique. Ce n’est pas une transition graduelle. Ce n’est pas une évolution naturelle. C’est un saut qualitatif. Nous passons d’une ère où l’IA était une technologie émergente à une ère où l’IA devient une infrastructure fondamentale de notre société.
Ce que construit Meta aujourd’hui, c’est l’équivalent de ce que les États ont construit avec les réseaux routiers, les réseaux électriques, les réseaux de télécommunications. C’est une infrastructure qui va structurer la société pour des décennies. Sauf que cette infrastructure n’est pas publique. Elle est privée. Contrôlée par des entreprises. Et ça change tout. Qui aura accès à cette infrastructure ? À quel prix ? Avec quelles garanties ? Ce sont des questions auxquelles nous n’avons pas encore de réponses satisfaisantes.
Et moi, là, à regarder tout ça se dérouler, je me sens petit. Petit face à l’ampleur de ce qui se construit. Petit face à l’ambition de ces visionnaires. Petit face à l’inconnu qui nous attend. Mais en même temps, je me sens privilégié. Parce que nous vivons un moment unique de l’histoire humaine. Le moment où nous construisons les outils qui pourraient redéfinir ce que signifie être intelligent. Le moment où nous posons les fondations d’un nouveau monde. Est-ce que ce monde sera meilleur ? Est-ce que ce monde sera pire ? Je ne sais pas. Mais ce qui est certain, c’est qu’il sera différent. Radicalement différent.
La responsabilité collective
Finalement, la question qui se pose n’est pas : est-ce que Meta devrait faire ça ? La question est : qu’est-ce que NOUS, société, voulons faire de ça ? Parce que Meta Compute va arriver. Les data centers seront construits. Les centrales nucléaires seront allumées. Les modèles d’IA seront entraînés. La question est : comment nous, collectivement, nous allons nous approprier cette infrastructure ? Comment nous allons la réguler ? Comment nous allons nous assurer qu’elle bénéficie à tous, pas seulement à quelques-uns ?
C’est une question de responsabilité. Responsabilité des entreprises, bien sûr. Mais aussi responsabilité des États. Responsabilité des citoyens. Responsabilité de chacun d’entre nous. Parce que ce qui se construit aujourd’hui, c’est notre futur commun. Nous ne pouvons pas être de simples spectateurs. Nous devons être des acteurs. Nous devons participer au débat. Nous devons nous informer. Nous devons nous engager.
Conclusion : La question qui reste
Le retour à l’ingénieur
David, l’ingénieur que nous avons rencontré au début de cette histoire, termine son quart. Il sort du data center. Il marche vers sa voiture. Le silence du monde extérieur le surprend, comme toujours. Il s’y habitue, mais ça reste étrange. Ce silence qui contraste avec le bourdonnement constant qu’il vient de quitter. Il s’assoit dans sa voiture. Il démarre. Il rentre chez lui. Sa famille dort. Il pense à sa journée. Aux serveurs qu’il a surveillés. Aux milliards de calculs qui ont eu lieu. À l’avenir qui est en train d’être calculé dans ces murs.
Il se demande ce que sera le monde quand sa fille aura son âge. Est-ce qu’elle vivra dans un monde où l’IA est partout ? Est-ce qu’elle travaillera avec des machines plus intelligentes qu’elle ? Est-ce qu’elle comprendra ce que son père construisait aujourd’hui ? Il n’a pas de réponses. Juste des questions. Et peut-être que c’est ça, la vérité. Nous construisons l’avenir sans savoir ce qu’il sera. Nous posons les fondations sans connaître l’édifice final. Nous investissons tout sans garantie de retour.
Et moi, je reste avec cette question qui hante. Est-ce que ça en vaut la peine ? Des centaines de gigawatts. Des milliards de dollars. Des années de travail. Pour quoi ? Pour une promesse de superintelligence qui peut-être n’arrivera jamais. Pour un espoir de progrès qui peut-être est illusoire. Pour une compétition qui peut-être n’a pas de sens. Je ne sais pas. Personne ne sait vraiment. Mais ce que je sais, c’est que nous sommes à un point de bascule. Que ce que Meta construit aujourd’hui changera l’humanité. Pour toujours. Et que nous, en tant que société, avons la responsabilité de décider comment. Pas de laisser Mark Zuckerberg décider seul. Pas de laisser le marché décider seul. Mais de décider ensemble. Parce que ce futur qui se construit dans ces data centers, c’est NOTRE futur. Et ça vaut peut-être la peine d’y réfléchir avant qu’il ne soit trop tard.
Sources
Sources primaires
Generation NT, « Meta Compute : la nouvelle arme de Zuckerberg pour la suprématie de l’IA ? », publié le 13 janvier 2026, par Christian D.
Reuters, « Meta unveils ‘Meta Compute’ initiative to build AI infrastructure », publié le 12 janvier 2026, par Jaspreet Singh, édité par Shailesh Kuber et Leroy Leo
Tom’s Hardware, « Meta sets up ‘Meta Compute’ organization for gigawatt-scale AI data centers — initiative is said to consume hundreds of gigawatts over time », publié le 12 janvier 2026, par Anton Shilov
Sources secondaires
Silicon Angle, « Meta Platforms creates new organization to lead its AI infrastructure buildout », publié le 12 janvier 2026
Data Center Dynamics, « Meta establishes ‘Meta Compute,’ plans multiple gigawatt-plus scale AI data centers », publié le 12 janvier 2026
Axios, « Meta launches new ‘Meta Compute’ initiative to build AI infrastructure », publié le 12 janvier 2026
Ce contenu a été créé avec l'aide de l'IA.