William Savitt prend la parole
Avant que Musk témoigne, l’avocat d’OpenAI, William Savitt, a délivré sa plaidoirie d’ouverture. Sa stratégie était inverse et tout aussi délibérée : ne pas complexifier, mais contre-attaquer avec la même brutalité narrative. « Nous sommes ici parce que M. Musk n’a pas obtenu ce qu’il voulait chez OpenAI », a-t-il dit. « Il a démissionné en disant qu’ils allaient certainement échouer. Mais mes clients ont eu l’audace de réussir sans lui. » Onze mots. Toute une thèse.
Savitt a raconté une autre histoire. Dans la version d’OpenAI, Musk a soutenu dès les premières années une structure à but lucratif — à condition d’en être le patron. Il a utilisé ses promesses de financement pour faire pression sur les membres fondateurs. En 2017, il a tenté de fusionner OpenAI avec Tesla. Quand les autres fondateurs ont refusé de lui confier les clés de l’intelligence artificielle, il est parti. Et maintenant il se retourne pour attaquer. Savitt a montré aux jurés un courriel de Shivon Zilis, ancienne membre du conseil d’administration, décrivant deux options de restructuration à but lucratif qui avaient été présentées à Musk. La pièce à conviction qui, selon OpenAI, démolit la thèse entière du don caritatif bafoué.
Deux récits. Deux hommes. Deux vérités qui ne peuvent pas coexister dans le même univers légal. L’un de ces récits est faux. Peut-être les deux le sont partiellement. Ce qui est certain, c’est que derrière les millions et les milliards, derrière les arguments juridiques et les courriels datés, il y a une question beaucoup plus ancienne : quand deux hommes ambitieux fondent quelque chose ensemble et que ça réussit sans l’un d’eux, qui a le droit de revendiquer quoi ?
L’email de Zilis et le pivot de l’affaire
Cet email est le cœur du procès. Si son contenu montre que Musk soutenait une restructuration à but lucratif, sa thèse du trust caritatif s’effondre. S’il montre qu’il conditionnait son accord à sa propre prise de contrôle, cela confirme la thèse d’OpenAI mais complique aussi le récit du vol. Participer à une discussion sur des options de restructuration n’est pas la même chose que consentir à la conversion spécifique qui a eu lieu. C’est l’argument que l’équipe de Musk va marteler. OpenAI répondra que quelqu’un qui a discuté de restructuration pendant des mois ne peut pas prétendre avoir cru que le statut à but non lucratif était sacré. Ces deux positions sont juridiquement cohérentes. Elles sont aussi mutuellement exclusives. Les neuf jurés devront choisir.
L’enjeu de ce choix dépasse largement ces trois hommes. Si Musk gagne, chaque don à une organisation américaine pouvant un jour changer de structure devient juridiquement fragile. Si OpenAI gagne, une société valorisée à 852 milliards de dollars après avoir débuté comme organisation caritative devient le modèle légitimé de transformation. Les deux issues remodèlent quelque chose de fondamental dans la manière dont l’Amérique pense la philanthropie, l’entreprise, et la ligne entre les deux.
Ce que vaut vraiment une promesse de fondation
La musée et le Picasso
Steven Molo, l’avocat de Musk, a utilisé une analogie devant les jurés. Un musée à but non lucratif peut ouvrir une boutique de souvenirs. « Mais la boutique du musée ne peut pas piller le musée et vendre les Picasso. » C’est une belle image. Elle est aussi délibérément trompeuse sur la complexité de ce qui s’est passé. OpenAI n’a pas vendu ses actifs à un tiers. Elle a restructuré son architecture juridique tout en continuant à fonctionner avec les mêmes équipes, la même technologie, les mêmes dirigeants. C’est plus proche d’un musée qui décide que la fondation à but non lucratif conservera 20 % des parts de la boutique commerciale, et que les revenus serviront toujours la mission.
Est-ce que c’est du pillage ? La loi américaine n’a jamais tranché cette question pour un cas de cette envergure. Musk lui-même l’a dit dans ses documents judiciaires : « Jamais auparavant une corporation n’est passée d’une organisation caritative exonérée d’impôts à un monstre commercial de 157 milliards de dollars en seulement huit ans. Jamais cela n’était arrivé, parce que cela viole presque tous les principes juridiques régissant l’activité économique. » Ce n’est pas un argument juridique. C’est un aveu que le droit existant n’a pas de réponse claire. Et quand le droit n’a pas de réponse claire, les jurés comblent le vide avec leur intuition morale.
L’intuition morale de neuf jurés américains face à trois milliardaires qui se disputent le contrôle de l’IA la plus puissante du monde. Voilà où nous en sommes. Voilà l’infrastructure décisionnelle que nous avons construite pour répondre aux questions les plus importantes de notre époque.
Le précédent qui n’existe pas encore
Musk a dit aux jurés que si Altman et Brockman « s’en sortent avec ce qu’ils ont fait, cette affaire deviendra jurisprudence et créera un précédent pour piller toutes les organisations caritatives en Amérique ». C’est sa formule la plus puissante. Elle élargit l’enjeu au-delà d’OpenAI, au-delà de lui-même, au-delà même de l’intelligence artificielle. Elle transforme neuf jurés ordinaires en gardiens de tout le système caritatif américain. Elle leur dit : votre verdict ne concerne pas deux entreprises tech — il concerne la confiance fondamentale sur laquelle repose chaque don fait dans ce pays. C’est un fardeau considérable à placer sur des épaules ordinaires. Et c’est exactement ce que Musk voulait faire.
Et pourtant. Si cette thèse est vraie — si une organisation peut collecter des centaines de millions en dons sur la promesse d’une mission caritative et se convertir ensuite en entreprise valant 852 milliards — alors quelque chose dans le cadre légal est effectivement cassé. Pas parce que Musk l’a dit. Parce que c’est logiquement vrai. La question n’est pas de savoir si Musk a raison sur le fond. Elle est de savoir s’il a les mains assez propres pour être celui qui le dit.
Les mains de Musk
xAI et la question de la crédibilité
Musk a fondé xAI en juillet 2023. Il a déposé sa plainte contre OpenAI en mars 2024. L’ordre de ces événements est au cœur des questions de crédibilité qui suivent ce procès depuis son ouverture. L’homme qui accuse OpenAI d’avoir trahi une mission caritative est le même homme qui a fondé un concurrent commercial direct sept mois avant de porter plainte. Ses avocats répondront que le timing prouve sa bonne foi : il a vu vers où OpenAI se dirigeait et a réagi. Ses adversaires répondront qu’il a construit son arsenal avant d’attaquer. Les deux explications sont disponibles. Les jurés choisiront celle qui résonne avec leur image de l’homme.
Cette image a été construite dans le public bien avant ce procès. Elle inclut le rachat de Twitter, les licenciements massifs, les conflits avec les régulateurs, le rôle au sein de l’administration américaine via le DOGE. Musk arrive dans cette salle d’audience avec une réputation — et cette réputation est un fait juridique au même titre que les courriels et les contrats. Les jurés ne peuvent pas effacer ce qu’ils savent de lui. Ils peuvent seulement décider dans quelle mesure cela est pertinent pour les questions précises qu’ils doivent trancher.
Il y a une ironie cruelle dans ce procès. L’homme qui a le plus à gagner symboliquement de cette affaire — et qui a renoncé à tout gain financier pour le prouver — est aussi l’homme dont chaque déclaration est immédiatement filtrée à travers l’épaisseur de ce qu’on sait de lui. La renonciation aux dommages-intérêts est réelle. L’accumulation d’années de comportements publics est réelle aussi. Les jurés devront tenir les deux vérités en même temps.
Altman et le droit au silence stratégique
Sam Altman témoignera plus de deux heures dans ce procès. Il n’a pas encore parlé, au moment où ces lignes sont écrites. Mais son silence actuel dans la salle d’audience pèse autant que les mots de Musk. Altman est l’homme qui a piloté la conversion d’une organisation caritative en une entreprise valorisée à 852 milliards de dollars. Il est l’homme qui a été brièvement évincé par son propre conseil d’administration en novembre 2023, avant d’être réinstallé en quelques jours face à la pression des investisseurs et des employés. Il est l’homme qui a négocié le tour de financement de 110 milliards de dollars en février 2026, avec 50 milliards d’Amazon, entièrement conditionné au maintien de la structure commerciale. Si ce procès le force à redevenir une organisation caritative, cet accord s’effondre. Le juge Yvonne Gonzalez Rogers a seule le pouvoir d’ordonner cette reversion structurelle. Pas les jurés. Le juge.
La géographie du pouvoir dans ce procès
Ce que le jury peut et ne peut pas décider
Les neuf jurés sont consultatifs sur les dommages financiers. Ils peuvent recommander des réparations. Ils ne peuvent pas ordonner à OpenAI de redevenir une organisation caritative. Cette décision appartient uniquement au juge Gonzalez Rogers, siégeant en équité. C’est une distinction qui change tout à la lecture du procès. La phase de responsabilité civile que les jurés examinent est la première marche. Si la responsabilité est établie, une phase de réparations commencera vers le 18 mai pour déterminer les remèdes : restitution financière, renvoi des dirigeants, reversion structurelle, ou une combinaison.
Satya Nadella, directeur général de Microsoft, témoignera environ une heure. Microsoft a investi plus de 13 milliards de dollars dans OpenAI sous la structure actuelle. Ilya Sutskever, co-fondateur qui a brièvement participé à l’éviction d’Altman, apparaîtra trente minutes. Mira Murati, ancienne directrice technique, déposera par vidéo. Ce casting dit quelque chose d’important sur la nature de ce procès : presque tout le monde qui a construit OpenAI sera dans cette salle. Presque tout le monde qui a façonné la trajectoire de l’IA générative sera interrogé sous serment sur ce qu’il savait, quand il le savait, et ce qu’il a fait de ce savoir.
Il est possible que ce procès soit le moment où l’histoire de l’intelligence artificielle s’arrête brièvement pour être examinée. Pas par des philosophes ou des régulateurs ou des journalistes. Par des jurés. Par une juge. Par le système le plus imprévisible et le plus humain que nous ayons inventé pour trancher les conflits : un tribunal.
852 milliards de raisons de s’inquiéter
OpenAI est valorisée à 852 milliards de dollars. Un résultat défavorable dans ce procès ne tue pas cette valeur du jour au lendemain. Mais il la fragmente. Une injonction forçant la reversion au statut à but non lucratif effacerait la structure même sur laquelle les investisseurs ont mis leur argent. Amazon, qui a engagé 50 milliards, a explicitement conditionné son investissement au maintien de la structure commerciale. Un retour forcé serait une rupture de contrat d’une magnitude sans précédent dans l’histoire de la technologie. Ce n’est pas une spéculation — c’est ce que les documents de financement stipulent.
Et pourtant, l’alternative a ses propres coûts. Si un juge fédéral décide que la conversion était légale, malgré les questions sur la manière dont les actifs du donateur ont été traités, alors chaque organisation à but non lucratif américaine qui collecte des fonds pour une mission spécifique sait désormais qu’elle peut, sous certaines conditions, se convertir sans que les donateurs originaux aient un recours effectif. Ce n’est pas la fin du monde caritatif. Mais c’est un signal sur ce que les promesses valent.
Ce que la langue dit de ce que la loi ne dit pas encore
Le vocabulaire de la trahison
Les mots que Musk utilise dans ses documents judiciaires sont choisis avec soin. « Pillage. » « Vol. » « Manipulation. » Ce ne sont pas des termes juridiques. Ce sont des termes moraux. Ils convoquent une image : quelqu’un qui dérobe quelque chose qui ne lui appartenait pas. Mais les 44 millions de dollars de Musk n’ont pas disparu dans la poche d’Altman. Ils ont financé une organisation qui existe encore, qui fonctionne encore, dont la mission de sécurité de l’IA est toujours au moins nominalement inscrite dans ses statuts. La conversion a changé la structure du pouvoir et de la propriété. Elle n’a pas fait disparaître les actifs.
La différence entre ces deux réalités — des actifs disparus contre un pouvoir redistribué — est précisément là où la loi n’a pas encore de réponse ferme. Les organisations caritatives américaines n’étaient pas conçues pour générer 852 milliards de valorisation boursière. Le cadre légal qui les régit a été construit pour des fondations hospitalières, des musées, des œuvres sociales. Pas pour des entreprises technologiques capables de transformer en quelques années des dons de dizaines de millions en actifs de centaines de milliards. Le vide entre ces deux réalités est ce que neuf jurés et un juge sont en train de remplir.
Voilà ce qui me dérange le plus dans ce procès, et ce que personne ne dit assez clairement : nous sommes en train d’utiliser un système légal conçu pour une économie du XXe siècle pour trancher des questions du XXIe. La vitesse à laquelle OpenAI a transformé 44 millions de dollars en 852 milliards n’était pas prévue par le droit caritatif américain. Ce n’est pas une critique du droit. C’est un constat sur la vitesse à laquelle le monde a changé.
Huit ans. Cent cinquante-sept milliards
Musk l’a dit dans ses documents : jamais une organisation caritative n’avait fait ce chemin en si peu de temps. 2015 — une organisation à but non lucratif fondée sur une promesse de sécurité. 2023 — la première version de GPT-4 redéfinit ce que l’IA peut faire. 2025 — conversion en société commerciale. Huit ans. De l’intention caritative à l’entreprise la plus chère de l’histoire de la technologie. Cette trajectoire est une anomalie dans tous les sens du terme. Anomalie commerciale. Anomalie légale. Anomalie dans l’histoire des institutions humaines.
Et pourtant, derrière cette trajectoire, il y a des gens. Il y a les ingénieurs qui ont passé des nuits à entraîner des modèles. Il y a les chercheurs qui ont cru à la mission de sécurité. Il y a les premiers donateurs qui ont fait confiance à une promesse. Il y a les salariés d’aujourd’hui dont les stock-options dépendent de l’issue du procès. Le chiffre de 852 milliards est abstrait. Les vies qui dépendent de sa stabilité ne le sont pas.
Trois témoins, trois récits
Nadella, Sutskever, Murati
Satya Nadella témoignera une heure. En 2019, Microsoft a investi un milliard de dollars dans OpenAI. En 2023, dix milliards supplémentaires. Nadella est le financier de cette histoire. Sa présence à la barre signifie qu’OpenAI a jugé nécessaire d’avoir le patron de Microsoft expliquer pourquoi la structure commerciale était non seulement légale mais nécessaire. Ce qu’il dira sous serment sur les discussions internes entre Microsoft et OpenAI autour de la conversion pourrait être la pièce la plus précieuse du dossier.
Ilya Sutskever, trente minutes. L’homme qui a co-signé la lettre d’éviction d’Altman en novembre 2023 et qui a ensuite voté pour son retour. Sutskever est le fantôme de ce procès. Il a quitté OpenAI en mai 2024 pour fonder sa propre organisation, Safe Superintelligence, entièrement focalisée sur la sécurité de l’IA. Son départ était une déclaration implicite sur ce qu’était devenu OpenAI. Ses trente minutes de témoignage seront peut-être les plus regardées de tout le procès. Mira Murati, directrice technique jusqu’à sa démission en septembre 2024, témoignera par vidéo. Trois personnes qui ont construit cette organisation. Trois récits différents sur ce qu’elle était censée être.
Il y a quelque chose de presque mélancolique dans ce casting. OpenAI en 2015 était une idée portée par des gens qui croyaient sincèrement pouvoir faire l’IA différemment. Peut-être certains d’entre eux y croyaient encore. Et voilà qu’on les convoque un par un pour qu’ils expliquent, sous serment, comment cette idée est devenue une entreprise à 852 milliards. Je ne sais pas si c’est une trahison. Mais c’est une transformation. Et les transformations aussi peuvent faire mal.
Deux heures pour Altman
Sam Altman témoignera plus de deux heures. C’est long. C’est assez long pour que les avocats de Musk explorent chaque contradiciton, chaque email, chaque décision. Altman, 40 ans, est l’homme qui a transformé une organisation caritative en l’entreprise technologique la plus valorisée de l’histoire. Que cela soit une réussite ou un crime est précisément la question que ce procès pose. Il devra expliquer le courriel de Zilis. Il devra expliquer les discussions de 2017 avec Musk sur la fusion avec Tesla. Il devra expliquer pourquoi la conversion était compatible avec la mission originale et non une trahison de celle-ci.
Et il devra faire tout cela sachant que Musk est dans la même salle, a témoigné avant lui, a planté dans l’esprit des jurés l’image d’un homme qui a volé une promesse. Le poids de 134 milliards de dollars en dommages potentiels, de la survie d’un accord de financement de 110 milliards, et d’une introduction en bourse qui serait l’une des plus grandes de l’histoire repose sur deux heures de témoignage.
Ce que le procès ne dit pas
La mission de sécurité qui a disparu du débat
OpenAI a été fondée avec une mission précise : s’assurer que l’intelligence artificielle générale bénéficie à toute l’humanité, et non à quelques actionnaires. Cette mission est dans les statuts originaux. Elle est dans le nom de l’organisation. Elle est dans les courriels de fondation que les deux parties citent dans leurs plaidoiries. Et pourtant, depuis l’ouverture du procès, personne n’a vraiment parlé de l’IA.
Pas de ce que les systèmes développés par OpenAI peuvent faire. Pas de ce qu’ils feront dans cinq ans. Pas des risques que les chercheurs de sécurité documentent depuis des années. Pas de la relation entre la structure de propriété d’une organisation et les décisions qu’elle prend sur le déploiement de technologies potentiellement transformatrices. Le procès le plus important de l’histoire de l’intelligence artificielle ne parle pas d’intelligence artificielle. Il parle de contrats, de donations, d’emails, de contrôle. La technologie elle-même est absente du débat. Comme si la question de savoir qui possède l’outil était plus importante que la question de ce que l’outil fait au monde.
C’est peut-être ça, la vérité la plus dérangeante de ce procès. Nous débattons de la propriété de l’une des technologies les plus puissantes jamais créées comme si c’était une dispute ordinaire sur des parts d’entreprise. Et pendant ce temps, les systèmes continuent de s’améliorer. Les déploiements continuent. Les décisions sur ce que ces systèmes font et ne font pas continuent d’être prises. Par qui ? Dans quel cadre ? Avec quelle responsabilité ? Ces questions ne sont pas devant le tribunal.
La gouvernance qui manque à ce débat
Le procès oppose deux récits sur le passé. Ce qui manque est une discussion sur le futur. Quelle structure de gouvernance est réellement compatible avec le développement responsable de l’intelligence artificielle générale ? Pas une structure optimale pour maximiser la valorisation boursière. Pas une structure optimale pour satisfaire les donateurs originaux. Une structure qui répond à la question que les fondateurs d’OpenAI avaient posée en 2015 et que personne dans cette salle d’audience ne semble se poser en 2026.
Peut-être que la réponse est une organisation à but non lucratif avec un accès limité aux capitaux. Peut-être que c’est une structure hybride comme celle qu’OpenAI avait avant la conversion. Peut-être que c’est quelque chose qui n’existe pas encore. Mais cette question ne sera pas tranchée dans la salle d’audience d’Oakland. Elle sera peut-être posée — indirectement, comme un écho — si le juge Gonzalez Rogers décide d’ordonner une reversion. Mais même dans ce cas, la réponse sera rétrospective. Elle dira ce qu’OpenAI n’aurait pas dû faire. Elle ne dira pas ce que les organisations développant l’IA devraient faire.
Le jour où tout peut basculer
La phase de réparations et le pouvoir du juge
Si la responsabilité est établie, la phase de réparations commence vers le 18 mai. C’est là que le procès atteindra son moment le plus conséquent. Le juge Gonzalez Rogers devra décider si elle ordonne la reversion forcée au statut à but non lucratif. Ce serait sans précédent. Ce serait potentiellement catastrophique pour les investisseurs. Ce serait peut-être aussi la seule décision cohérente avec l’argumentaire que Musk a développé depuis deux ans. L’ordonnance d’une reversion ne dépend pas des jurés — qui ne sont que consultatifs sur les dommages financiers. Elle dépend d’une seule personne qui siège en équité et qui peut ordonner ce que la loi permet sans être liée par la recommandation du jury.
Le tour de financement de 110 milliards de dollars signé en février 2026, avec Amazon pour 50 milliards, est structurellement conditionné au maintien de la forme commerciale. Si ce tribunal force la reversion, ce n’est pas seulement OpenAI qui est affectée. C’est Amazon. C’est Microsoft. C’est tous les fonds qui ont participé à ce tour. C’est l’introduction en bourse planifiée, qui aurait été l’une des plus grandes de l’histoire. La juge Gonzalez Rogers sait tout cela. Elle tranchera quand même selon ce que la loi commande.
Je pense souvent à ce que ressentent les jurés quand ils retournent chez eux le soir pendant ce procès. Neuf personnes ordinaires à qui on demande de trancher une question qui déplace des centaines de milliards de dollars, remodèle le droit caritatif américain, et décide en partie du destin de la technologie qui redéfinit leur monde. Ils ne sont pas des experts en IA. Ils ne sont pas des juristes spécialisés en droit des organisations à but non lucratif. Ils sont des citoyens. Et c’est eux qui décident. C’est vertigineux. C’est aussi, d’une certaine manière, exactement ce que la démocratie est censée faire.
Trois semaines pour tout changer
Le procès doit durer trois semaines. Trois semaines pour démêler dix ans d’histoire d’une organisation qui a changé l’industrie technologique mondiale. Trois semaines pour que des jurés pèsent des emails, des promesses, des intentions, et décident laquelle des deux versions iréconciliables d’une même histoire est vraie. Trois semaines pendant lesquelles OpenAI continuera de déployer ses produits, de signer des accords, d’embaucher des ingénieurs, comme si l’issue du procès ne la concernait pas. Comme si la structure de propriété était une question administrative et non une question existentielle.
Et pourtant. Elon Musk a dit que c’est simple. Sam Altman pense que c’est compliqué. Entre les deux, neuf jurés ordinaires et un juge fédéral vont tracer une ligne dans le droit américain qui n’existait pas avant ce mardi matin à Oakland. Cette ligne restera. Elle s’appliquera à d’autres cas. Elle dira quelque chose sur ce que les promesses valent dans l’Amérique du XXIe siècle. C’est peut-être la chose la plus simple et la plus vraie que Musk ait dite de tout le procès : quand tout sera terminé, cette affaire sera jurisprudence.
La dernière question
Ce que les jurés emporteront dans la salle de délibération
Quand les avocats auront fini, quand les experts auront témoigné, quand Altman et Musk auront dit leur vérité sous serment, les neuf jurés se retireront. Ils emporteront avec eux une image de Musk — l’homme le plus riche du monde qui dit ne rien vouloir pour lui-même. Ils emporteront une image d’Altman — le dirigeant qui a bâti une fortune de 852 milliards sur une fondation caritative. Ils emporteront les emails. Les chiffres. Les dates. Mais surtout, ils emporteront leur réponse à une question que personne ne leur posera explicitement : est-ce qu’une promesse faite pour attirer des dons est un contrat ou une aspiration ?
Si c’est un contrat, OpenAI a violé quelque chose de fondamental. Si c’est une aspiration, alors les organisations qui collectent des fonds en promettant des missions peuvent changer d’avis, de structure, de direction, et les donateurs n’ont qu’à faire confiance. Ces deux réponses dessinent deux Amériques différentes. Deux visions différentes de ce que signifie tenir parole. Et cette question-là, à la différence de la valorisation d’OpenAI, n’a pas de prix.
Musk a raison sur un point : cette affaire va créer de la jurisprudence. Mais la jurisprudence qu’elle créera n’est peut-être pas celle qu’il imagine. Elle pourrait ne pas parler de charité. Elle pourrait parler de quelque chose de plus profond : le moment où une organisation devient trop grande, trop précieuse, trop systémique pour que n’importe quel système juridique conçu pour un monde plus petit puisse encore la contenir.
La montre qui continue de tourner
Le procès continue. Altman témoignera. Nadella témoignera. Sutskever aussi. Les emails seront lus à voix haute. Les chiffres seront projetés sur des écrans. Les avocats construiront et démoleront des récits pendant trois semaines. Et pendant tout ce temps, les serveurs d’OpenAI tourneront. Les modèles s’amélioreront. Les utilisateurs poseront des questions et obtiendront des réponses. L’organisation dont l’avenir légal est suspendu à Oakland, Californie, continuera d’être l’une des forces les plus actives dans la transformation du monde.
Quand le verdict tombera — dans trois semaines, ou peut-être plus, si des appels suivent — l’affaire sera classée dans les archives. Mais la question qu’elle aura posée restera ouverte. Pas la question juridique. La question humaine, celle que les fondateurs d’OpenAI avaient formulée en 2015 et que personne dans cette salle d’audience ne semble avoir envie d’entendre : à qui appartient l’avenir ?
Signé Maxime Marquette, chroniqueur
Sources
The Next Web — Musk testified OpenAI lawsuit is about charitable giving
Bloomberg — Arguments begin in Musk-Altman showdown
The Next Web — OpenAI trial: credibility questions
The Next Web — OpenAI’s $110 billion funding round
Ce contenu a été créé avec l'aide de l'IA.