« Le mensonge n’est pas dans le mot, il est dans la chose. » — Michel de Montaigne, Essais, II, 18
INTRODUCTION
Le 27 avril 2026, dans une salle d’audience fédérale d’Oakland, devant la juge Yvonne Gonzalez Rogers, commence la sélection du jury dans l’affaire Musk v. Altman. Derrière le nom des deux hommes, ce sont deux récits qui entrent en collision. L’un affirme qu’Elon Musk vient faire respecter la promesse originelle faite à l’humanité. L’autre soutient qu’un concurrent évincé instrumentalise la justice pour ralentir l’entreprise qui le distance. Aucun des deux n’épuise la réalité du dossier.
Cet article ne cherche pas à trancher entre ces deux hommes. Il cherche à documenter ce que le dossier judiciaire, les documents descellés, la restructuration d’octobre 2025 et l’actualité de la semaine permettent effectivement d’établir. Car ce procès n’est pas un duel d’ego. Il est la première mise à l’épreuve, devant un jury américain, d’une question qui concerne bien au-delà de la Silicon Valley : lorsqu’une organisation est fondée « au bénéfice de toute l’humanité », qui peut juridiquement en disposer ?
I. CE QUE LE DOSSIER ÉTABLIT
OpenAI est fondée le 11 décembre 2015 comme organisation à but non lucratif. Parmi les co-fondateurs figurent Sam Altman, Greg Brockman, Ilya Sutskever et Elon Musk, ce dernier apportant environ 38 millions de dollars de dons sur la base d’une mission explicitement publique : développer une intelligence artificielle générale au bénéfice de l’humanité, en mode ouvert. Musk quitte le conseil en 2018 après l’échec de sa tentative de prise de contrôle comme directeur général.
En août 2024, Musk dépose une plainte pour fraude et rupture de contrat contre OpenAI, Altman, Brockman et Microsoft en tant que co-défenderesse. Il allègue que les dirigeants de la société l’ont délibérément trompé sur la pérennité du statut non lucratif pour obtenir son financement, avant d’engager une mutation vers un modèle lucratif dont Microsoft est devenu le principal bénéficiaire.
En janvier 2026, la juge Gonzalez Rogers rejette les requêtes de rejet déposées par OpenAI et Microsoft, et ordonne le passage devant jury. Sa décision s’appuie de façon centrale sur des documents internes alors descellés : plus de 100 pièces comprenant des textos, des courriels et des entrées de journal intime de Greg Brockman, co-fondateur et président d’OpenAI. Parmi les extraits cités par la magistrate dans son ordonnance figure une note de journal de Brockman envisageant ouvertement un basculement vers une structure lucrative, décrite comme financièrement avantageuse pour les dirigeants. La juge qualifie ce matériau de « suffisant pour qu’un jury se prononce ».
Le 7 avril 2026, les avocats de Musk déposent un mémoire précisant les demandes formulées si un jury établit la fraude : destitution d’Altman et de Brockman de leurs fonctions de dirigeants, démantèlement de la structure lucrative, retour effectif au statut non lucratif, restitution des « gains indus » estimés à 134 milliards de dollars. Au moment du procès, OpenAI a achevé, en octobre 2025, sa restructuration : la fondation non lucrative ne détient plus que 26 % de la branche lucrative qui exploite ChatGPT. La mission « au bénéfice de l’humanité » est juridiquement réduite à une minorité de blocage dans sa propre création.
II. CE QUE LE DOSSIER NE TRANCHE PAS
Les éléments précédents sont établis. Ils suffisent à expliquer pourquoi la juge a envoyé l’affaire devant jury. Ils ne suffisent pas à conclure que Musk est un redresseur de torts. Il faut ici regarder sa propre position en avril 2026.
Le 14 mars 2026, Elon Musk reconnaît publiquement sur X que son laboratoire xAI doit être « rebâti depuis les fondations », la majorité de ses co-fondateurs ayant quitté l’entreprise. SpaceX a absorbé xAI dans une opération qui valorise l’activité IA autour de 250 milliards de dollars, Tesla y a injecté environ 2 milliards, et une introduction en bourse de l’ordre du trillion est projetée. Le chatbot Grok accuse un retard reconnu par Musk lui-même sur le segment stratégique des outils d’aide à la programmation, dominé par Claude Code d’Anthropic et Codex d’OpenAI. Grok fait par ailleurs l’objet d’enquêtes gouvernementales dans plusieurs juridictions pour des usages problématiques de sa fonction de génération d’images, et les Philippines, la Malaisie et l’Indonésie ont temporairement interdit le service en janvier 2026 avant une levée conditionnelle après renforcement des garde-fous.
Chaque mois de distraction juridique imposé à OpenAI, chaque document interne exposé, chaque dépôt de cadre dirigeant, complique la potentielle introduction en bourse d’OpenAI attendue au quatrième trimestre 2026 et gagne du temps pour xAI en phase de rattrapage. Ce n’est pas une vendetta personnelle, comme le prétend la communication pro-Musk pour mieux la nier. Ce n’est pas non plus un pur « respect de l’accord originel promis au monde entier ». C’est aussi, et peut-être d’abord, du lawfare concurrentiel. Les deux lectures coexistent. L’une n’annule pas l’autre.
III. STARGATE, OU L’ARRIÈRE-PLAN QUE LE PROCÈS ÉCLAIRE
Le procès Musk v. Altman ne se déroule pas dans un vide réglementaire. Il intervient au moment où s’édifie Stargate, annoncé dès le premier jour du mandat Trump 2025 comme le plus grand projet d’infrastructure IA de l’histoire : 500 milliards de dollars d’investissements annoncés, réunissant OpenAI, Nvidia, Microsoft, Oracle, SoftBank et Arm autour de méga-centres de données.
Ces entreprises sont des concurrentes directes. Les voir coopérer pour construire conjointement l’infrastructure physique de l’IA américaine équivaudrait, dans l’industrie automobile, à faire cohabiter Ford, General Motors, Toyota, Bosch et Continental dans des usines partagées. Madhavi Singh, chercheuse à la Yale Law School, prépare pour le Berkeley Technology Law Journal une analyse sous le titre Stargate or StarGatekeepers ?, qui soutient que le dispositif détourne 135 ans de droit de la concurrence américain au profit d’un cercle restreint de « champions nationaux » protégés par l’État. Singh insiste : le risque n’est pas dans les modèles, où subsiste une forme de diversité, mais dans l’infrastructure, déjà ultra-concentrée. Nvidia contrôle entre 80 % et 95 % du marché des processeurs graphiques d’entraînement, TSMC fabrique 60 % des puces mondiales, et Amazon, Google et Microsoft dominent 70 % du marché du cloud.
Washington garde le silence. Le Congrès applaudit poliment. Lors d’une audition de plus de trois heures au Sénat sur « la course à l’IA », ni Sam Altman ni le sénateur Ted Cruz n’ont évoqué une seule fois la question antitrust. Le procès d’Oakland fait donc exception : pour la première fois, sur le fond, un tribunal va examiner comment l’une des pièces centrales du dispositif Stargate, OpenAI, a été arrachée à son statut originel.
IV. UNE LIGNE DE FRACTURE ÉTHIQUE RÉVÉLÉE PAR LE PENTAGONE
Si Stargate est la face infrastructurelle de la concentration, une seconde ligne de fracture s’est ouverte au grand jour en 2026 : celle de l’usage militaire des modèles d’IA. Elle permet de distinguer, à l’intérieur du paysage américain, des postures très différentes.
En juillet 2025, le département de la Défense attribue quatre contrats-cadres de 200 millions de dollars chacun à Anthropic, Google, OpenAI et xAI pour accélérer l’adoption de capacités d’IA avancées. À l’automne 2025, le Pentagone demande à ces fournisseurs d’autoriser l’usage de leurs modèles pour « toutes les utilisations légales », formulation ouvrant notamment la voie à la surveillance domestique de masse et aux systèmes d’armes létales entièrement autonomes sans autorisation humaine significative.
OpenAI avait, dès janvier 2024, supprimé discrètement de sa politique d’usage l’interdiction explicite des applications « militaires et de guerre », remplacée par une formule générale sur la prévention du préjudice. Depuis, la société a construit une division dédiée, OpenAI for Government, et recruté plus d’une douzaine d’anciens responsables du Pentagone et du renseignement. À la demande du DoD de 2025, OpenAI répond par l’affirmative : ses modèles sont disponibles pour « toutes les utilisations légales ».
Anthropic refuse. L’entreprise, qui avait signé le même contrat-cadre de 200 millions en juillet 2025 et dont Claude est alors décrit comme « le modèle d’IA de frontière le plus largement déployé et utilisé au département, et le seul sur les systèmes classifiés », maintient deux interdictions : pas de surveillance domestique de masse, pas d’armes létales entièrement autonomes sans contrôle humain.
Le 27 février 2026, le président Donald Trump ordonne à toutes les agences fédérales de « CESSER IMMÉDIATEMENT l’utilisation de la technologie d’Anthropic ». Le secrétaire à la Défense Pete Hegseth, qui utilise désormais « secrétaire à la Guerre » comme titre secondaire en vertu du décret exécutif 14347 du 5 septembre 2025, classe Anthropic comme risque de chaîne d’approvisionnement pour la sécurité nationale, interdit aux contractants du Pentagone de travailler avec l’entreprise, et annonce une période de transition de six mois. Le 9 mars 2026, Anthropic dépose un recours civil devant la cour fédérale. Le 26 mars, le juge accorde une injonction préliminaire en faveur d’Anthropic, qualifiant l’action du DoD d’« arbitraire et capricieuse » et de « représailles illégales ». Le 8 avril, la Cour d’appel annule cette injonction en refusant un sursis. Le contentieux reste ouvert.
Le directeur financier d’Anthropic, Krishna Rao, a déclaré devant le tribunal fédéral que la mise à l’index pourrait coûter à l’entreprise plusieurs milliards de dollars de revenus en 2026. C’est une perte volontairement assumée pour maintenir deux interdictions techniques. On peut être en désaccord avec la stratégie d’Anthropic sur bien d’autres plans. On ne peut pas confondre cette position avec celle d’OpenAI, qui a accepté la formule « toutes les utilisations légales » et dont Claude, selon les rapports, aurait été utilisé en janvier 2026 dans l’opération de capture du président vénézuélien Nicolás Maduro, précisément l’un des cas qui a précipité l’interrogation d’Anthropic au Pentagone.
V. CE QUI SE JOUE À OAKLAND, ET AILLEURS
Le 27 avril 2026 est une date à retenir. Non parce qu’elle annoncerait la chute de Sam Altman, comme le proclament les comptes X les plus excités. Un jury californien peut trancher dans un sens comme dans l’autre, et OpenAI maintient que la plainte de Musk est « sans fondement et s’inscrit dans un schéma de harcèlement continu ». Mais parce que ce procès sera, pour la première fois, l’occasion d’un examen contradictoire public des documents internes qui ont présidé à la mutation d’OpenAI : journaux intimes, échanges Slack d’octobre 2022 entre Brockman, Murati et Altman sur la manière de traiter « l’opinion publique », mémo Brockman sur l’éviction éclair d’Altman en novembre 2023.
Ce que le procès met à nu déborde largement Musk et Altman. Il révèle trois choses convergentes. D’abord qu’une mission « au bénéfice de toute l’humanité » peut, en quelques années, se retrouver réduite à 26 % d’une structure devenue majoritairement lucrative, sans qu’aucun contre-pouvoir n’intervienne. Ensuite que l’infrastructure de l’IA américaine, à travers Stargate, échappe pour l’instant à l’examen antitrust que 135 ans de droit auraient pourtant imposé à n’importe quelle autre industrie. Enfin que la ligne entre fournisseurs commerciaux d’IA et appareil militaire s’efface à grande vitesse, avec une exception notable, Anthropic, dont le refus a un coût documenté en milliards. La coopération affichée des géants de l’IA commence à se fissurer dès qu’on la regarde de près. Les postures ne sont pas équivalentes.
À Mérida comme ailleurs dans le monde francophone, il n’est plus possible de traiter ces sujets comme des rivalités de milliardaires américains. Le résultat du procès Musk v. Altman, quel qu’il soit, fixera un précédent sur ce que signifie, en 2026, fonder une organisation « au service de l’humanité ». Et ce précédent nous concerne.
BIBLIOGRAPHIE
Biddle, S. (2024, 12 janvier). OpenAI quietly deletes ban on using ChatGPT for “Military and Warfare”. The Intercept. https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/
Cloud Security Alliance. (2026, 11 mars). Pentagon vs. Anthropic: Autonomous weapons AI guardrails and the governance crisis for enterprise AI vendors. https://labs.cloudsecurityalliance.org/research/csa-research-note-dod-ai-guardrail-mandates-vendor-governanc/
CNBC. (2024, 16 janvier). OpenAI quietly removes ban on military use of its AI tools. https://www.cnbc.com/2024/01/16/openai-quietly-removes-ban-on-military-use-of-its-ai-tools.html
CNBC. (2026a, 24 avril). Musk v. Altman trial: OpenAI lawsuit xAI, what’s at stake. https://www.cnbc.com/2026/04/24/musk-v-altman-trial-openai-lawsuit-xai.html
CNBC. (2026 b, 7 avril). Elon Musk seeks ouster of OpenAI CEO Sam Altman as part of lawsuit. https://www.cnbc.com/2026/04/07/elon-musk-seeks-ouster-of-openai-ceo-sam-altman-as-part-of-lawsuit.html
Defense One. (2026, mars). Judge blocks Pentagon’s Anthropic ban, calling it illegal retaliation. https://www.defenseone.com/policy/2026/03/judge-pentagon-anthropic-ban-retaliation/412463/
DNyuz. (2026, 9 janvier). Over 100 documents were unsealed this week in Elon Musk’s lawsuit against OpenAI and Sam Altman. https://dnyuz.com/?p=58575
Get AI Perks. (2026, 24 mars). Grok Gratuit vs Payant 2026 : Prix, limites et fonctionnalités. https://www.getaiperks.com/fr/articles/grok-free-vs-paid
Hard Reset Media. (2026, 13 janvier). Unsealed court documents reveal billionaires’ deliberations, messy texts. https://www.hardresetmedia.com/p/unsealed-court-documents-reveal-billionaires-deliberations-openai
Sayler, K. M. (2026, 22 avril). Pentagon vs. Anthropic: The battle over AI in autonomous weapons and what it means for Congress – Analysis. Eurasia Review. https://www.eurasiareview.com/22042026-pentagon-vs-anthropic-the-battle-over-ai-in-autonomous-weapons-and-what-it-means-for-congress-analysis/
TechCrunch. (2026, 8 janvier). Elon Musk’s lawsuit against OpenAI will face a jury in March. https://techcrunch.com/2026/01/08/elon-musks-lawsuit-against-openai-will-face-a-jury-in-march/
Turrettini, E. (2025, 24 novembre). Stargate : coopération historique des géants de l’IA ou cartel ? LinkedIn Pulse. https://www.linkedin.com/pulse/stargate-coop%C3%A9ration-historique-des-g%C3%A9ants-de-lia-ou-emily-turrettini-leyke/