Un an après la dissolution de Superalignment, le budget safety d'OpenAI a fondu de 80 %
Jan Leike chez Anthropic, Ilya Sutskever avec 1Md$ pour SSI, et chez OpenAI il ne reste plus grand monde. Postmortem chiffré.
En juillet 2023, OpenAI annonçait une équipe Superalignment dotée de 20 % de son compute total sur quatre ans. L'engagement était public, signé Sam Altman et Ilya Sutskever. En mai 2024, l'équipe est dissoute. Jan Leike, son co-lead, démissionne avec un message cinglant sur X : « ces dernières années, la culture et les processus de sécurité ont cédé la place aux produits brillants ».
Un an et demi plus tard, le bilan financier est sans appel. Leike est chez Anthropic. Sutskever a levé 1 milliard de dollars à une valorisation de 5 Md$ pour Safe Superintelligence Inc. en septembre 2024 — sans produit, sans revenu, juste sur le sujet alignement. Et chez OpenAI, le budget safety dédié représente aujourd'hui une fraction marginale de la R&D — l'équipe Preparedness comptait moins de 50 personnes selon les reporting de The Information.
La question business : qui a hérité du budget que les 20 % de compute représentaient ?
Le budget
20 % du compute d'OpenAI fin 2023, c'est l'équivalent grossier de 200 à 300 M$ annuels en coût d'inférence et de training, selon les estimations consolidées sur la base des contrats Microsoft. Ce budget n'a jamais été honoré dans son intégralité, comme l'a confirmé Leike dans son thread de départ : « mon équipe luttait constamment pour obtenir du compute ».
Aujourd'hui, ce budget est éclaté en trois directions. Une partie est rapatriée dans le développement produit (GPT-5, Operator, etc.). Une autre va à l'équipe Preparedness, restructurée fin 2024 — mais avec un mandat différent, plus opérationnel et moins recherche fondamentale. Le reste a financé la transition d'ingénieurs vers d'autres branches.
Qui gagne
Anthropic. Pure et simple. La société de Dario Amodei a recruté Leike, plusieurs alumni Superalignment, et a vu son équipe Alignment Science doubler entre mai 2024 et fin 2025. Anthropic capitalise sur ce positionnement : la levée de 8 Md$ avec Amazon en 2024, puis le tour à 60 Md$ de valorisation en mars 2025, ont été en partie justifiés par la doctrine RSP (Responsible Scaling Policy) qu'OpenAI n'a jamais réussi à formaliser de manière équivalente.
Safe Superintelligence Inc. de Sutskever. Une boîte sans produit lève 1 Md$ à 5 Md$ de valorisation. Le ratio capital/headcount (moins de 30 employés) en fait l'un des paris les plus extrêmes du marché VC sur la thèse safety.
Apollo Research, METR, Goodfire AI. Ces structures spécialisées dans l'évaluation et l'interprétabilité ont vu leur funding multiplié par 3 à 10 depuis la dissolution. Apollo a levé sur des contrats publics britanniques. METR facture des évaluations à OpenAI, Anthropic et Google DeepMind directement.
Qui perd
OpenAI sur sa marque. Le départ public de Leike, suivi de celui de Sutskever, puis de Mira Murati, puis de Bob McGrew, a transformé la perception du dossier safety en passif. Plusieurs investisseurs européens (mentionnés dans le reporting Bloomberg) auraient explicitement cité ce point dans leurs due diligences sur le tour de table 2025.
Le débat public francophone. La couverture média francophone reste structurée autour du clivage Hinton / LeCun, alors que la vraie question 2026 est : qui peut encore se permettre d'investir massivement en safety quand les marges des labos restent négatives ? Anthropic a brûlé 5,3 Md$ en 2024 selon The Information. Le luxe d'investir 10 % de la R&D en alignement n'est tenable qu'avec des poches profondes.
À surveiller
- Q1 2026 : publication des résultats de l'équipe Preparedness OpenAI sur les évaluations GPT-5. Si elle se contente d'évaluations capacitaires sans red-team agressif, le signal de désinvestissement se confirme.
- Levée série B Safe Superintelligence Inc. attendue mi-2026. Une valorisation supérieure à 20 Md$ sans produit acterait que la safety est devenue un actif spéculatif autonome.
- Budget recherche fondamentale Anthropic dans les prochains 10-K (équivalents). La part déclarée en alignement est un indicateur de leur défensibilité face à OpenAI sur les marchés régulés.
L'essentiel : les 20 % de compute promis par OpenAI à Superalignment n'ont jamais existé pleinement, et ce qu'il en restait a été redistribué vers le produit. Anthropic, SSI et la nouvelle économie de l'éval safety ont absorbé le talent. Le marché valorise désormais l'engagement safety à plusieurs milliards — pour ceux qui peuvent encore se le payer.