Ce que l'enquete du New Yorker revele de Sam Altman

5 min de lecture
Article

L'enquete du New Yorker sur Sam Altman documente 20 ans de manipulation. Mais la vraie question n'est pas le caractere d'Altman : c'est pourquoi personne n'a cree de garde-fous.

La newsletter IA gratuite
Ce que l'enquete du New Yorker revele de Sam Altman

On passe beaucoup de temps a debattre du caractere de Sam Altman. En fait, c'est la mauvaise question.

Le 7 avril 2026, le New Yorker publiait une enquete signee Ronan Farrow et Andrew Marantz, intitulee "Moment of Truth: Sam Altman May Control Our Future - Can He Be Trusted?". Dix-huit mois de travail, cent interviews, des centaines de pages de documents internes. Le type de piece qui ne sort pas par hasard et ne s'ecrit pas vite.

Ce qu'elle revele est preoccupant, mais les raisons ne sont pas celles qu'on imagine d'abord.

Vingt ans, trois organisations, un schema

L'enquete ne se limite pas a OpenAI. Elle remonte a Loopt, le premier startup d'Altman, au milieu des annees 2000. Des employes seniors avaient demande au conseil d'administration de le renvoyer, se plaignant de sa tendance a confondre "je pense pouvoir y arriver" et "c'est deja fait". Paul Graham, cofondateur de Y Combinator, va plus loin: "Sam nous mentait depuis le debut."

Ces declarations viennent de personnes qui ont travaille directement avec lui, documentees par deux journalistes d'investigation dont l'un a sorti l'affaire Weinstein. Farrow n'est pas homme a publier sur la foi de sources floues.

Chez Y Combinator, meme schema. Altman aurait pris des participations personnelles dans les meilleures startups du programme (en parallele de ses fonctions) et bloque certains investisseurs exterieurs selon les situations. Il a quitte YC en 2019, officiellement pour prendre la tete d'OpenAI. Selon l'enquete, il a ete pousse vers la sortie.

L'episode qui concentre tout

A OpenAI, les allegations deviennent plus lourdes parce que les enjeux le sont.

En decembre 2022, Altman assure au conseil d'administration que les fonctionnalites controversees de GPT-4 ont ete validees par un panel de securite interne. Un membre du board demande les documents attestant de cette validation. Les documents n'existent pas. Les fonctionnalites n'ont jamais ete soumises a aucun panel.

C'est documente dans les 70 pages de notes qu'Ilya Sutskever avait compilees a l'automne 2023 sur ce qu'il decrit comme un "consistent pattern of lying". Dario Amodei, co-fondateur d'Anthropic apres avoir quitte OpenAI, est encore plus direct dans ses notes personnelles: "Le probleme chez OpenAI, c'est Sam lui-meme."

En novembre 2023, le conseil a essaye de limoger Altman pour "manque de candeur". Il a ete reintegre cinq jours plus tard, sous la pression de Microsoft et des investisseurs. La lecon a ete retenue: les actionnaires ont plus de poids que les administrateurs independants.

Le vrai probleme n'est pas le caractere d'Altman

Des dirigeants qui vendent leur vision en l'exagerant un peu existent partout. En dehors de l'IA, ca fait les manchettes des affaires mais rarement l'histoire. Avec l'IA, c'est different: quand les decisions concernent des technologies qui peuvent potentiellement changer l'equilibre des pouvoirs a l'echelle mondiale, on ne peut pas construire la securite sur la bonne foi d'un individu. Peu importe lequel.

Gary Marcus, chercheur en IA, pose la question de facon chirurgicale: "Si un futur modele OpenAI pouvait permettre la creation d'une arme biologique massive ou d'une cyberattaque de grande envergure, voulez-vous vraiment qu'Altman decide seul si on le publie ou non ?"

La question porte sur la structure, pas sur le caractere d'Altman en particulier. Imaginez une version alternative dans laquelle Altman est completement honnete, scrupuleux, fiable: le probleme reste entier. Concentrer ce niveau de pouvoir de decision dans une seule personne, sans surveillance externe independante, est dangereux par construction. Altman est le symptome d'un systeme qui n'a pas ete concu pour resister a ce type de pression.

Promettre un milliard, allouer 2%

Un chiffre de l'enquete merite d'etre lu deux fois.

OpenAI avait promis 1 milliard de dollars de ressources de calcul pour son equipe "superalignment", le groupe charge de la securite a long terme des systemes AGI. Selon quatre chercheurs cites dans l'enquete, les ressources reellement allouees representaient entre 1 et 2% de cette somme. Un chercheur precise: "La plupart du compute superalignment tournait sur les vieux clusters avec les pires chips."

C'est l'ecart entre promesse et realite qui ne passe pas inapercu dans une salle de conseil d'administration normale. Dans un secteur aussi concentre et aussi peu surveille que l'IA en 2022-2023, personne n'a siffle la fin de la recreation.

Ce que ca signifie concretement

L'AI Act europeen, souvent presente comme une contrainte bureaucratique, emerge comme une reponse structuree a ce type de probleme.

Son principe de base: les systemes a haut risque doivent etre transparents, auditables, et soumis a des evaluations independantes. Pas parce que les dirigeants de l'IA sont necessairement mauvais. Parce qu'on ne peut pas construire la securite sur la confiance en un individu quand les enjeux atteignent cette echelle.

L'enquete du New Yorker est une radiographie. Elle montre ce qui se passe quand une technologie puissante est pilotee par une seule personne sans controle externe suffisant. Ce qu'on en fait depend de la volonte des regulateurs, des actionnaires, et des gouvernements.

Altman continuera probablement a diriger OpenAI. Il continuera a comparaitre devant les parlements, a parler de responsabilite, a promettre la cooperation. Il est tres bon a ca.

La vraie question, celle que l'enquete pose sans y repondre explicitement: combien de temps encore peut-on construire la gouvernance de l'IA sur la confiance en une narration ?


Sources: The New Yorker (Ronan Farrow et Andrew Marantz, 7 avril 2026), Semafor, Gary Marcus/Substack

Sujets abordés :

ÉthiqueOpenAIDécryptage

Questions fréquentes

Que revele l'enquete du New Yorker sur Sam Altman ?
L'enquete de Ronan Farrow et Andrew Marantz (avril 2026) documente un schema de declaration trompeuses sur trois organisations : Loopt, Y Combinator et OpenAI. Elle s'appuie sur 100 interviews et des centaines de documents internes.
Pourquoi OpenAI a-t-il tente de limoger Sam Altman en 2023 ?
Le conseil d'administration d'OpenAI a tente de le renvoyer en novembre 2023 pour manque de candeur, notamment apres avoir constate que des validations de securite annoncees n'avaient jamais eu lieu. Il a ete reintegre cinq jours plus tard sous pression des investisseurs.
Qu'est-ce que l'affaire du budget superalignment ?
OpenAI avait promis 1 milliard de dollars a son equipe de securite AGI. Selon quatre chercheurs cites dans l'enquete, les ressources reellement allouees representaient entre 1 et 2% de cette somme.
L'AI Act europeen peut-il regler ce type de probleme ?
L'AI Act impose transparence, auditabilite et evaluations independantes pour les systemes a haut risque. Il ne vise pas les individus mais les structures de gouvernance, ce qui est precisement ce que l'enquete pointe comme defaillant chez OpenAI.
Sam Altman va-t-il quitter OpenAI ?
Rien dans l'enquete ne l'indique. Apres le tentative de limogeage de 2023, sa position s'est en realite renforcee. Les investisseurs ont montre qu'ils avaient plus de poids que le conseil d'administration independant.
La newsletter IA gratuite