Was die New-Yorker-Recherche über Sam Altman enthüllt

5 Min. Lesezeit
Artikel

Die New-Yorker-Recherche über Sam Altman dokumentiert 20 Jahre Täuschung. Die eigentliche Frage ist jedoch nicht sein Charakter, sondern warum niemand Kontrollmechanismen eingerichtet hat.

Der kostenlose KI-Newsletter
Was die New-Yorker-Recherche über Sam Altman enthüllt

Über Sam Altmans Charakter wird viel diskutiert. Das ist die falsche Frage.

Am 7. April 2026 veröffentlichte The New Yorker eine Recherche von Ronan Farrow und Andrew Marantz mit dem Titel „Moment of Truth: Sam Altman May Control Our Future — Can He Be Trusted?" Achtzehn Monate Arbeit. Hundert Interviews. Hunderte von Seiten interner Dokumente. Der Typ von Stück, das nicht zufällig entsteht und nicht schnell geschrieben wird.

Was es enthüllt, ist beunruhigend. Aber nicht unbedingt aus den Gründen, die man gemeinhin annimmt.

Zwanzig Jahre, drei Organisationen, ein Muster

Die Recherche beginnt nicht bei OpenAI. Sie reicht zurück bis zu Loopt, Altmans erstem Startup Mitte der 2000er Jahre. Leitende Mitarbeiter hatten den Verwaltungsrat gebeten, ihn zu entlassen, und beklagten seine Tendenz, „Ich glaube, wir können das schaffen" mit „Das ist bereits erledigt" zu verwechseln. Paul Graham, Mitgründer von Y Combinator, geht noch weiter: „Sam hat uns von Anfang an angelogen."

Das ist kein Gerücht. Es sind namentliche Aussagen von Personen, die direkt mit ihm zusammengearbeitet haben, dokumentiert von zwei Investigativjournalisten — einer davon deckte die Weinstein-Affäre auf. Farrow veröffentlicht nicht auf Basis unklarer Quellen.

Bei Y Combinator dasselbe Muster. Altman soll persönliche Beteiligungen an den besten Startups des Programms erworben haben (neben seinen offiziellen Aufgaben) und bestimmte Außeninvestoren je nach Situation blockiert haben. Er verließ YC 2019, offiziell um OpenAI zu leiten. Laut der Recherche wurde er hinausgedrängt.

Die Episode, die alles zusammenfasst

Bei OpenAI werden die Vorwürfe schwerwiegender, weil die Einsätze höher sind.

Im Dezember 2022 versicherte Altman dem Verwaltungsrat, dass umstrittene GPT-4-Funktionen von einem internen Sicherheitsgremium freigegeben worden seien. Ein Verwaltungsratsmitglied bat um die entsprechenden Dokumente. Die Dokumente existierten nicht. Die Funktionen waren nie einem Gremium vorgelegt worden.

Das ist keine Interpretation, keine anonyme Quelle: Es ist dokumentiert in den 70 Seiten Notizen, die Ilya Sutskever im Herbst 2023 über das zusammenstellte, was er als „consistent pattern of lying" bezeichnete. Dario Amodei, Mitgründer von Anthropic nach seinem Abgang von OpenAI, ist in seinen persönlichen Notizen noch direkter: „Das Problem bei OpenAI ist Sam selbst."

Im November 2023 versuchte der Verwaltungsrat, Altman wegen „fehlender Aufrichtigkeit" zu entlassen. Er wurde fünf Tage später auf Druck von Microsoft und Investoren wieder eingesetzt. Die Lehre wurde gezogen: Aktionäre haben mehr Gewicht als unabhängige Verwaltungsräte.

Das eigentliche Problem ist nicht Altmans Charakter

Führungskräfte, die ihre Vision etwas übertrieben verkaufen: Das ist nicht ungewöhnlich. Außerhalb von KI macht das Schlagzeilen in der Wirtschaftspresse, aber selten Geschichte.

Das Problem bei KI ist ein anderes. Wenn Entscheidungen Technologien betreffen, die potenziell das globale Machtgefüge verschieben können, kann man es sich nicht leisten, die Sicherheit auf das Wohlwollen einer einzelnen Person zu stützen. Unabhängig davon, wer diese Person ist.

Gary Marcus, KI-Forscher, stellt die Frage präzise: „Wenn ein zukünftiges OpenAI-Modell die Entwicklung einer Massenvernichtungswaffe oder eines groß angelegten Cyberangriffs ermöglichen könnte — wollen Sie wirklich, dass Altman allein entscheidet, ob es veröffentlicht wird?"

Das ist kein persönlicher Angriff auf Altman. Es ist eine strukturelle Frage.

Man kann sich eine alternative Version dieser Geschichte vorstellen, in der Altman vollkommen ehrlich, gewissenhaft und vertrauenswürdig ist — das Problem bliebe bestehen. Die Konzentration dieser Entscheidungsgewalt auf eine einzige Person ohne unabhängige externe Kontrolle ist strukturell gefährlich. Altman ist kein Ausreißer: Er ist das Symptom eines Systems, das nie dafür ausgelegt war, diesem Druck standzuhalten.

Eine Milliarde versprechen, 2 % bereitstellen

Eine Zahl aus der Recherche verdient eine zweite Lektüre.

OpenAI hatte seinem „Superalignment"-Team — der Gruppe, die für die langfristige Sicherheit von AGI-Systemen zuständig ist — Rechenressourcen im Wert von 1 Milliarde Dollar versprochen. Laut vier in der Recherche zitierten Forschern beliefen sich die tatsächlich bereitgestellten Mittel auf 1 bis 2 % dieser Summe. Ein Forscher präzisiert: „Der Großteil des Superalignment-Computings lief auf alten Clustern mit den schlechtesten Chips."

Diese Diskrepanz zwischen Versprechen und Realität wäre in einem normalen Verwaltungsrat nicht unbemerkt geblieben. In einem so konzentrierten und so wenig überwachten Sektor wie KI in den Jahren 2022-2023 hat niemand die Reißleine gezogen.

Was das konkret bedeutet

Der EU AI Act, oft als bürokratische Last dargestellt, beginnt wie eine vernünftige Antwort auszusehen.

Sein Grundprinzip: Hochrisikosysteme müssen transparent und überprüfbar sein und unabhängigen Evaluierungen unterliegen. Nicht weil KI-Führungskräfte notwendigerweise schlechte Akteure sind. Sondern weil man Sicherheit nicht auf das Vertrauen in eine einzelne Person aufbauen kann, wenn die Einsätze dieses Ausmaß erreichen.

Die New-Yorker-Recherche ist ein Röntgenbild. Sie zeigt, was passiert, wenn eine mächtige Technologie von einer einzigen Person ohne ausreichende externe Kontrolle gesteuert wird. Was daraus folgt, hängt vom Willen der Regulierungsbehörden, Aktionäre und Regierungen ab.

Altman wird OpenAI wahrscheinlich weiterhin leiten. Er wird weiterhin vor Parlamenten erscheinen, über Verantwortung sprechen, Kooperation versprechen. Darin ist er sehr gut.

Die eigentliche Frage — diejenige, die die Recherche aufwirft, ohne sie explizit zu beantworten: Wie lange noch kann die KI-Governance auf dem Vertrauen in eine Erzählung aufgebaut werden?


Quellen: The New Yorker (Ronan Farrow und Andrew Marantz, 7. April 2026), Semafor, Gary Marcus/Substack

Behandelte Themen:

EthikOpenAIAnalyse

Häufig gestellte Fragen

Was enthüllt die New-Yorker-Recherche über Sam Altman?
Die Recherche von Ronan Farrow und Andrew Marantz (April 2026) dokumentiert ein Muster falscher Darstellungen in drei Organisationen: Loopt, Y Combinator und OpenAI. Sie stützt sich auf 100 Interviews und Hunderte interner Dokumente.
Warum versuchte OpenAI, Sam Altman 2023 zu entlassen?
Der OpenAI-Verwaltungsrat versuchte ihn im November 2023 wegen fehlender Aufrichtigkeit abzusetzen, nachdem festgestellt wurde, dass angekündigte Sicherheitsvalidierungen nie stattgefunden hatten. Er wurde fünf Tage später auf Druck der Investoren wieder eingesetzt.
Was ist die Kontroverse um das Superalignment-Budget?
OpenAI hatte der AGI-Sicherheitsgruppe 1 Milliarde Dollar Rechenressourcen zugesagt. Laut vier in der Recherche zitierten Forschern beliefen sich die tatsächlich zugewiesenen Mittel auf 1 bis 2 % dieses Betrags.
Kann der EU AI Act dieses Problem lösen?
Der AI Act schreibt Transparenz, Überprüfbarkeit und unabhängige Evaluierungen für Hochrisikosysteme vor. Er zielt auf Governance-Strukturen ab, nicht auf Einzelpersonen — genau das, was die Recherche bei OpenAI als defizitär identifiziert.
Wird Sam Altman OpenAI verlassen?
Nichts in der Recherche deutet darauf hin. Nach dem Entlassungsversuch von 2023 hat sich seine Position sogar gefestigt. Investoren haben gezeigt, dass sie mehr Gewicht haben als der unabhängige Verwaltungsrat.
Der kostenlose KI-Newsletter