Die ausführliche Untersuchungsinterpretation des New Yorker: Warum halten Insider von OpenAI Altman für unzuverlässig?

By: rootdata|2026/04/08 15:52:02
0
Teilen
copy

Originalautor: Xiaobing, Shenchao TechFlow

Im Herbst 2023 saß Ilya Sutskever, der leitende Wissenschaftler von OpenAI, vor seinem Computer und vollendete ein 70-seitiges Dokument.

Dieses Dokument wurde aus Slack-Nachrichtenprotokollen, HR-Kommunikationsdateien und internen Besprechungsprotokollen zusammengestellt, und zwar ausschließlich, um eine Frage zu beantworten: Kann man Sam Altman, dem Verantwortlichen für die möglicherweise gefährlichste Technologie der Menschheitsgeschichte, vertrauen?

Die Antwort von Sutskever steht in der ersten Zeile der ersten Seite des Dokuments und trägt den Listentitel „Sam zeigt ein konsistentes Verhaltensmuster…“.

Der erste Punkt: Liegen.

Heute, zweieinhalb Jahre später, veröffentlichten die Investigativjournalisten Ronan Farrow und Andrew Marantz einen ausführlichen Untersuchungsbericht im New Yorker. Sie befragten über 100 Beteiligte, erhielten bisher unveröffentlichte interne Memos und mehr als 200 Seiten privater Notizen, die der Anthropic-Gründer Dario Amodei während seiner Zeit bei OpenAI hinterlassen hatte. Die aus diesen Dokumenten zusammengesetzte Geschichte ist weitaus hässlicher als die „Palastintrigen“ von 2023: Wie sich OpenAI von einer gemeinnützigen Organisation, die für die Sicherheit der Menschen geschaffen wurde, in eine kommerzielle Maschine verwandelte, wobei fast alle Sicherheitsvorkehrungen von ein und derselben Person abgebaut wurden.

Amodeis Schlussfolgerung in seinen Aufzeichnungen ist noch eindeutiger: „Das Problem bei OpenAI ist Sam selbst.“

Die „Erbsünde“ von OpenAI

Um die Tragweite dieses Berichts zu verstehen, muss man zunächst klären, was OpenAI als Unternehmen so besonders macht.

Im Jahr 2015 gelang Altman und einer Gruppe von Silicon-Valley-Eliten etwas in der Wirtschaftsgeschichte nahezu Beispielloses: Sie nutzten eine gemeinnützige Organisation, um die möglicherweise mächtigste Technologie der Menschheitsgeschichte zu entwickeln. Die Verantwortlichkeiten des Vorstands wurden klar definiert: Sicherheit hat Vorrang vor dem Erfolg des Unternehmens, ja sogar vor dem Überleben des Unternehmens. Mit anderen Worten: Sollte die KI von OpenAI eines Tages gefährlich werden, ist der Vorstand verpflichtet, das Unternehmen selbst zu schließen.

Die gesamte Struktur basiert auf einer einzigen Annahme: Die für AGI verantwortliche Person muss eine absolut ehrliche Person sein.

Was, wenn diese Annahme falsch ist?

Die brisanteste Neuigkeit des Berichts ist dieses 70-seitige Dokument. Sutskever beteiligt sich nicht an Bürointrigen; er ist einer der weltweit führenden KI-Wissenschaftler. Doch bis 2023 war er zunehmend von einer Sache überzeugt: Altman belog fortwährend die Führungskräfte und den Vorstand.

Ein konkretes Beispiel: Im Dezember 2022 versicherte Altman dem Vorstand während einer Sitzung, dass mehrere Funktionen des kommenden GPT-4 die Sicherheitsprüfungen bestanden hätten. Vorstandsmitglied Toner bat um Einsicht in die Genehmigungsdokumente und stellte fest, dass zwei der umstrittensten Funktionen (benutzerindividuelle Feinabstimmung und Bereitstellung eines persönlichen Assistenten) überhaupt keine Genehmigung vom Sicherheitsausschuss erhalten hatten.

In Indien geschahen noch viel ungeheuerlichere Dinge. Ein Mitarbeiter meldete einem anderen Vorstandsmitglied „diesen Verstoß“: Microsoft hat in Indien eine frühe Version von ChatGPT veröffentlicht, ohne die notwendigen Sicherheitsüberprüfungen abzuschließen.

Sutskever hielt in dem Memo auch einen weiteren Vorfall fest: Altman hatte der ehemaligen CTO Mira Murati gesagt, dass der Sicherheitsgenehmigungsprozess nicht so wichtig sei, da der General Counsel des Unternehmens ihn bereits genehmigt habe. Murati ging zum General Counsel, um dies zu bestätigen, woraufhin dieser antwortete: „Ich weiß nicht, woher Sam diesen Eindruck hat.“

Amodeis 200 Seiten privater Aufzeichnungen

Sutskever verfasstes Dokument liest sich wie eine Anklageschrift der Staatsanwaltschaft. Amodeis mehr als 200 Seiten lange Notizen ähneln einem Tagebuch, das von einem Zeugen am Tatort geführt wurde.

Während der Jahre, in denen Amodei als Sicherheitschef bei OpenAI tätig war, musste er mitansehen, wie das Unternehmen unter dem Druck des Kommerzes zurückfiel. Er wies auf ein wichtiges Detail aus Microsofts Investitionskonzept von 2019 hin: Er hatte eine „Fusions- und Unterstützungsklausel“ in die Satzung von OpenAI eingefügt, was bedeutet, dass OpenAI den Wettbewerb einstellen und das Unternehmen unterstützen sollte, falls ein anderes Unternehmen einen sichereren Weg zu AGI findet. Dies war die Sicherheitsgarantie, die er bei dem gesamten Geschäft am meisten schätzte.

Als der Vertrag kurz vor der Unterzeichnung stand, entdeckte Amodei etwas: Microsoft hatte sich ein Vetorecht bezüglich dieser Klausel gesichert. Was bedeutet das? Selbst wenn eines Tages ein Konkurrent einen besseren Weg finden sollte, könnte Microsoft OpenAIs Verpflichtung zur Unterstützung mit einem einzigen Wort blockieren . Die Klausel stand zwar noch auf dem Papier, aber ab dem Tag der Unterzeichnung war sie wertlos.

Später verließ Amodei OpenAI und gründete Anthropic. Der Wettbewerb zwischen den beiden Unternehmen dreht sich im Wesentlichen um die Meinungsverschiedenheit darüber, „wie KI entwickelt werden sollte“.

Die verschwindende 20%-Rechenverpflichtung

Ein Detail im Bericht lässt einen erschaudern, und zwar das „Super-Alignment-Team“ von OpenAI.

Mitte 2023 schickte Altman eine E-Mail an einen Doktoranden, der zum Thema „deceptive alignment“ (KI verhält sich während des Tests gut, macht aber nach der Bereitstellung ihr eigenes Ding) forschte, und äußerte darin seine tiefen Bedenken hinsichtlich dieses Problems und die Überlegung, einen globalen Forschungspreis in Höhe von 1 Milliarde Dollar auszuloben. Der Doktorand wurde ermutigt, nahm sich eine Auszeit und schloss sich OpenAI an.

Dann änderte Altman seine Meinung: kein externer Preis, sondern stattdessen die Gründung eines internen „Super-Alignment-Teams“. Das Unternehmen kündigte an, diesem Team „20 % der vorhandenen Rechenkapazität“ zuzuweisen, mit einem potenziellen Wert von über einer Milliarde Dollar. Die Ankündigung war äußerst ernst und erklärte, dass, wenn das Ausrichtungsproblem nicht gelöst werde, AGI dazu führen könnte, dass „die Menschheit ihrer Macht beraubt wird oder gar ausstirbt“.

Jan Leike, der mit der Leitung dieses Teams betraut wurde, erklärte später gegenüber Reportern, dass die Verpflichtung selbst ein sehr effektives „Instrument zur Mitarbeiterbindung“ sei.

Und die Realität? Vier Personen, die in diesem Team oder eng mit ihm zusammengearbeitet haben, sagten Folgendes: Die tatsächlich zugewiesene Rechenleistung betrug lediglich 1 bis 2 % der gesamten Rechenleistung des Unternehmens und es handelte sich um die älteste Hardware. Dieses Team wurde später aufgelöst, und seine Mission blieb unerfüllt.

Als Journalisten Interviews mit Mitarbeitern von OpenAI anfragten, die für die Forschung zur „existenziellen Sicherheit“ zuständig sind, war die PR-Antwort des Unternehmens lächerlich: „Das gibt es nicht wirklich.“

Altman selbst blieb ruhig. Er sagte Reportern, dass seine „Intuition nicht gut mit vielen traditionellen KI-Sicherheitsansätzen übereinstimmt“ und OpenAI weiterhin „Sicherheitsprojekte oder zumindest Projekte mit Bezug zur Sicherheit“ verfolgen werde.

---Preis

--

Der marginalisierte Finanzchef und der bevorstehende Börsengang

Der Bericht des New Yorker war nur die halbe Wahrheit über die schlechten Nachrichten an diesem Tag. Am selben Tag veröffentlichte The Information eine weitere wichtige Story: Zwischen Sarah Friar, der Finanzchefin von OpenAI, und Altman kam es zu einer ernsthaften Meinungsverschiedenheit.

Friar teilte Kollegen unter vier Augen mit, dass sie OpenAI noch nicht für bereit halte, in diesem Jahr an die Börse zu gehen. Zwei Gründe: Der zu bewältigende verfahrenstechnische und organisatorische Arbeitsaufwand war zu groß, und die finanziellen Risiken, die mit Altmans versprochenen 600 Milliarden Dollar an Computerausgaben über fünf Jahre verbunden waren, waren zu hoch. Sie war sich sogar unsicher, ob das Umsatzwachstum von OpenAI diese Verpflichtungen tragen könnte.

Altman hingegen wollte im vierten Quartal dieses Jahres einen Börsengang anstreben.

Noch ungeheuerlicher war, dass Friar nicht mehr direkt an Altman berichtete. Ab August 2025 berichtete sie an Fidji Simo (CEO des Anwendungsgeschäfts von OpenAI). Und Simo hatte sich gerade aus gesundheitlichen Gründen krankgemeldet. Stellen Sie sich folgende Situation vor: Ein Unternehmen strebt einen Börsengang an, zwischen dem CEO und dem CFO bestehen grundlegende Meinungsverschiedenheiten, der CFO berichtet nicht an den CEO und der Vorgesetzte des CFO ist beurlaubt.

Sogar Führungskräfte bei Microsoft konnten es nicht ausstehen und sagten, Altman „verdrehe Fakten, breche sein Wort und setze Vereinbarungen ständig außer Kraft“. Ein Microsoft-Manager bemerkte sogar: „Ich denke, es besteht eine recht gute Chance, dass er letztendlich als Betrüger auf dem Niveau von Bernie Madoff oder SBF in Erinnerung bleiben wird.“

Altmans „doppelgesichtiges“ Porträt

Ein ehemaliges Vorstandsmitglied von OpenAI beschrieb gegenüber Reportern zwei Charakterzüge von Altman. Diese Beschreibung ist womöglich die härteste Charakterzeichnung im gesamten Bericht.

Das Vorstandsmitglied sagte, Altman besitze eine äußerst seltene Kombination von Eigenschaften: Er habe ein starkes Bedürfnis, in jeder persönlichen Begegnung anderen zu gefallen und von ihnen gemocht zu werden. Gleichzeitig zeigt er eine fast schon soziopathische Gleichgültigkeit gegenüber den Folgen seiner Täuschung anderer.

Dass beide Eigenschaften in einer Person vereint sind, ist äußerst selten. Für einen Verkäufer ist es jedoch das perfekte Geschenk.

Im Bericht findet sich eine Metapher, die dies gut veranschaulicht: Steve Jobs war berühmt für sein „Realitätsverzerrungsfeld“, mit dem er die Welt von seiner Vision überzeugen konnte. Aber selbst Jobs hat seinen Kunden nie gesagt: „Wenn Sie meinen MP3-Player nicht kaufen , werden die Menschen, die Sie lieben, sterben.“

Altman hat ähnliche Dinge über KI gesagt.

Das Charakterproblem eines CEOs: Warum es ein Risiko für alle ist

Wäre Altman nur der CEO eines gewöhnlichen Technologieunternehmens, wären diese Anschuldigungen höchstens ein aufregendes Geschäftsgerücht. Aber OpenAI ist nicht gewöhnlich.

Nach eigenen Angaben entwickelt das Unternehmen die möglicherweise mächtigste Technologie in der Geschichte der Menschheit. Sie kann die Weltwirtschaft und den globalen Arbeitsmarkt umgestalten (OpenAI selbst hat gerade ein Positionspapier zum Thema der durch KI verursachten Arbeitslosigkeit veröffentlicht) und kann auch zur Herstellung von groß angelegten biologischen Waffen oder zur Durchführung von Cyberangriffen eingesetzt werden.

Sämtliche Sicherheitsbarrieren sind bedeutungslos geworden. Die gemeinnützige Mission des Gründers ist dem Drang nach einem Börsengang gewichen. Der ehemalige wissenschaftliche Leiter und der ehemalige Sicherheitschef halten den CEO beide für „nicht vertrauenswürdig“. Die Partner vergleichen den CEO mit SBF. Welches Recht hat dieser CEO in diesem Kontext, einseitig zu entscheiden, wann KI-Modelle veröffentlicht werden, die das Schicksal der Menschheit verändern könnten?

Gary Marcus (KI-Professor an der NYU und langjähriger Verfechter der KI-Sicherheit) schrieb nach der Lektüre des Berichts folgende Zeile: Wenn ein zukünftiges OpenAI-Modell in der Lage wäre, groß angelegte biologische Waffen zu entwickeln oder katastrophale Cyberangriffe zu starten, würden Sie sich wirklich wohl dabei fühlen, Altman allein über die Veröffentlichung entscheiden zu lassen?

Die Antwort von OpenAI an den New Yorker war kurz und bündig: „Der Großteil des Inhalts dieses Artikels ist eine Wiederholung bereits berichteter Ereignisse, die sich auf anonyme Aussagen und selektive Anekdoten stützt, wobei die Quellen eindeutig persönliche Interessen verfolgen.“

Ganz im Sinne von Altmans Antwortstil: Er geht nicht auf konkrete Anschuldigungen ein, bestreitet nicht die Echtheit des Memos, sondern stellt lediglich die Motive in Frage.

Ein Geldbaum, der auf der Leiche einer gemeinnützigen Organisation wächst

Die zehnjährige Geschichte von OpenAI lässt sich wie folgt zusammenfassen:

Eine Gruppe von Idealisten, die sich Sorgen über die Risiken der KI machten, gründete eine gemeinnützige Organisation mit einer klaren Mission. Die Organisation erzielte außergewöhnliche technologische Durchbrüche. Die bahnbrechenden Erfolge zogen enorme Investitionen an. Das Kapital verlangte Rendite. Die Mission geriet ins Wanken. Das Sicherheitsteam wurde aufgelöst. Andersdenkende wurden verfolgt. Die gemeinnützige Organisation wurde in ein gewinnorientiertes Unternehmen umgewandelt. Der Vorstand, der einst die Befugnis hatte, das Unternehmen zu schließen, ist nun mit Verbündeten des CEO besetzt. Das Unternehmen, das einst versprochen hatte, 20 % seiner Rechenkapazität für den Schutz von Menschen bereitzustellen, lässt nun seine PR-Abteilung sagen: „Das ist nicht ernst gemeint.“

Der Protagonist dieser Geschichte wurde von über hundert Augenzeugen gleich bezeichnet: „Ungebunden von der Wahrheit.“

Er bereitet den Börsengang dieses Unternehmens mit einer Bewertung von über 850 Milliarden Dollar vor.

Dieser Artikel fasst Informationen aus öffentlichen Berichten von The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information und anderen Medien zusammen.

Das könnte Ihnen auch gefallen

Beliebte Coins

Neueste Krypto-Nachrichten

Mehr lesen