Im April landet der Hahnenkampf Elon Musk (Tesla) gegen Sam Altman (OpenAI) vor Gericht. Nun tauchten über 100 Dokumente, Mails und Tagebucheinträge auf. Sie belegen: KI-Chefs sind auch nichts anderes als ganz normale Kapitalisten. Die Hintergründe.

Pressemitteilungen verraten fast ziemlich genau nichts darüber, wie ein Unternehmen funktioniert. Um wirklich einen Blick hinter die Kulissen zu werfen, muss ein Unternehmen vor Gericht landen.
Betrachten wir den Rechtsstreit zwischen Elon Musk und OpenAI, zu dem diesen Monat über 100 Dokumente öffentlich wurden. Musk fordert darin etwa eine enorme Entschädigung vom Hersteller von Chat GPT , den er mitgegründet und der ihn nun angeblich durch die Aufgabe seiner gemeinnützigen Struktur betrogen hat.
Die Gerichtsakte liest sich wie ein Klatschroman. Warum ist OpenAI eine Partnerschaft mit Microsoft eingegangen und nicht mit Amazon, will Elon Musk von Sam Altmann wissen. "Ich finde, Jeff ist ein bisschen ein Trottel", beantwortete er sich die Frage in einer E-Mail 2016 an den OpenAI-Mitbegründer selbst. Gemeint ist Jeff Bezos.
Wie empfindet Sam Altman, der Chef von OpenAI, seinen sehr öffentlichen Streit mit Musk? "Nun, du bist mein Held … und es tut verdammt weh, wenn du OpenAI öffentlich angreifst,“ schrieb er 2023 an Musk. Der antwortet: "Ich höre dich … aber das Schicksal der Zivilisation steht auf dem Spiel."

Investoren sind fixiert auf das revolutionäre Potenzial von KI. Manche reden von kaum etwas anderem. Primäre Belege, die Aufschluss über die inneren Abläufe ihrer Avantgarde geben, laden daher zu einer sorgfältigen Untersuchung ein.
Eine wachsende Zahl von Kritikern befürchtet, dass sich KI langsamer und vorhersehbarer entwickeln wird, als ihre Befürworter erwarten: Mit anderen Worten, sie wird eine normale Technologie sein. Aber Unternehmensanthropologen, die das Verhalten von OpenAI untersuchen, werden etwas entdecken, was Silicon Valley noch weniger gerne zugibt: Seine Bosse sind normale Kapitalisten.
Wenn eine kalifornische Jury ab April über den Fall verhandelt, wird Normalität nicht der erste Eindruck sein, den sie gewinnt. Als Ilya Sutskever 2017 Änderungen an der Unternehmensführung von OpenAI erwog, schrieb er, seine Beratungen mit seinem Mitgründer Greg Brockman seien möglicherweise die "wichtigste Unterhaltung, die die Welt je erlebt hat".
Ein Deal Sheet aus dem Jahr 2018 warnte Investoren, dass OpenAI nicht wisse, „welche Rolle Geld spielen wird”. Und das in einer Welt, in der künstliche allgemeine Intelligenz (AGI) Menschen bei den meisten wirtschaftlich wertvollen Aufgaben übertrifft.
Der Kampf um die Zukunft von OpenAI zeigt , wie die Führung des bekanntesten Unternehmens der Branche immer gewöhnlicher geworden ist, während KI immer außergewöhnlicher wurde.

OpenAI war 2015 als eine von Silicon-Valley-Spendern finanzierte, Non-Profit-Organisation konzipiert worden, die nichts weniger wollte als die Zivilisation zu retten. Fast sofort zwang der Kampf um das Gleichgewicht zwischen Wachstum und Wohltätigkeit das Unternehmen aber zu unternehmerischen Verrenkungen.
Eine Idee war die Ausgabe einer Kryptowährung. Eine andere war die Anbindung an einen wohlhabenden Geldgeber in Form von Tesla, dem Automobilunternehmen von Elon Musk.
Beides kam nicht zustande. Schließlich investierten Microsoft und später weitere Unternehmen in eine Tochtergesellschaft von OpenAI, wobei die Rendite zunächst auf das 100-fache des Kapitals begrenzt war. Im Oktober ging der KI-Bauer noch einen Schritt weiter und reorganisierte sich als gemeinnützige Gesellschaft (PBC).
Obwohl eine gemeinnützige Einrichtung weiterhin die formelle Kontrolle hat, agiert OpenAI nun als gewinnorientiertes Unternehmen, das sich verpflichtet, die Interessen der Aktionäre mit denen „der gesamten Menschheit” in Einklang zu bringen.

Anthropic, der Hersteller des Chatbots Claude, ist ebenfalls eine PBC. Seine Satzung enthält ebenso vage Verpflichtungen gegenüber allen Menschen auf der Welt.
Silicon Valley hat gute Gründe, seine Gewinnmaximierungs-Instinkte mit Frömmigkeit zu verschleiern. Anthropic mag das wohlwollendste Labor der Branche sein, aber es ist auch der Entwickler seines heißesten neuen Produkts, Claude Code.
Die Unzufriedenheit der Bevölkerung über die möglichen Auswirkungen der KI auf Arbeitsplätze und Strompreise ist besorgniserregend, insbesondere da sie zu Regulierungsmaßnahmen führen könnte. Vier Faktoren erklären letztlich, warum die visionären Führungskräfte der KI-Branche mittlerweile eher wie gewöhnliche Kapitalisten aussehen.
Der erste Faktor ist Eigeninteresse. Es gibt wenig Grund zu der Annahme, dass die Verantwortlichen Altruisten sind. "Was bringt mir 1 Milliarde Dollar?", fragte sich Brockman in seinem Tagebuch (das durch Musks Klage selektiv ausgegraben wurde), während OpenAI 2017 über seine Zukunft nachdachte.
Er hätte sich fragen sollen, was ihn auf 134 Milliarden Dollar bringen könnte, die Obergrenze dessen, was Musk heute fordert.

Die riesige Summe basiert auf einer Bewertung von 500 Milliarden Dollar für OpenAI, die zum Teil auf den schmeichelhaften Berechnungen der eigenen Banker beruht. Mehr als ein Viertel davon gehört der gemeinnützigen Organisation – und der größte Teil davon, so Musk, gehört ihm. Nicht schlecht für eine Spende von 38 Millionen Dollar.
Hinzu kommt der Wettbewerb. Die von OpenAI und Anthropic verabschiedeten Satzungen basieren auf unklaren Formulierungen. Doch die sich verschärfende Rivalität zwischen den Modellentwicklern ist für alle offensichtlich.
Wenn hochgesteckte Verpflichtungen auf die harte wirtschaftliche Realität treffen, sind erstere dazu bestimmt, eher Augenwischerei als selbst auferlegte Beschränkungen zu werden. Streitigkeiten über Regulierung und Gerichtsverfahren zu Themen wie dem Urheberrecht werden die Chefs ebenfalls dazu zwingen, weniger vage zu bleiben.
Um im Rennen zu bleiben, brauchen Modellhersteller Kapital – eine dritte Erklärung. Investoren verlangen Renditen, weshalb Cashflow-Ziele schnell die Sicherheitsbedenken als idée fixe, als zentrales Anliegen der Branche abgelöst haben.
Wenn OpenAI und Anthropic an die Börse gehen, wie es Gerüchten zufolge erwägt wird, wird der disziplinierende Effekt, den die Märkte auf ihre Geschäftstätigkeit haben, noch viel stärker werden. Viel Glück dabei, den empfindlichen Wall-Street-Aktivisten oder Kleinanlegern zu erklären, dass die Quartalsgewinne zum Wohle der Menschheit geopfert wurden.

Schließlich gibt es noch die jüngere Geschichte. Sie zeigt, dass mit Bossen, die auf Profitabilität pfeifen und lieber einer höheren Berufung folgen, eher unfreundlich umgegangen wird.
Die KI-Branche hat mehr mit der ESG-Bewegung (Environmental, Social and Governance) gemeinsam, die Anfang der 2020er Jahre ihren Höhepunkt erreichte, als sie zugeben möchte. Damals warnten Chefs vor existenziellen Gefahren durch Klimawandel und Ungleichheit. Einige begrüßten sogar neue Unternehmensformen, darunter die PBC. Nur wenige ESG-Projekte waren stark genug, um die Rückkehr von Donald Trump zu überstehen.
Niemand mag es, als normal bezeichnet zu werden, am wenigsten Milliardäre. Diejenigen, die glauben, dass KI die Menschheit gefährden könnte, wenn sie nicht richtig kontrolliert wird, mögen ebenfalls verzweifeln: Der Gedanke, dass KI-Chefs mit Risiken, die zur Auslöschung führen könnten, mit derselben Sorgfalt umgehen könnten, mit der die Wall Street Finanzkrisen verhindert, ist beunruhigend.
Wenn KI jedoch eine normale Technologie ist, die von normalen Kapitalisten eingesetzt wird, könnte das wahre Risiko anderer Natur sein. Es deutet darauf hin, dass der KI-Boom Teil eines normalen Zyklus aus Hype, Überinvestitionen und letztendlich einem Crash ist. Das wäre zwar nicht das Ende der Welt, aber dennoch schmerzhaft.
"© 2026 The Economist Newspaper Limited. All rights reserved."
"From The Economist, translated by www.deepl.com, published under licence. The original article, in English, can be found on www.economist.com"