Billionen für die KI-Welt – mit Risiko zum Crash
Red. Die Dimensionen, um die es geht, sind so riesig und komplex, dass die Medien sie nur schwer ins Bewusstsein bringen können. Ein Zusammenbruch würde aber alle treffen. Die frühere Vizekanzlerin und KI-Spezialistin Hanna Muralt Müller hat eine aktuelle Dokumentation zusammengestellt.
Im KI-Wettlauf werden Unsummen in Billionenhöhe in die KI-Infrastruktur investiert, insbesondere in den Bau grosser Rechenzentren. Ein Risiko stellen finanzielle und geschäftliche Verflechtungen unter den Tech-Giganten dar, die schwer überblickbar sind. Zu einem entsprechend grossen Crash kann es kommen, falls diese Billionen-Investitionen wegen der raschen Entwicklung von günstigeren Technologien zu Verlusten führen. Noch machen die KI-Giganten grosse Gewinne, was zum Kauf ihrer Aktien verführt.
Keine eigenen Ressourcen – ausgeklügeltes Finanzierungssystem
Das Vertrauen in künftige Gewinne von Open-AI ist offensichtlich so gross, dass andere Big-Tech-Unternehmen mit Open-AI Deals in Milliardenhöhe abschliessen. Nach Bekanntgabe solcher Vereinbarungen reagierten die Aktienkurse der beteiligten Firmen meist positiv. In einem schwer durchschaubaren Gewirr an Verträgen schaukeln sich die Tech-Unternehmen gegenseitig hoch.
Die Vielfalt dieser Verträge ist beeindruckend. Es gibt zirkuläre Verträge, die darin bestehen, dass der eine Partner mit der Auflage investiert, dass der andere mit dem Geld seine Produkte kauft. Auch werden Investitionen verrechnet mit der Abgabe von Firmenanteilen. In diesem Gewirr gehen sogar Konkurrenten Allianzen ein und Partner konkurrenzieren sich gegenseitig: Es ist Kooperation mit Kompetition – sogenannte Koopetition (abgeleitet von Cooperation und Competition). Im Folgenden wird dieses Geflecht mit ein paar Schlaglichtern ausgeleuchtet.
Allianzen für Investitionen in eine ungewisse Zukunft
KI-Rechenzentren werden nicht in Quadratmetern oder Servern gemessen, sondern in Gigawatt Rechenkapazität. Ein Gigawatt entspricht der Leistung des AKW Gösgen. Die Kosten für die Bereitstellung von 1 Gigawatt KI-Rechenzentrumskapazität werden auf 35 Milliarden Dollar geschätzt. Rund 40 Prozent davon kosten die Prozessoren.
Bereits unter dem früheren Vertrag mit Microsoft nutzte Open-AI seinen Handlungsspielraum insbesondere bei der Beschaffung von Chips und ging Vereinbarungen mit Nvidia und dessen Konkurrenten AMD und Broadcom ein.
Nvidia will schrittweise bis 100 Milliarden Dollar in Open-AI investieren. Damit hat Open-AI die nötigen Ressourcen für den Aufbau von Rechenkapazitäten im Umfang von 10 Gigawatt, die mit Nvidia-Prozessoren aufzubauen sind. Nvidia kann so seine Gewinne investieren und gleichzeitig den Chipverkauf ankurbeln. Offensichtlich erhält Nvidia auch Anteile an Open-AI.
Gegenüber AMD, einem zunehmend ernstzunehmenden Konkurrenten von Nvidia, verpflichtete sich Open-AI im Rahmen eines mehrjährigen Vertrags, Prozessoren im Umfang von 6 Gigawatt zu kaufen und bindet sich damit als langjähriger Kunde von AMD. Als Gegenleistung gewährt AMD Open-AI die Option, bis zu 160 Millionen AMD-Aktien zu übernehmen. Mit der Ankündigung des Deals legte die AMD-Aktie um 28 Prozent zu.
Auch mit dem Chiphersteller Broadcom – ein weiterer Konkurrent – ging Open-AI eine Partnerschaft ein. Open-AI und Broadcom wollen gemeinsam 10 Milliarden Dollar in eine Chip-Eigenentwicklung investieren. Diese Prozessoren würden kundenspezifisch und kostengünstiger als Nvidia-Chips sein. Altman wird zitiert: «If you do your own chips, you control your destiny.» Broadcoms Aktie stieg nach diesem Deal um 9 Prozent.
Auch mit Core-Weave ging Open-AI Vereinbarungen ein. Core-Weave, ein Anbieter von Rechenzentrumstechnologie, wird seinerseits von Nvidia unterstützt. Die Firma stellt Open-AI Rechenkapazität im Umfang von 22,4 Milliarden Dollar zur Verfügung und verpflichtet sich, die nötigen Chips bei Nvidia zu beziehen. Im Rahmen dieses Vertrags wird Open-AI auch Anteilseigner von Core-Weave und mit Aktien im Wert von 350 Millionen Investor in Core-Weave.
Ein Rechenzentrum des Projekts Stargate steht bereits
Älteren Datums ist die Partnerschaft zwischen Open-AI (Nutzer und operative Verantwortung), Oracle (Bau- und Cloudpartner) und der japanischen Softbank (Investor) zum Aufbau von Stargate. Trump hatte diese KI-Infrastruktur im Umfang von 500 Milliarden Dollar zu Beginn seiner Amtszeit angekündigt. Wie die US-Nachrichtenwebsite Axios am 23. September mitteilte, seien Planungen für 400 Milliarden bereits im Gange. Mit Stargate will Open-AI selber Anbieter von Rechenleistung werden. Das erste Stargate-Rechenzentrum in Abilene, Texas, ist bereits im Bau.
Wie aus der Homepage von Open-AI von Ende September 2025 hervorgeht, sind bereits fünf neue Standorte im Rahmen von Stargate geplant. In diesem Zusammenhang vereinbarte Open-AI mit Oracle, in den nächsten fünf Jahren für 300 Milliarden Rechenleistung zu kaufen. Als Folge davon legte Oracles Aktienkurs an einem einzigen Tag um 40 Prozent zu und katapultierte den Oracle-CEO Larry Ellison mit seiner Firma in die oberste Big-Tech-Liga.
Cloud-Dienste von drei Rivalen: Microsoft, Amazon und Google
Gemäss neuer Vereinbarung wird Open-AI für 250 Milliarden Dollar Cloud-Dienste bei Microsoft beziehen. Open-AI kauft bei Microsofts grösstem Cloud-Rivalen, bei Amazon-Web-Services (AWS), in den nächsten sieben Jahren für 38 Milliarden Cloud-Rechenleistungen. Diese Partnerschaft ist insofern interessant, als Amazon seit langem in Open-AIs Konkurrenzfirma Anthropic investiert, für die Amazon, wie CNBC am 29. Oktober 2025 darlegte, das Rechenzentrum Rainier – eine Antwort auf Stargate – für 11 Milliarden gebaut hat.
Bereits im Sommer 2025 vereinbarte Open-AI mit Alphabet, die Google-Cloud zu nutzen. Für die Finanzdaten- und Nachrichtenplattform Investing.com ist dies erstaunlich, konkurrenziert Chat-GPT doch massiv die Google-Suche und stehen Open-AI und Googles Deep-Mind in einem Konkurrenzverhältnis. Zudem kooperiert Google mit Open-AI’s Konkurrenzunternehmen Anthropic.
Open-AI mit Verpflichtungen von 1,4 Billionen Dollar…
Der CEO von Open-AI, Sam Altman, erklärte, er habe nun vertragliche Verpflichtungen in der Höhe von 1,4 Billionen Dollar, um in den nächsten Jahren Rechenzentren in der Grössenordnung von rund 30 Gigawatt aufzubauen (entspricht der Leistung von 30 AKWs der Grösse von Gösgen). Aber eigentlich möchte er noch mehr – quasi jede Woche ein zusätzliches Gigawatt, falls er die nötigen Ressourcen zustande brächte.
Mit den Tech-Firmen Meta, Apple und mit Elon Musk ging Open-AI offensichtlich keine Vereinbarungen ein. Meta benötigt selbst Fremdkapital zum Bau eines Rechenzentrums in Louisiana. Wie Reuters am 21. Oktober 2025 mitteilte, schloss die Firma einen 27-Milliarden-Vertrag mit Blue Owl Capital ab, einem US-Investmentmanagementunternehmen.
Noch stellt Open-AI keine Hardware her, aber steht in Kontakt mit Jony Ive, dem früheren Apple-Chefdesigner, und kaufte dessen Designfirma für 6,4 Milliarden Dollar. Wie «The Guardian» vom 21. Mai 2025 schrieb, schnallt sich Open-AI das nötige Wissen für Hardware-Produkte an und beschäftigt mit Blick auf die Entwicklung von Artificial General Intelligence (AGI) auch Robotikteams.
Vereinbarungen mit Elon Musk fehlen. Gemäss «The Guardian» vom 25. September muss sich das kalifornische Bundesgericht mit der langjährigen Fehde der beiden befassen.
… und wie Open-AI Geld verdienen will
Sollte Open-AI demnächst keine Gewinne erzielen, knallt es. Die in Verträgen verpflichteten Tech-Giganten würden mit in den Strudel gerissen, falls Open-AI in absehbarer Zeit nicht floriert. Allerdings sieht Open-AI seine künftigen Gewinne in Produkten, die zum Teil jene seiner Investoren konkurrenzieren. Diese sind im Dilemma, dass sie an Gewinnen von Open-AI interessiert sein müssen, selbst wenn diese auf Kosten des Absatzes ihrer eigenen Produkte erwirtschaftet werden.
Gemäss Axios vom 22. Oktober 2025 entwickelt sich Open-AI schrittweise zu einem Tech-Giganten und konkurrenziert auch Partner. Wie erwähnt, will Open-AI mit Broadcom eigene Chips herstellen und mit Stargate Anbieter von Rechenleistung werden. In Konkurrenz zu Googles Chrome und Microsofts Edge lancierte Open-AI mit Atlas einen eigenen Webbrowser. Wie The Times of India am 7. Oktober 2025 festhielt, will sich Open-AI als Social-Media-Plattform positionieren und eine eigene Version des App-Stores in Chat-GPT integrieren, was Apple und Google missfallen dürfte. Mit der App Sora zum Erstellen und Teilen von KI-generierten Videos fordert Open-AI gemäss dem US-Online-Nachrichtenportal Tech-Crunch vom 30. September 2025 Tiktok und Meta heraus.
Auch beim automatisierten und personalisierten Einkaufen (Agentic Commerce) will Open-AI eine Rolle spielen und hat mit Walmart, dem weltgrössten Einzelhändler, einen Vertrag abgeschlossen. Künftig soll ein KI-Agent auf einen Prompt im Chatbot Produkte und Dienstleistungen mit den gewünschten Eigenschaften suchen, vergleichen und auch den Kauf abwickeln. Open-AI konkurrenziert damit Giganten wie Google und Amazon mit ähnlichen Innovationen.
Ein Börsenbeben ist möglich
In den USA wachsen die Befürchtungen, das fragile und verschachtelte KI-Finanzierungssystem könnte zu einem Börsencrash führen.
Was dagegen spricht:
- Die in den Verträgen verpflichteten Tech-Giganten könnten überleben, falls sie wie bisher nur ihre Gewinne investieren und nicht auf Pump – anders als bei der Dotcom-Blase vom März 2000.
- Zudem wäre zu berücksichtigen, dass grösstenteils in Rechenzentren investiert wird. Diese würden selbst nach einem Crash nicht ihren ganzen Wert verlieren.
Was dafür spricht:
- Nötige Milliardengewinne könnten nicht rasch genug realisiert werden. Eine zeitnahe Realisierung ist nötig, weil die Prozessoren, die einen Grossteil der Kosten für Rechenzentren ausmachen, schnell veralten. Wie schnell KI-Rechenzentren abgeschrieben werden sollten, wird auch wissenschaftlich diskutiert.
- Technologische Innovationen könnten die Investitionen unrentabel machen.
Auf diesen letzten Punkt gehen wir im Folgenden ein.
Menetekel für einen Börsencrash – wegen disruptiver technologischer Innovationen
Aufsehen erregte der südkoreanische Technologiekonzern Samsung mit einem KI-Modell, das nur ein Zehntausendstel so viel Rechenleistung benötige und mit sieben Millionen Parametern in Teilbereichen Leistungen wie grosse Sprachmodelle mit ihren sieben und mehr Milliarden Parametern erbringe. In der internationalen digitalen Plattform The Decoder vom 9. Oktober 2025 wird die zugrundeliegende innovative Architektur beschrieben. Diese sei für klar definierte Probleme sehr effizient, ersetze jedoch nicht die grossen Sprachmodelle. Entwickelt wurde das KI-Modell im Samsung-Lab im kanadischen Montreal. Die leitende Forscherin Alexia Jolicoeur-Martineau stellte es als Open-Source-Modell unter dem Titel «Less is More: Recursive Reasoning with Tiny Networks» auf Arxiv zur Verfügung.
Auch wenn das KI-Modell kaum für die Entwicklung einer Artificial General Intelligence (AGI) tauge, dürfte es für zahlreiche KI-Anwendungen eine energieeffiziente Alternative bieten. Die «Frankfurter Rundschau» zitierte Professor Damian Borth, der an der Universität St. Gallen seit Jahren zu kleineren KI-Modellen forscht, mit der Aussage, dass die KI-Entwicklung durch sogenannte Light Weight Models vorangetrieben werde. Denn die meisten Forschenden hätten keinen Zugang zu Supercomputern und grossen Rechenleistungen. Das Samsung-Modell konnte auf Teilen seiner Grundlagenforschung aufbauen.
Die «Frankfurter Rundschau» schrieb am 14. Oktober 2025, diese Innovation könnte die Milliardeninvestitionen der Giganten in Frage stellen.
China verblüfft mit neuer KI-Architektur
Der «Sputnik-Schock» mit Deep-Seek und seiner viel effizienteren Architektur ist noch nicht vergessen (siehe Infosperber vom 28.1.2025). Nun wartet China mit erneuter Innovation auf und verblüfft mit einem vom Gehirn inspirierten KI-System, mit Spiking-Brain 1.0. Die Forschenden mehrerer chinesischer Universitäten beschrieben es im September 2025 in einem umfassenden Papier auf Arxiv.
Das menschliche Gehirn arbeitet mit nur rund 20 Watt, weil jeweils nur bestimmte Neuronen aktiviert werden. Das neue chinesische Modell Spiking-Brain 1.0 funktioniert nach dem gleichen Prinzip. Es kommt ohne Nvidia-Prozessoren aus – die Exportbeschränkungen der USA befeuerten wiederum die Innovation. Weil nicht das ganze neuronale Netzwerk aktiviert wird, wie bei bisheriger KI-Architektur üblich, ist das Modell hundertmal schneller und arbeitet mit rund 70 Prozent weniger Energie. Es benötige zudem nur zwei Prozent der üblichen Datenmenge.
Gemäss Bericht im China Global Television Network (CGTN) steht Spiking-Brain 1.0 in zwei Versionen zu Verfügung. Die kleinere mit 7 Milliarden Parametern ist Open Source, die grössere mit 76 Milliarden Parametern steht für Tests Forschenden zur Verfügung. Sollte das Modell die Erwartungen erfüllen, könnte es zum Standard werden und – auf Mobile und Laptops eingesetzt – auch den Bedarf an Cloud-Infrastruktur reduzieren.
Interessanterweise ist Spiking-Brain 1.0 in den US-Medien noch kaum ein Thema, obwohl es die Tech-Giganten beunruhigen müsste. Wenn sich am Gehirn inspirierte KI-Systeme durchsetzen sollten, weil sie genügend leistungsfähig und erst noch viel energieeffizienter sind, könnte dies die enormen Investitionen in Nvidia-Chips und Cloud-Infrastruktur in Frage stellen. Dies würde ein gewaltiges Beben nicht nur in der US-Wirtschaft auslösen.
Für alle Forschenden weltweit, die nicht über Ressourcen in Milliardenhöhe verfügen, könnten sich mit dieser neuen KI-Architektur enorme Entwicklungschancen eröffnen.
Milliardengewinne und Schlüsselfaktoren im KI-Wettbewerb
Die Gewinne zahlreicher Tech-Giganten sind gegenwärtig enorm und ihre Börsenwerte sind in schwindelerregende Höhen gestiegen. Gemäss Reuters vom 30. Oktober 2025 durchbrach Nvidia trotz Exportbeschränkungen im China-Geschäft Anfang Juli 2025 vorerst die 4-Billionen-Grenze und erzielte ein paar Monate später einen Wert von über 5 Billionen (5’000 Milliarden) Dollar; Microsoft und Apple erreichten je über 4 Billionen. Wie SRF am 29. Oktober festhielt, sind mittlerweile fünf Tech-Giganten wertvoller als alle an der Schweizer Börse kotierten Firmen zusammen (etwas über 2 Billionen Dollar).
Die US-Tech-Unternehmen zeigen sich überzeugt, dass der Ausbau der KI-Infrastruktur und der Bau von Rechenzentren für den KI-Wettbewerb entscheidend seien. Dies gelte insbesondere auch im Rennen mit China. Wie aus dem im Oktober 2025 veröffentlichten Bericht von Microsoft (Seite 9 mit Grafik) hervorgeht, beherbergen die USA und China zusammen 86 Prozent der weltweiten Rechenzentrumskapazität.
Open-AI im Auge des Orkans
Im Zentrum des KI-Booms wirbelt Open-AI. Das Unternehmen startete 2015 als gemeinnützige Organisation. Microsoft war der grösste Investor mit zugesagten rund 13 Milliarden Dollar. Diese Partnerschaft war zum Nutzen beider, schränkte aber den Handlungsspielraum von Open-AI ein. Dank einem neuen Vertrag mit Microsoft Ende September 2025 wurde diese Partnerschaft gelockert und die bisher gemeinnützige Open-AI konnte sich neu organisieren.
Wie Reuters am 29. Oktober 2025 mitteilte, hat Open-AI künftig die Rechtsform einer Public Benefit Corporation, also einer profitgetriebenen Firma, die auch Ziele des öffentlichen Wohls verfolgt. Die profitgetriebene Firma, die Open-AI-Group, kann zur Kapitalbeschaffung ihre Aktien künftig an einer Börse kotieren. Für gemeinnützige Aufgaben wurde eine Stiftung mit dem Namen Open-AI-Foundation gegründet. Sie erhält mit 130 Milliarden Dollar einen Anteil von 26 Prozent an der Public Benefit Corporation, deren Börsenwert auf 500 Milliarden veranschlagt wird.
Microsoft erhält einen Anteil von 27 Prozent, entsprechend dem Wert von 135 Milliarden. Das sind zehn Mal so viel wie die bisherige Investition von Microsoft. Zudem hat Microsoft bis 2032 weiterhin prioritären Zugang zu den Modellen von Open-AI, verzichtet aber auf das bisherige Recht, als exklusiver Cloud-Partner zu wirken. Immerhin verpflichtet sich Open-AI, noch für weitere 250 Milliarden Cloud-Dienste bei Microsoft zu beziehen.
Milliardenverluste bei Open-AI
Die britische Technologie-Nachrichten-Website The Register analysierte Ende Oktober die Aussagen zu den Investments im Quartalsbericht (Seite 33) von Microsoft. Demnach hat Microsoft von den Open-AI zugesagten 13 Milliarden bereits 11,6 Milliarden bezahlt. Microsoft verbucht 3,1 Milliarden als seinen 27-Prozent-Anteil am Verlust von Open-AI. Demzufolge erlitt Open-AI im letzten Quartal einen Verlust von 11,6 Milliarden Dollar. Es ist nicht ungewöhnlich, dass Start-ups erst rote Zahlen schreiben, bevor sie Gewinne einfahren. Aber dieser Betrag wirft Fragen auf.
Open-AI scheint diese hohe Verschuldung nicht zu erschrecken. In einem Youtube-Video (bei 14:35) vom April 2024 sagte Sam Altman, es sei ihm egal, ob sein Unternehmen 500 Millionen oder 5 Milliarden oder 50 Milliarden pro Jahr verbrenne, wenn es nur auf Kurs in Richtung einer Artificial General Intelligence (AGI) sei. Trotz dieser Finanzlage ist es bisher Sam Altman gelungen, die nötigen Gelder für seine Vorhaben zu akquirieren.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.









Ihre Meinung
Lade Eingabefeld...