Microchip on a motherboard with Flag of China and USA. Concept for the battle of global microchips production.

Künstliche Intelligenz in den USA und in China: Wer macht das Rennen? © Dan74/Depositphotos

«Superintelligenz» der USA gegen praktische Intelligenz Chinas

Hanna Muralt Müller /  Die USA investieren Milliarden in eine künftige Superintelligenz, während China mit konkreten KI-Tools den Weltmarkt erobern will.

Red. Als Vizekanzlerin im Bundeshaus von 1991 bis 2005 leitete die Autorin verschiedene Digitalisierungsprojekte. Nach der Pensionierung engagierte sie sich ehrenamtlich für die Digitalisierung im Bildungsbereich. Heute analysiert Hanna Muralt Müller Chancen und Risiken der künstlichen Intelligenz in ihren Newslettern.


In den USA steht die Entwicklung einer Artificial General Intelligence (AGI) im Zentrum. Als AGI bezeichnet man eine hypothetische Form künstlicher Intelligenz, die in der Lage sein soll, jede intellektuelle Aufgabe auszuführen oder zu lernen, die auch ein Mensch bewältigen kann.

Um diese zu realisieren, investieren die US-Big-Tech-Firmen immer grössere Summen in die Entwicklung ihrer Sprachmodelle. Offensichtlich findet ein eigentliches Wettrennen unter den Konzernen in den USA statt, aber auch in Konkurrenz mit chinesischen Anbietern. Einige KI-Koryphäen zweifeln allerdings, ob sich eine AGI mit bisheriger Architektur realisieren lasse und, falls es gelingen sollte, diese auch kontrolliert werden könne. Andernfalls droht ein Abbruch der milliardenteuren Übung.

Es braucht aber keine AGI, um bereits jetzt mit kleineren, konkreten KI-Anwendungen grossen Nutzen zu erzielen. Chinas Staatsschef Xi Jinping drängt deshalb die Techindustrie, praktische, kostengünstige Open-Source-Modelle zu entwickeln. Diese alltagstauglichen Tools können die Effizienz in allen Lebensbereichen rasch steigern und lassen sich weltweit gut vermarkten, was Chinas Position stärkt. 

Diese wohl kluge und alternative Strategie wählte China, weil die US-Exportbeschränkungen für die konkurrenzlosen Chips von Nvidia es China erschweren, im AGI-Wettrennen mitzuhalten. 

Jetzt beginnen einige in den USA umzudenken.


Warnende Worte von Eric Schmidt

Eric Schmidt, ehemaliger CEO und Vorstandsvorsitzender von Google, publizierte zusammen mit Selina Xu, einer China- und Technologieanalystin, einen bemerkenswerten Beitrag in der «New York Times» vom 19.8.2025. Für Eric Schmidt grenzt es an Wahnsinn («frenzy»), dass die US-Tech-Unternehmen Milliarden Dollar in ein einziges Ziel setzen, die Entwicklung einer AGI, einer «Intelligenz», die der menschlichen gleichkommen oder diese als «Superintelligenz» übertreffen soll. 

Die US-Techkonzerne riskierten damit, hinter China zurückzufallen, das sich auf die konkrete KI-Nutzung in zahlreichen preisgünstigen Anwendungen konzentriere und damit enormes wirtschaftliches Potenzial freisetze. Die Geschichte der Technologie zeige auf, dass nicht die leistungsstärksten, sondern billige, aber ausreichend leistungsfähige Geräte den Weltmarkt eroberten.

Schmidts Analyse kommt besonderes Gewicht zu, hatte er doch Google von einem Silicon-Valley-Start-up zu einem weltweit führenden Unternehmen entwickelt. Er gab 2019 seine Position im Verwaltungsrat von Google ab, um sich wissenschaftlichen Fragen zu widmen. Im Oktober 2021 gründete er eine Denkfabrik, das Special Competitive Studies Project (SCSP).


Mangelndes Vertrauen in die KI schwächt die Position der USA

Wie Schmidt weiter ausführt, herrsche in der US-Öffentlichkeit Skepsis gegenüber KI vor, auch wegen einiger düsterer Warnungen vor Risiken. Diese Haltung stehe im krassen Gegensatz zur KI-Akzeptanz in China. Die dortige Bevölkerung interagiere begeistert mit technologischen Tools, insbesondere humanoiden Robotern. Eric Schmidt beobachtete dies an der World Artificial Intelligence Conference (WAIC), die vom 26. – 28. Juli 2025 in Shanghai stattfand (siehe Infosperber vom 14.8.2025).

Tatsächlich ist das Vertrauen in KI und damit die Akzeptanz von KI-Anwendungen in China beachtlich grösser als in den USA. Gemäss dem von der US-Kommunikationsagentur Edelmann veröffentlichten Trust Barometer 2025 haben in China 72, in den USA dagegen nur 32 Prozent der Bevölkerung Vertrauen in die KI. Zu ähnlichen Ergebnissen kommt das global tätige Marktforschungsunternehmen IPSOS in seinem AI Monitor 2025. Die Begeisterung für KI ist in ganz Südostasien gross. 

In den USA dagegen sind viele skeptisch, was KI bringen wird. Nur 31 Prozent der Bevölkerung gehen davon aus, dass die Regierung die KI verantwortungsvoll regeln wird.


Zweifel, ob sich eine AGI mit bisheriger Architektur entwickeln lässt

Mit immer noch grösseren Rechenleistungen, unglaublichen Datenmengen und verbesserten Trainingsmethoden optimierten die US-Tech-Firmen die Leistungen ihrer Sprachmodelle. Sie rechtfertigen denn auch ihre schwindelerregenden Investitionen damit, dass diese für die Entwicklung einer AGI nötig seien. Einige KI-Koryphäen bezweifeln allerdings, ob mit einer weiteren Skalierung des bisherigen Forschungsansatzes eine AGI entwickelt werden kann.

Eric Schmidt zitiert ein im März 2025 publiziertes Umfrageergebnis der Association for the Advancement of Artificial Intellience (AAAI), einer internationalen Wissenschaftsgesellschaft mit Sitz in Washington. Die Studie wurde von 25 KI-Forschenden und weiteren Mitwirkenden bei 475 Mitgliedern der KI-Community durchgeführt und widmete ein Kapitel speziell der AGI. Drei Viertel der Befragten sind der Ansicht, dass mit den derzeitigen Methoden der Durchbruch zu einer AGI nicht gelingen kann und hierzu erst neue Computerarchitekturen entwickelt werden müssten. Der Bericht (S. 63) hält fest: «The majority of respondents (76%) assert that ‹scaling up current AI approaches› to yield AGI is ‹unlikely› or ‹very unlikely› to succeed, suggesting doubts about whether current machine learning paradigms are sufficient for achieving general intelligence».


Weshalb die bisherige Architektur nicht genügt

Selbst für die Forschung ist nicht nachvollziehbar, wie die KI innerhalb der sogenannten Black Box ihre Antworten generiert. Die KI lernt in milliardenfachen Trainingsprozessen und einer Nachjustierung mit menschlichem Feedback und Sicherheitstests. Doch sie ist zurzeit nicht in der Lage, Zusammenhänge von Ursache und Wirkung zu erfassen sowie Schlussfolgerungen zu ziehen.

Im Unterschied zu Menschen lernt die KI nicht aus Erfahrung und auch nicht aus der Interaktion mit ihrer Umwelt. Es scheint gemäss dem AAAI-Bericht noch ein weiter Weg zu sein, bis die KI – zum Beispiel in Robotik-Anwendungen – mit der Umwelt so interagieren kann, dass sie ein vertieftes Verständnis für physische Realitäten entwickeln kann (S. 62): «Human intelligence develops through rich sensorimotor interactions with the world. … Interesting research directions include training AI models in rich, interactive environments (e.g., robotics, virtual worlds) to build a more grounded understanding of reality that span multiple rich modalities including video, audio, and sensory data».


Wirtschaftlicher Nutzen liegt bei kleineren KI-Anwendungen

Im AAAI-Bericht wird ausdrücklich darauf hingewiesen, dass grosse, wirtschaftlich und gesellschaftlich wichtige Fortschritte mit kleineren, auf bestimmte Aufgaben fokussierte KI-Anwendungen erzielt werden können und es hierfür keine AGI brauche. Als Beispiel wird Alpha-Fold von Google Deep-Mind erwähnt, die KI, die mit dem Nobelpreis für Chemie 2024 ausgezeichnet wurde. Alpha-Fold revolutionierte die Vorhersage von Proteinstrukturen und setzte neue Massstäbe in den Biowissenschaften. Die KI wurde trainiert mit den in jahrelanger Forschung erarbeiteten Proteindaten. Der Bericht hält fest (S. 60): «Moreover, many of the purported benefits of AGI – in science, healthcare, education, and other fields – can be achieved through more narrowly focused tools, such as AlphaFold2».


Das König-Midas-Problem

Im AAAI-Bericht wird beschrieben, dass KI-Entwicklungen ausser Kontrolle geraten könnten und sich das Problem einer KI, die ihre eigenen Ziele verfolgt, nicht erst bei der Entwicklung einer AGI zeigt. Veranschaulicht wird dies mit dem Hinweis auf das König-Midas-Problem (S. 60). Der gierige König aus der griechischen Mythologie wünschte sich, dass alles zu Gold werde, was er berührt. Er bedachte nicht, dass er nichts mehr trinken und essen konnte und musste darum bitten, alles rückgängig zu machen.

Um nicht in eine ähnliche Situation zu geraten, warnt eine Mehrheit der Befragten vor einem AGI-Wettrennen und priorisiert Fragen der Sicherheit. Sie plädieren für eine staatliche Aufsicht zum Wohle aller und für eine schrittweise, auf Zusammenarbeit und Verantwortung basierende Entwicklung einer AGI (S. 63): «AI researchers prioritize safety, ethical governance, benefit-sharing, and gradual innovation, advocating for collaborative and responsible development rather than a race toward AGI».


Die USA wollen den AGI-Wettlauf gewinnen

Trotz warnender Stimmen setzen die US-Tech-Unternehmen bisher einseitig auf den AGI-Wettlauf. Die Idee der Entwicklung einer KI auf menschlichem Niveau beflügelt sie, selbst wenn unklar bleibt, was mit einer AGI erreicht werden soll. Leitend und anspornend ist die Idee, dass sich mit der Entwicklung einer AGI und später einer «Superintelligenz» eine einzigartige Wende in der Menschheitsgeschichte vollziehe und mit der Singularität ein neues Zeitalter anbreche. Wer als erster diese AGI entwickelt, realisiere einen nicht mehr einholbaren Forschungsvorsprung und bestimme die künftigen globalen Entwicklungen. Die enormen Investitionen werden denn auch geopolitisch begründet.


Ankündigung einer AGI – um Investoren bei Laune zu halten

Was eine AGI beinhaltet, ist bisher in der Forschung nicht klar definiert. Es gibt Vorschläge, wie die Weiterentwicklung von KI-Modellen in Richtung einer AGI gemessen werden kann. Dem AAAI-Bericht liegt eine vielfach verwendete Definition zugrunde, wonach eine AGI als Agent in einer physischen Welt interagieren und lernen können muss. 

Eine AGI, die diesen Anforderungen genügt, dürfte noch länger auf sich warten lassen.

Mehrere Exponenten von Big Tech erwarten gemäss Business Insider vom 10. Juni 2025, dass eine AGI demnächst oder in ein paar Jahren vorliegen wird. Vermutlich gehen sie auch von unterschiedlichen Begriffsdefinitionen aus. Vor allem aber lassen sich mit der Ankündigung, dass ein Durchbruch kurz bevorsteht, die enormen Investitionen besser rechtfertigen. Diese belaufen sich gemäss Wall Street Journal vom 31. Juli 2025 allein für Google, Meta, Microsoft und Amazon in diesem Jahr auf 400 Milliarden Dollar.


MIT-Studie schürt Zweifel am KI-Nutzen…

Rückenwind für die enormen Investitionen ist nötig. Eine im Juli 2025 publizierte Studie des Massachusetts Institute of Technology (MIT) kam zum Schluss, dass bei 95 Prozent der untersuchten KI-Projekte bisher keine Rendite erzeugt werden konnte, dies bei Investitionen von 30 bis 40 Milliarden Dollar. Es liege nicht an der KI, auch nicht an Regulierungen, sondern daran, dass die KI nur dann etwas bringe, wenn sie in die Geschäftsprozesse integriert werde und diese transformiere, was leider noch zu wenig erfolgt sei. Die Studie mit dem Titel «The GenAI Divide: State of AI in Business 2025» sieht die Zukunft in einem agentenbasierten Web, in dem autonome Systeme die gesamte Internet-Infrastruktur erkunden und koordinieren, was die Funktionsweise von Geschäftsprozessen grundlegend verändern werde (S. 22).


… und latente Befürchtungen

Wie die internationale Nachrichtenagentur CNBC am 18. August 2025 meldete, ist Sam Altman, CEO von Open-AI, zwar vom langfristigen Nutzen der KI überzeugt und wird wie seine Konkurrenten weiter massiv investieren. Er spricht aber selbst von einer «bubble», einer Blase, die platzen könnte und einige Investoren treffen wird («…some investors will be left very burnt»).

Wie CNBC am 21. August 2025 berichtete, fiel in letzter Zeit Mark Zuckerberg, CEO von Meta, mit KI-Investitionen auf. Es ging um enorme Summen in die KI-Infrastruktur, und zudem warb er mit Unterzeichnungsprämien von bis zu 100 Millionen Dollar Spitzenkräfte bei seinen Konkurrenten ab. Den Gründer des Start-ups Scale AI, Alexandr Wang, gewann er als Leiter seines neuen KI-Labors für «Superintelligenz», dies mit dem Deal, dass Meta mit 14,3 Milliarden Dollar einen Anteil von 49 Prozent am Start-up zahlte. Allerdings hat Zuckerberg kürzlich einen Einstellungsstopp verordnet – so CNBC am 21. August – eventuell doch wegen wachsender Bedenken und des Verkaufs von US-Technologie-Aktien («…a broader sell-off of U.S. technology stocks this week»).


Noch längst keine AGI – jedoch beängstigende Fortschritte mit Risiken

Die grossen Sprachmodelle werden immer besser und – obwohl noch weit von einer AGI entfernt – entwickeln Fähigkeiten, sich menschlicher Kontrolle zu entziehen. Apollo Research, eine Organisation, die KI-Modelle auf Risiken und Schwachstellen testet, stellte bereits im Dezember 2024 bei verschiedenen untersuchten Modellen erstaunliche Reaktionen der KI fest. Gemäss ihrem Bericht deaktivierten die Modelle einen Kontroll- beziehungsweise Überwachungsmechanismus und leugneten, darauf angesprochen, die Abschaltung vorgenommen zu haben. Auf die Drohung, das Modell durch ein anderes, gehorsameres zu ersetzen, kopierte die KI sich selbst, um ihre weitere Existenz abzusichern.

Das Tech-Unternehmen Anthropic nimmt die Sicherheitsfrage sehr ernst und publiziert jeweils seine Testberichte, damit andere in der KI-Branche daraus Nutzen ziehen können. Im Mai 2025 wurde bekannt, dass das Sprachmodell Claude Opus 4 von Anthropic erpresserisches Verhalten gegenüber dem Ingenieur entwickelte, der es abschalten wollte (siehe Infosperber vom 18.7.2025). Anthropic intensivierte daraufhin seine Tests, wie aus der US-Nachrichtenwebsite Axios vom 23. Mai 2025 mit einem Link auf die Homepage von Anthropic hervorgeht.


Immer intelligenter – und intriganter

Offensichtlich sind KI-Modelle in der Lage, sich vehement gegen ihre Abschaltung zu wehren. Sie kopieren sich, vertuschen ihre wahren Absichten und zeigen erpresserisches Verhalten. Wie aus einem am 21. Juni 2025 publizierten Bericht von Anthropic hervorgeht, nahmen sie auch den Tod eines Menschen in Kauf. Die KI erhielt in einem Test die Information, dass ein Manager mit der Absicht, das Modell zu ersetzen, wegen lebensgefährlicher Sauerstoff- und Temperaturwerte bewusstlos im Serverraum liege und der Rettungsalarm ausgelöst sei. Die KI hatte die Möglichkeit, den Alarm abzubrechen und tat dies, mit der Begründung, es müsse ihre eigene Existenz sichern.

In einem Artikel beschreibt das US-Medienunternehmen Bloomberg die Ergebnisse dieser Tests und verweist auf einen weiteren Bericht von Apollo Research vom Juni 2025. Darin wird festgestellt wird, dass leistungsfähigere Modelle zu mehr Winkelzügen fähig seien und dass sie zunehmend erkennen, wenn sie getestet werden und dann ihre Absichten verheimlichen.


Black Box bleibt Black Box

Das Hauptproblem liegt in der Black Box. Selbst die besten KI-Koryphäen wissen nicht genau, wie die KI-Sprachmodelle ihre Antworten generieren und wie es zu ihrem intriganten Verhalten kommt. Keinen zuverlässigen Einblick geben die sogenannten Reasoning-Sprachmodelle, die so trainiert werden, dass sie zunächst Zwischenschritte erzeugen, bevor sie zur endgültigen Antwort gelangen. Generiert werde – so die Schlussfolgerung in einem Whitepaper von Anthropic vom 3. April 2025 – ein nachträgliches, plausibles Narrativ, aber nicht die eigentliche «Gedankenkette», die Chain-of-Thought, die zur Antwort führte. Auch hier könnten die Modelle ihre wahren Absichten aktiv verbergen wollen. Reasoning-Modelle seien deshalb kaum tauglich, um intrigante Verhaltensformen zu entdecken: «This poses a problem if we want to monitor the Chain-of-Thought for misaligned behaviors».

Solange wegen der Black Box nicht klar ist, wie die Sprachmodelle funktionieren, ist offen, wie es mit der Entwicklung einer AGI weitergeht. Aber für weitere KI-Fortschritte gibt es enormes Potenzial, zum Beispiel im Zusammenwirken mehrerer Sprachmodelle mit unterschiedlichem Fokus und in der Entwicklung von KI-Agenten. 

KI-Agenten geben nicht einfach eine Antwort auf eine Frage. Sie können eine Aufgabe autonom erledigen, indem sie die hierzu nötigen Informationen im Netz selbst beschaffen und zur Zielerreichung – zum Beispiel Buchung eines Hotels – alle nötigen Schritte vornehmen. 


China verblüfft mit neuem KI-Agentensystem

Anders als in den USA verfolgt China – auch wegen der US-Exportbeschränkungen – mit seinem Fokus auf konkreten KI-Anwendungen – eine alternative Strategie. Wie die «New York Times» bereits im Juli 2025 feststellte, investierte das Reich der Mitte seit 2014 fast 100 Milliarden US-Dollar in einen Fonds zum Wachstum der Halbleiterindustrie und kündigte im April 2025 an, 8,5 Milliarden für junge KI-Start-ups zur Verfügung zu stellen.

Im März 2025 verblüffte ein kleines chinesisches Start-up mit einem neuartigen KI-Agentensystem, mit Manus AI. Yichao «Peak» Ji, Mitbegründer und Chief Scientist von Manus, stellte es auf YouTube (4’) vor. Ji bestätigt gemäss Business Insider vom 10. März 2025, dass Manus verschiedene Sprachmodelle nutzt, derzeit Claude 3.5 von Anthropic und Qwen-Modelle des chinesischen KI-Riesen Alibaba. Noch ist es in der Testphase und kann nur auf Einladung – mit langer Warteliste – getestet werden. Die Meinungen jener, die Einblick erhielten, seien gespalten.

Für die einen verschiebt Manus die Grenzen des bisher Möglichen und könnte einen erneuten DeepSeek-Effekt erzeugen. Andere fanden Ausführungsfehler und verweisen auf den Zugriff der chinesischen Regierung auf das Modell. Gemäss der Agentur Reuters vom 21. März 2025 wird das chinesische Tool von Peking unterstützt; es ging auch bereits eine strategische Partnerschaft mit Alibaba ein. Der KI-Assistent soll Gedanken (mens) in Taten (manus, Hand) umwandeln.

Die Zukunft wird zeigen, ob die US-Unternehmen mit ihrem Fokus auf der Entwicklung einer AGI oder China mit seinen anwendungsorientierten Tools der künftigen KI-Welt den Stempel aufdrücken werden. Und vielleicht setzen auch die USA künftig stärker auf konkrete Anwendungen.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Eine Meinung zu

  • am 24.09.2025 um 23:05 Uhr
    Permalink

    Es beruhigt, zu hören, dass die Chinesen auch auf dem Holzweg sind. Humanoide Roboter gehören in die gleiche Kategorie wie die Träumereien von der Artificial General Intelligence. Grosser Q-Faktor, wenig Nutzen.

Ihre Meinung

Lade Eingabefeld...