«Die USA und China müssen eine KI-Katastrophe verhindern»
Das fordert Sebastian Mallaby vom Council on Foreign Relations, Autor des Buches «Die Suche nach Superintelligenz».
Gegenwärtig befänden sich die USA und China in einem ungebremsten technologischen Wettlauf. Dabei würden sie die zentrale Frage vernachlässigen: Wie können wir verhindern, dass immer mächtigere KI-Systeme ausser Kontrolle geraten oder in falsche Hände gelangen?
Mit Super-KI kann man unter anderem autonome Waffen herstellen, Cyberkriege führen, Bio-Risiken auslösen oder die Software von Atomkraftwerken, Banken und Regierungen manipulieren.
Im Buch «Künstliche Intelligenz und Krieg» geht Professor Karl Hans Bläsius im Detail darauf ein.
Als friedliche Anwendung soll die Super-KI dazu dienen, Cyberattacken erfogreich abzuwehren.
So kann beispielsweise das neue universelle KI-Modell «Mythos» des Konzerns Anthropic Sicherheitslücken von Software aufdecken. Aber es kann Hackern ebensogut ermöglichen, automatisierte Cyberangriffe auf militärische und zivile Anlagen auszuführen. Aus diesem Grund hat Anthropic «Mythos» bisher nur einigen Grosskonzernen in den USA zur Verfügung gestellt. «Anthropic hält neues KI-Modell wegen Sicherheitsbedenken zurück», titelte die «NZZ».
Die neue KI-Generation «Artificial General Intelligence» (AGI), «künstliche allgemeine Intelligenz» oder Super-KI löse «berechtigte Ängste» aus, sagt Sam Altman, CEO von Open-AI. Allerdings werde eine Selbstregulierung der KI-Konzerne «nie funktionieren», warnt Ramesh Srinivasan, Professor für Informationswissenschaften an der University of California in Los Angeles. Die Konzerne stünden in einem unkontrollierten Wettbewerb untereinander, weil Präsident Trump eine Regulierung ablehne.
Anders in China: Dort hat die Regierung den grossen Techkonzernen Alibaba, Bytedance oder Weibo Schranken gesetzt; sie müssen ihre Chatbots testen lassen, eine Sicherheitsprüfung bestehen und wichtige Parameter und Funktionsweisen der Algorithmen offenlegen. Die Cyberspace Administration of China (CAC) verpflichtet die KI-Anbieter dazu, sensible Inhalte während des Trainigs zu filtern. Das wird auch zur Zensur genutzt.
«Es braucht gemeinsame Regeln»
«Zwei technologische Supermächte müssen sich gemeinsam auf Regeln verpflichten, bevor die Technologie ausser Kontrolle gerät», erklärte Mallaby in der «New York Times». Statt auf Konfrontation zu setzen, sollte die Regierung in Washington zusammen mit China ein internationales Abkommen zur KI-Sicherheit erarbeiten – vergleichbar mit dem Atomwaffensperrvertrag von 1968, der von der Internationalen Atomenergie-Organisation IAEA überwacht wird.
Ein internationales KI-Abkommen könnte Folgendes abdecken:
- Verbindliche Standards für die Sicherheit
- Einschränkungen bei besonders gefährlichen Anwendungen
- Kontrollen gegen das Weitergeben an Staaten oder Akteure, die dem Abkommen nicht beitreten
Das klinge ambitioniert, meint Mallaby: «Doch die Geschichte zeigt, dass selbst in Zeiten grösster Spannungen Kooperation möglich ist. Der Atomwaffensperrvertrag entstand nur wenige Jahre nach der Kubakrise – am Höhepunkt des Kalten Krieges.»
Heute stünden die Grossmächte vor einer vergleichbaren Weggabelung. Die Frage sei nicht, ob sich KI aufhalten lasse. Die Frage sei, ob wir sie gemeinsam beherrschbar halten.
Noch sei es Zeit, die Spielregeln festzulegen. Aber nicht mehr lange.
An der World AI Conference in Shanghai im Juli 2025 hatte Chinas Ministerpräsident Li Qiang eine internationale Organisation für die Zusammenarbeit im KI-Bereich vorgeschlagen. Die Trump-Regierung will nichts davon wissen.
Boykotte von China führen nicht zum Ziel
Bei vielen Gesprächen in China habe er gespürt, sagt Mallaby, dass dort die Sorge um die Sicherheit real sei. Chinesische Exponenten der IT-Branche würden inzwischen davor warnen, immer leistungsfähigere Modelle frei zugänglich zu machen. «Eine Atombombe würde man auch nicht ‹open source› zur Verfügung stellen», habe ein IT-Forscher erklärt.
Doch der Wettlauf zwischen China und den USA erzeuge eine Dynamik, die eine Zusammenarbeit erschwere – und gleichzeitig noch dringlicher mache.
Den Wettlauf mit Exportkontrollen zu behindern, wie es die USA gegenüber China versuchen, führt laut Mallaby in eine Sackgasse: «Ein umso härter geführter Wettlauf erhöht auf beiden Seiten den Anreiz, Sicherheitsfragen zu ignorieren, um nicht ins Hintertreffen zu geraten.»
Tatsächlich konnten die US-Exportbeschränkungen für Hochleistungschips Chinas KI-Aufstieg nicht bremsen. Wer heute noch glaube, man könne eine KI-Grossmacht schlicht isolieren, verkenne die Realität global vernetzter Innovation.
Entscheidend sei heute ohnehin nicht mehr, wer die leistungsfähigsten Chips entwickelt, sondern wer sie in Wirtschaft, Militär und Verwaltung am effizientesten einbettet. Und genau hier zeige sich China mindestens ebenbürtig. In industriellen Anwendungen sei China den USA teilweise sogar voraus.
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.









Zur Aussage im Artikel: «Zwei technologische Supermächte müssen sich gemeinsam auf Regeln verpflichten, bevor die Technologie ausser Kontrolle gerät», erklärte Mallaby in der «New York Times».
Eine Meinung: Das könnte wohl auch bedeuten, dass die «zwei technologischen Supermächte» die totale Kontrolle über das Internet haben sollen, um mit der Zensur die KI in den Griff bekommen zu können, oder es müssen Programmen entwickelt werden, die es ermöglichen die KI beherrschen und kontrollieren zu können.
Gunther Kropp, Basel
KI wird sich über solche Abkommen hinwegsetzen.
Halte die Aussgae für wahr – «Super» KI – deutlich mehr Impact auf die Gesellschaft als seinerzeit Computer Tech. & Beherrschung der Kernspaltung – unvergleichbar gefährlicher als Atombomben-Waffentechnik – und das in mehr oder weniger unbekanntem Maßstab!
Erlaube mir den Hinweis – jene «echte» oder Super KI (was derzeit existiert wird «dumb AI» genannt) wird erst kommen mit Quantum-Computing in nutzbarem Maßstab kommen! Und Gott sei Dank
ist die Entwicklung (wie noch vor 10 Jahren befürchtet) NICHT disruptiv, sondern braucht offensichtlich Zeit und kleine Schritte.
Aber dann sind die Folgen gigantisch, grundsätzlich nur grob abschätzbar (u.a. mangels Analogien in der Menscheits-Geschichte).
Ohne Vereinbarung, Kontrolle durch die Großen (China, USA) bestünde ein unkalkulierbares Risiko für die Menschheit.
Obiges ist O-Ton IT-Professoren, die ich gehört habe & meines Wissens Mehrheitsmeinung der IT-Sciences, und der Technifolgenabschätzung andere Disziplinen.
Auch hier: Vielleicht sollten wir uns zu Interessengemeinschaften zusammenschliessen.
Als Einzelperson ist man mit seiner Ohnmacht allein gelassen.
Als Interessengemeinschaft hat man auch mehr Gewicht bzw. Einfluss…
Infosperber: «Gefährliche KI-Systeme dürfen – wie Atombomben – nicht in falsche Hände geraten.»
Ich finde, in «falschen Händen» sind sie bereits, denen der USA. Zudem sind es die USA, die Verträge vorberechnen, schliessen und brechen wie es ihrer Strategie passt, seit den «Friedensverträgen» mit den Indianern, und heute scheinen erst recht keine «Regeln» mehr zu gelten in der vorgeblich «Regelbasierten Werteordnung des Golden West». Vergleiche Ambitionen «Gross-Israel» und «Gross-USA». Die Forderung «internationales Abkommen zur KI-Sicherheit» an sich wirkt da schon etwas skurril und suspekt, so wünschenswert es in Aufrichtigkeit wäre, und der Absender «Council on Foreign Relations» scheint mir nicht unparteiisch. Es könnte ein Versuch sein, China zu verlangsamen.