Employee using AI technology to design machine learning algorithms

Angestellte prüfen Algorithmen, damit Maschinen grosse Datenmengen auswerten können. © Depositphotos

Sprachmodelle als Spielball geopolitischer Machtkämpfe

Hanna Muralt Müller /  Die aggressive KI-Strategie der Trump-Regierung zielt auf Dominanz. Ihre Vorgaben für Sprachmodelle sind widersprüchlich.

Red. Als Vizekanzlerin im Bundeshaus von 1991 bis 2005 leitete die Autorin verschiedene Digitalisierungsprojekte. Nach der Pensionierung engagierte sie sich ehrenamtlich für die Digitalisierung im Bildungsbereich. Heute analysiert Hanna Muralt Müller Chancen und Risiken der künstlichen Intelligenz in ihren Newslettern.


Am 23. Juli 2025 veröffentlichte die Trump-Regierung ihren AI Action Plan mit drei Ausführungsverordnungen, sogenannten Executive Orders. Das KI-Wettrennen – «winning the race» – will Trumps Regierung mit Massnahmen in drei Bereichen gewinnen. Stets geht es um beschleunigte Innovation und um den Abbau regulatorischer Hürden mit dem Ziel einer weltweit führenden Rolle in der KI-Entwicklung. Bereits hat China mit einer Kontraststrategie reagiert.

Sprachmodelle: Deregulierung, aber mit «Werten der USA»

Im ersten Teil des AI Action Plan und der dazugehörigen Executive Order Preventing Woke AI in the Federal Government stehen die Sprachmodelle im Fokus. Diese werden zur Meinungsäusserungsfreiheit und zu Werten der USA verpflichtet. Regulierungen, wie sie die EU für Plattformen zur Verhinderung von Falschmeldungen vorgibt, gelten als Zensur.

Tatsächlich annullierte Präsident Trump gleich zu Beginn seiner Amtszeit die bescheidene KI-Regulierung, die sein Vorgänger Biden ebenfalls mit einer Executive Order erlassen hatte. Vizepräsident Vance attackierte die EU wegen ihrer Regulierungen am Summit in Paris im Februar 2025 und stellte die europäischen Demokratien auf die Ebene autoritärer Regime mit deren Zensur. Denn die EU würde mit ihren Faktenchecks die Meinungsäusserungsfreiheit einschränken (siehe Infosperber vom 19.3.2025).

Gemäss den neuen Weisungen dürfen die Plattformen keine Aussagen zu Diversität, Gleichberechtigung, Inklusion und Klimawandel enthalten. Diese gelten als «woke». Die Meinungsäusserungsfreiheit, wie sie von der Trump-Regierung gefordert wird, verlangt also nach Einschränkungen gerade dieser Meinungsäusserungsfreiheit. Dass darin ein irrlichternder Widerspruch liegt, stört die Trump-Regierung offensichtlich nicht.

Selbstzensur ist äussert wirksam

Für Tech-Konzerne, die sich nicht an diese neuen Vorgaben halten, stehen beträchtliche Bundesmittel auf dem Spiel. Im Originalton: «… only contracts with frontier large language model (LLM) developers who ensure that their systems are objective and free from top-down ideological bias». Die Vorgaben sind vage formuliert und gerade deshalb eignen sie sich als wirksames Disziplinierungsinstrument der Trump-Regierung. Allerdings soll das National Institute of Standards and Technology (NIST) das Framework präzisieren, dies mit dem Ziel: «…to eliminate references to misinformation, Diversity, Equity, and Inclusion, and climate change». Selbstzensur ist in unklarer Situation besonders wirksam.

Schwer umzusetzender Auftrag

Bei einem gezielten Justieren können erhebliche Probleme entstehen. Dies zeigte sich Mitte Juli 2025 beim Sprachmodell Grok von Musks Firma xAI. Grok ärgerte viele seiner Nutzerinnen und Nutzer, weil die Antworten zu «woke» ausfielen, insbesondere beim Thema Klimawandel. 

Nach einer raschen und unsorgfältig vorgenommenen «Nachbesserung» generierte Grok rassistische Tiraden mit Hymnen auf Hitler. Kurz darauf, am 12. Juli 2025, entschuldigte sich Musks Firma xAI für die Hassreden auf Grok, nachzulesen auf X, der Plattform, in die Grok integriert ist. Ursache sei ein Update gewesen, das Grok für Beiträge von X-Usern mit extremistischen Ansichten anfällig gemacht habe: «…which deprecated code made @grok susceptible to existing X user posts; including when such posts contained extremist views». xAI habe den Fehler behoben (siehe Infosperber vom 18.7.2025).

Tech-Konzerne vor Herausforderungen

Noch ist offen, ob und allenfalls wie die Tech-Konzerne ihre Sprachmodelle gemäss den Vorgaben der Trump-Regierung umgestalten. Training und Nachbesserungen sind komplex. Die Sprachmodelle werden in milliardenfachen Prozessen trainiert. Mit menschlichem Feedback lernen die Modelle im sogenannten Reinforcement Learning, was gute Antworten sind. Anschliessend wird das System mit Sicherheitstests geprüft und nach Bedarf nachgebessert. 

Auch für die Forschung ist nicht nachvollziehbar, wie die KI innerhalb der sogenannten Black Box ihre Antworten generiert. Die KI konfiguriert diese nach dem Wahrscheinlichkeitsprinzip aus der Vielzahl von Möglichkeiten, die sich aus den Daten und dem Trainingsprozess ergeben. Es ist deshalb nie ganz auszuschliessen, dass die KI unerwartete und unerwünschte Antworten generiert.

Für die Tech-Konzerne könnte die Umgestaltung der Sprachmodelle nach den Vorgaben der Trump-Regierung viel Aufwand und Kosten verursachen – und diese würden eventuell trotzdem «woke» Antworten generieren. Gleichzeitig könnten die Tech-Konzerne die Glaubwürdigkeit ihrer Sprachmodelle aufs Spiel setzen, zum Beispiel bei Antworten auf Fragen zum Klimawandel. Gemäss der Presseagentur Associated Press (AP) vom 25. Juli 2025 ist bisher nur die Reaktion von Sam Altman, CEO von OpenAI, bekannt, der vorerst auf präzisere Vorgaben des National Institute of Standards and Technology (NIST) warten will.

Was auf die Sprachmodelle zukommt

Mit einer Pressemitteilung machte der Generalstaatsanwalt von Missouri, Andrew Balley, publik, dass er sich mit Schreiben vom 9. Juli 2025 an die CEOs von Google, Open-AI, Meta und Microsoft gewandt habe, weil die Antworten ihrer Sprachmodelle politisch beeinflusst seien. Diese Sprachmodelle ordneten Trump – auf eine entsprechende Frage – als schlechtesten unter den letzten fünf US-Präsidenten ein, insbesondere mit Bezug auf Antisemitismus. Balley verlangte nun sämtliche Unterlagen zum Trainingsprozess und Erklärungen, warum die KI solche faktenwidrige Informationen gebe.

Balley sieht sich als Verteidiger der Meinungsäusserungsfreiheit, die mit sogenannten «Faktenchecks» unterdrückt werde. Er werde es nicht zulassen, dass KI zu einem Instrument der Manipulation werde: «We will not allow AI to become just another tool for manipulation». Man darf gespannt sein, wie die Big Tech auf diesen Zensurversuch reagieren – zur angeblichen Verteidigung der Meinungsäusserungsfreiheit. Denn es ist wegen der Blackbox faktisch nicht möglich, eine genaue Erklärung zu liefern, wie die KI ihre Antworten zu Trump generierte.

Der Vorwurf konservativer Kräfte, die Plattformen seien manipuliert, ist nicht neu. Gemäss dem US-Technikportal The Verge vom 14. März 2025 wollten Republikaner im Repräsentantenhaus von mehreren vorgeladenen Big-Tech-Unternehmen wissen, ob sie unter der Biden-Regierung Meinungen aus dem rechten Spektrum unterdrückten. Eine aktuelle Studie, im Februar 2025 im Wissenschaftsmagazin «Nature» publiziert, kam zum Schluss, dass unterschiedliche Chat-GPT-Versionen auf dem politischen Spektrum nach rechts zu rücken scheinen, vermutlich weil die Sprachmodelle von den Feedbacks der Nutzenden mitgesteuert werden.

Ideologisch motivierte Angriffe auf Sprachmodelle

Die Beeinflussungsmöglichkeiten durch Chatbots sind längst erkannt und sie werden auch manipulativ genutzt. Die Beratungsfirma für Nachrichten- und Informationswebsites, NewsGuard, publizierte im März 2025 ihr Prüfungsergebnis zur Infiltration russischer Propaganda in zehn führenden Sprachmodellen. Ein russisches Netzwerk flutet automatisiert über verschiedene Kanäle das Internet mit dem Ziel, die Trainingsdaten und damit die Antworten von Chat-GPT zu beeinflussen, was gemäss dem Bericht von NewsGuard gelingt. Es sind riesige Mengen russischer Propaganda – 3,6 Millionen Artikel im Jahr 2024 –, die in die KI-Systeme einfliessen. Zum selben Ergebnis kam auch die Untersuchung einer gemeinnützigen Organisation, des American Sunlight Project, ASP.

Diese Infiltration wird in den USA nicht gestoppt, da Präsident Trump die Anstrengungen zur Bekämpfung russischer Sabotage, Desinformation und von Cyberangriffen trotz Warnungen der Geheimdienste und Kritik aus dem Parlament stark reduzierte – so die Nachrichtenagentur Reuters am 19. März 2025.

Der Kreml nutzt offensichtlich verstärkt Sprachmodelle oder generell das Internet für seine ideologisch motivierten Ziele. Im September 2025 soll gemäss Association Press (AP) ein neues Gesetz bereits die Suche im Internet nach sogenannt «extremistischen» Inhalten unter Strafe stellen. Dazu gehören, wie in den USA, Bezugnahmen zu verschiedenen Geschlechteridentitäten. Aber zweifellos fallen darunter auch andere, dem Regime nicht genehme Inhalte, zum Beispiel zu Alexey Nawalny. Das Gesetz sei so vage formuliert, dass sich viele aus Angst in Selbstzensur üben werden.

Diese Infiltration in Sprachmodelle könnte in der geopolitisch angespannten Lage auch von anderer Seite kopiert werden. Stets geht es um die Deutungshoheit von Informationen und um einen Kampf der Ideologien. Als Gegenmittel fordert NewsGuard in ihrem Prüfungsergebnis mehr Transparenz bezüglich Daten und Trainingsprozessen und strengere Richtlinien für die Kontrolle und Moderation von Sprachmodellen.

Open Source als geostrategischer Wert entdeckt

Der Schock, den DeepSeek auslöste, hat zu einer Trendwende hin zu Open Source geführt. In Abkehr zur bisherigen Politik will die US-Regierung gemäss AI Action Plan ein weltweit führendes, auf «Werten der USA» basierendes Open-Source-Modell entwickeln und eine Open-Source-förderliche Umgebung schaffen. Der AI Action Plan nimmt damit auf, was der weltweit bekannte US-Risikokapitalgeber Marc Andreessen in der US-Nachrichtensite Business Insider vom 19. Mai 2025 verlangte. Weil Open Source zum globalen Standard werden könnte, müssten die USA ein führendes Open-Source-Modell entwickeln, damit nicht die ganze Welt – einschliesslich USA – künftig auf chinesischer Software laufe (siehe Infosperber vom 4.7.2025).

Der AI Action Plan enthält zudem konkrete Aufträge an Bundesbehörden, um die nötige grosse Rechenleistung für die Open-Source-Community sicherzustellen. Zudem sollen Forschende, Start-ups wie etablierte Unternehmen in speziellen Einrichtungen und KI-Kompetenzzentren ihre KI-Tools testen und ihre Daten und Ergebnisse rasch austauschen. Mit einer dynamischen «try-first»-Kultur soll die KI-Nutzung in der gesamten US-Wirtschaft vorangetrieben werden.

Zu diesem Schwerpunktbereich wurde bisher keine spezielle Executive Order erlassen. Der Aufbau eines KI-Ökosystems lässt sich nicht einfach verordnen. Es setzt offene Kooperation und damit ein Denken voraus, das in den USA vielleicht erst noch entwickelt werden müsste.

Deregulierung auch beim Umweltschutz

Deregulierung ist auch ein Hauptthema des zweiten Bereichs im AI Action Plan und der dazugehörigen Executive Order Accelerating Federal Permitting of Data Center Infrastructure. Konkret geht es um die Beschleunigung von Umweltgenehmigungen durch Straffung oder Reduzierung von Vorschriften beim Bau von Fabriken zur Herstellung von Chips sowie von Rechenzentren und neuen Energieanlagen. Damit Bundesmittel nicht verschwendet werden, sollen diese Gelder den Gliedstaaten mit schärferen Regulierungen gekürzt werden (…«states with burdensome AI regulations that waste these funds…»).

Allerdings nimmt der AI Action Plan auch Risiken, vor allem Cyberrisiken, ins Visier. Insbesondere für die nationale Sicherheit sei es unerlässlich, mit mehr Forschung Einblick in die sogenannte Black-Box zu erzielen. Die Defense Advanced Research Projects Agency (DARPA) soll in Zusammenarbeit mit anderen Bundesbehörden fundamentale Durchbrüche erzielen («fundamental advancements in AI interpretability, control, and robustness …»).

Aussenpolitische Strategie der USA

Der dritte Bereich im AI Action Plan befasst sich mit aussenpolitischen Zielsetzungen. Die USA wollen ihre KI – Hardware, Modelle, Software, Anwendungen und Standards – in alle Länder exportieren, die bereit sind, der amerikanischen KI-Allianz beizutreten. Mit dieser Offerte soll verhindert werden, dass sich diese Länder den Angeboten strategischer Rivalen – den chinesischen Open-Source-Tools – zuwenden und von ihnen abhängig werden.

Es geht vor allem darum, die Unterstützung von Verbündeten für den KI-Wettlauf zu erhalten, weniger um eine Zusammenarbeit mit Staaten und schon gar nicht mit internationalen Organisationen, die von der Trump-Regierung scharf kritisiert werden: «A large number of international bodies, including the United Nations, the OECD, G7, G20 … and others have proposed AI governance frameworks and AI development strategies. The United States supports like minded nations working together to encourage the development of AI in line with our shared values. But too many of these efforts have advocated for burdensome regulations, vague ‹codes of conduct› that promote cultural agendas that do not align with American values…».

Eine weitere Folge des DeepSeek-Schocks

Gemäss AI Action Plan und der dritten Executive Order Promoting the Export of the American AI Technology Stack müssen die KI-Exportkontrollen im aktuellen geostrategischen Wettbewerb verschärft werden. Angesprochen, wenn auch nicht namentlich erwähnt, sind die Exportkontrollen für die weltweit alternativlosen Chips der Firma Nvidia.

Statt zu einer Verschärfung der Exportkontrollen kam es unlängst zu einem unerwarteten Strategiewechsel. Gemäss The Washington Post vom 15. Juli 2025 konnte Jensen Huang, CEO von Nvidia, Trump überzeugen, dass sich China bei einem zu strikten Exportverbot gezwungen sähe, eigene konkurrenzfähige Chips zu entwickeln, was die weltweit führende Rolle der USA gefährden könnte. Tatsächlich wurde mit DeepSeek sichtbar, dass China auf Exportrestriktionen mit beschleunigter Innovationskraft reagierte.

Im Juli 2025 lockerte Trump das Exportverbot; Nvidia kann China wieder mit den H20 Chips hoch potente, wenn auch nicht die besten Produkte liefern. Unklar ist, ob dieses Entgegenkommen im Rahmen der Zollverhandlungen zu sehen ist, eventuell als Gegengeschäft zu Chinas Seltenen Erden, die die USA dringend brauchen. In jedem Fall ging es auch darum, dass Nvidias Chips zumindest vorerst konkurrenzlos Standard bleiben. Zudem bringt der Export Geld, auch für Weiterentwicklungen. Nvidia macht dreizehn Prozent seines Umsatzes in China.

Chinesisches Kontrastprogramm

Mit dem AI Action Plan der USA kontrastiert die chinesische Initiative an der World Artificial Intelligence Conference (WAIC) vom 26. – 28. Juli 2025 in Shanghai. Der chinesische Ministerpräsident Li Qiang rief in der Eröffnungsrede zur weltweiten KI-Zusammenarbeit auf und präsentierte einen Aktionsplan für eine globale KI-Governance. China sei bereit, mit allen Regierungen, internationalen Organisationen (im Unterschied zu den USA) und Forschungsstellen zusammenzuarbeiten, insbesondere auch mit dem globalen Süden, und es werde über Open Source seine Fortschritte teilen. Es gehe um eine gerechte, integrative und offene KI-Entwicklung und es sei zu verhindern, dass KI zum «exklusiven Spiel» einiger weniger Länder und Unternehmen werde. Die rasante KI-Entwicklung müsse in einem weltweiten Konsens gegen die Sicherheitsrisiken abgewogen und reguliert werden. Bei diesem chinesischen Kontrastprogramm läuten allerdings mehrere Alarmglocken.

Dieses Programm ist Ausdruck einer Strategie, die mit Teilung von Wissen und Kooperationsbereitschaft durchaus ähnlich wie die USA das Ziel verfolgt, weltweit Präsenz zu markieren. Während sich die USA wie ein Elefant – Wappentier der Republikaner – im Porzellanladen aufführen, kommt der chinesische Tiger auf Samtpfoten daher. In Wirklichkeit ist bei der Nutzung chinesischer Sprachmodelle höchste Vorsicht geboten. In China wird jedes Sprachmodell zensuriert, bevor es veröffentlicht werden kann. Zudem ist bei der Nutzung auf weitere Risiken zu achten – zum Beispiel auf einen möglichen Datenabfluss. KI dient in China der totalen Überwachung. Immerhin streitet das Reich der Mitte existenzielle Risiken – bei der Entwicklung von KI oder auch bezüglich Klimawandel – nicht ab.

Die WAIC findet jährlich auf chinesische Einladung statt. Präsent waren über 40 Länder, zahlreiche Forschungsinstitutionen und Tech-Unternehmen. Gemäss Berichten der britischen Tageszeitung The Guardian traten der Nobelpreisträger Geoffrey Hinton und der ehemalige Google-CEO Eric Schmidt als Redner auf. Es fehlten Elon Musk und eine offizielle Vertretung der US-Regierung.

Es gibt wohl keine Einigung betreffend Umgang mit Falschmeldungen auf Plattformen. Was die existenziellen KI-Risiken anbelangt, müsste eine Zusammenarbeit auch zwischen den rivalisierenden Weltmächten USA und China im beidseitigen Interesse sein. Dies war denn auch gemäss einem chinesischen Nachrichtendienst die Botschaft von Geoffrey Hinton.

Chance für das Schweizer Sprachmodell

In diesen sich abzeichnenden ideologisch gefärbten Machtkämpfen sind Sprachmodelle, die sich in ihren Inhalten bestmöglich am Stand der Forschung orientieren, nötiger denn je. Diesem Anspruch wird das Schweizer Sprachmodell, das im Spätsommer veröffentlicht werden soll, vollauf entsprechen (siehe Infosperber vom 18.7.2025).


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.

Mit Twint oder Bank-App auch gleich hier:



_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden

Ihre Meinung

Lade Eingabefeld...