Künstliche Intelligenz Compliance WrightStudio

Streit um Regeln für die «Künstliche Intelligenz» © WrightStudio / Depositphotos

KI-Regulierungen im Fadenkreuz von Trump und Musk

Hanna Muralt Müller /  Geopolitische Spannungen und Konkurrenz unter den Tech-Unternehmungen hindern nötige Regulierungen. Nun wird es noch schwieriger.

Red. Als Vizekanzlerin im Bundeshaus von 1991 bis 2005 leitete die Autorin verschiedene Digitalisierungsprojekte. Nach der Pensionierung engagierte sie sich ehrenamtlich für die Digitalisierung im Bildungsbereich. Heute analysiert Hanna Muralt Müller Chancen und Risiken der künstlichen Intelligenz in ihren Newslettern.


ChatGPT wurde vor gerade zwei Jahren von OpenAI auf den Markt geworfen und löste einen Hype aus. Die KI-Investitionen boomen. Verschiedene Tech-Giganten versuchen mit ihren eigenen Sprachmodellen im KI-Wettlauf mitzuhalten. 

Die Leistungen von KI sind beeindruckend, aber es werden auch Risiken sichtbar, deren Tragweite wir noch nicht einmal absehen und richtig einschätzen können (siehe hierzu Infosperber vom 24.5.2024 und Infosperber vom 12.10.2024). Bislang war unbestritten, dass es gewisse Regulierungen braucht. Mit dem Wahlsieg von Donald Trump könnte sich diesbezüglich einiges ändern. 

Kein günstiges politisches Umfeld für KI-Regulierungen in den USA

Die USA dürften mit der Trump-Regierung KI-Regulierungen hemmen. Wie Associated Press Ende Juli 2024 berichtete, versprach Trump, die erste, Ende Oktober 2023 von Präsident Biden erlassene KI-Regulierung, eine Executive Order, sofort ausser Kraft zu setzen, sollte er gewählt werden. Deregulierungen auch in anderen Bereichen, insbesondere in der Kryptoindustrie, sind sein Programm. 

Auch auf der Ebene der US-Bundesstaaten sind kaum KI-Regulierungen zu erwarten, zu gross ist die Gefahr einer Abwanderung der Tech-Unternehmen in weniger reglementierte US-Gliedstaaten. Es brauche deshalb eine nationale Regulierung, so das Argument gegen die Inkraftsetzung eines KI-Gesetzesentwurfs in Kalifornien im Herbst 2024 (s. hierzu Infosperber vom 29.10.2024). Folgerichtig bedürfte es internationaler Regulierungen, und diese sind im Gang.

Internationale KI-Summits: KI-Gefahrenpotenzial ist erkannt

Auf internationaler Ebene fanden bisher zwei KI-Gipfeltreffen statt. Als Ergebnis des ersten KI-Summits in London im Dezember 2023 unterzeichneten 28 Regierungsvertretungen die sogenannte Bletchley-Erklärung. Diese postulierte ein internationales Wissenschaftsnetzwerk zur Identifizierung von Sicherheitsrisiken und Sicherheitstests für neue KI-Modelle. 

Am zweiten AI-Summit im Mai 2024 in Seoul fanden sich Regierungsvertretungen weitgehend derselben Länder zusammen und vereinbarten eine enge Zusammenarbeit bei der Festlegung von Schwellenwerten für schwerwiegende KI-Risiken und bei der Erstellung von Richtlinien für KI-Sicherheitstests und -bewertungen. Diese Regulierungen sollen dem Völkerrecht entsprechen, ähnlich wie das Chemiewaffen- und das Biologiewaffenübereinkommen, mit ihren Zielen der weltweiten Ächtung chemischer und biologischer Waffen. 

Als ernstzunehmendes Risiko wird in der Pressemitteilung mehrmals auch die Gefahr der Entwicklung einer KI angesprochen, die sich der menschlichen Kontrolle entzieht und autonom agieren könnte (the potential frontier AI capability «to evade human oversight», siehe Pressemitteilung der britischen Regierung vom 22.5.2024).

Weltpremiere mit Selbstverpflichtung der KI-Tech-Unternehmen

Unter den an den beiden Summits beteiligten Ländern waren stets auch die USA vertreten. Zudem wirkten die grossen Tech-Unternehmen und zahlreiche regierungsunabhängige Organisationen (NGOs) mit. Im Rahmen des Summits in Seoul verabschiedeten 16-KI-Tech-Unternehmen aus aller Welt, so aus den USA, China, dem Nahen Osten und Europa, zudem das Dokument Frontier AI Safety Commitments. Die britische Regierung lobte diese Selbstverpflichtung der Tech-Unternehmen als Weltpremiere (a world first). Unterzeichnet haben alle grossen US-Technologiefirmen, wie Amazon, Anthropic, Google, IBM, Meta, Microsoft, OpenAI etc. … und auch Elon Musk mit xAI.

Im Extremfall ein Entwicklungsstopp bei gefährlichen KI-Modellen

Gemäss diesem Dokument verpflichten sich die Tech-Unternehmen im Extremfall ein Modell oder System überhaupt nicht zu entwickeln oder einzusetzen, wenn keine Massnahmen ermöglichen, die Risiken unter den Schwellenwerten zu halten (In the extreme, organisations commit not to develop or deploy a model or system at all, if mitigations cannot be applied to keep risks below the thresholds). 

Diese erstaunliche Aussage ist zweifellos auf die Warnung zurückzuführen, die KI-Koryphäen in der renommierten Fachzeitschrift Science (ganzer Artikel bezahlpflichtig) unmittelbar vor dem Summit in Seoul veröffentlichten. Sie warnten vor einer unkontrollierten Entwicklung einer künftigen Artificial General Intelligence (AGI), einer generativen KI, die autonom agieren, eigene Ziele verfolgen und die von uns vorgegebenen roten Linien überschreiten könnte. 

Diese Gefahr bestehe wegen versehentlich fehlerhafter Programmierung oder auch, wenn sich die KI-Systeme selbstlernend über menschliche Vorgaben, auch Abschaltmechanismen, hinwegsetzten. Die Folgen wären irreversibel. Sie könnten uns Menschen marginalisieren oder im Extremfall gar die Menschheit auslöschen. Die KI-Unternehmen würden enorme Summen in immer leistungsfähigere Tools investieren, aber viel zu wenig in die nötige Forschung zu Sicherheitsfragen. Das Autorenteam verlangte proaktive, international vereinbarte Sicherheitsregelungen, die automatisch beim Erreichen bestimmter Etappen in der künftigen KI-Entwicklung in Kraft treten.

Ein drittes KI-Gipfeltreffen wird im Februar 2025 in Paris stattfinden und auf den bisherigen Ergebnissen aufbauen. Es wird spannend sein, ob dies gelingt und wie sich der Regierungswechsel in den USA auswirken wird. Die politischen Signale, die bisher vom künftigen US-Präsidenten Trump und seinem Berater Musk ausgehen, sind zum Teil widersprüchlich.

Die geopolitische Dimension – das Dilemma staatlicher Organisationen

Die Einsicht der Staatenwelt, dass es eine internationale Regulierung braucht, ist klar dokumentiert. Interessenkonflikte in der Staatengemeinschaft erschweren jedoch künftige Abkommen. Die Regulierungen müssten überprüft und ihre Einhaltung mit wirksamen Strafen gewährleistet werden können. Davon ist die Staatengemeinschaft noch weit entfernt. 

Im Konflikt zwischen den USA und China spielt KI wegen ihres grossen Zukunftspotenzials eine zentrale Rolle. KI hat somit auch eine geopolitische Dimension. An den bisherigen Summits waren zwar die beiden Weltmächte präsent, aber das Konfliktpotenzial verschärfte sich bereits in der ersten Amtsperiode von Trump und später auch unter Präsident Biden. 

Mit Tech-Sanktionen versuchten die USA ihren Vorsprung in der für die KI-Entwicklung wichtigen Chip-Produktion zu sichern (gut analysiert in The Washington Post vom 14.11.2024). Peking reagierte mit rekordhohen Investitionen (gemäss The Wall Street Journal in dritter Tranche im Mai 2024 mit 48 Milliarden Dollar). 

Internationale Abkommen setzen voraus, dass diese überprüft und durchgesetzt werden können. Auch wenn die jetzige US-Regierung den Regulierungsbedarf anerkennt, wird sie im geopolitischen Spannungsfeld keinesfalls die nationale KI-Entwicklung gegenüber der Konkurrenz mit einseitiger, zu strikter Regulierung benachteiligen. Mit Bidens Executive Order, einer ersten KI-Regulierung, erfolgte nur ein erster, bescheidener regulatorischer Schritt, dies im Gegensatz zur Rechtswirkung, welche der Artificial Intelligence Act (AI Act) der EU entfalten dürfte.

EU-Milliardenstrafen für US-Tech-Giganten

Die EU-Regelungen bereiten in den USA nicht eitel Freude. Im Visier des Digital Markets Act, des Digital Services Act und des AI-Acts stehen die grossen, US-basierten Tech-Unternehmungen. Es drohen ihnen meist noch nicht rechtskräftige Bussen in Milliardenhöhe. Gemäss einer Tabelle des Marktforschungsunternehmens S&S Insider vom September 2024 verhängte die EU-Kommission mehrmals Strafen gegen Google wegen kartellrechtlicher Verstösse (in den Jahren 2017, 2018 und 2024, im Umfang von insgesamt rund 9 Milliarden Euro). Im jahrelangen Rechtsstreit zwischen Google und der EU wird der Europäische Gerichtshof entscheiden müssen. Erfolgreich war die EU bei der Durchsetzung von Steuervorschriften. Im September 2024 berichtete die internationale Nachrichtenagentur CNBC, dass der Europäische Gerichtshof einen zehnjährigen Rechtsstreit mit dem Urteil beendete, dass Apple 13 Milliarden Euro an Steuern nachzuzahlen habe. Die Regulierungen der EU haben einiges bewirkt, zumindest dies, dass die Tech-Unternehmen bereits gewisse Praktiken änderten.

Der EU erliess diese Gesetze, obwohl auch ihr bewusst sein musste, dass zu viel Regulierung die Innovation in den Mitgliedstaaten abbremsen und Europa gegenüber den USA und vor allem gegenüber China noch stärker ins Hintertreffen bringen könnte. Die Kritik, dass diese Regulierungen innovationshemmend wirken werden, ist denn auch in Europa nie verstummt. 

In den USA ärgern sich republikanische Kreise nicht nur über die unter Biden verschärften kartellrechtlichen Verfahren, sondern insbesondere über die EU-Regulierungen und die Strafen, die US-Tech-Unternehmen in Milliardenhöhe auferlegt werden (s. Artikel vom 14.11.2024 des R Street Institute, einem Think Tank mit Sitz in Washington). Zweifellos wird Trump die Leitung der Kartellabteilung im Justizdepartement auswechseln, und offen ist, ob er Druck auf die EU wegen der Regulierungen ausüben wird.

Der Europarat musste in seiner KI-Konvention einen Kompromiss in der Regulierungsfrage finden. Das Abkommen, das im KI-Komitee (CAI) unter dem Schweizer Vorsitz von Thomas Schneider, Vizedirektor des BAKOM, erarbeitet wurde, belässt den ratifizierenden Staaten bei der nationalen Umsetzung grössere Flexibilität, offensichtlich mit Rücksicht auf die USA und die US-Tech-Unternehmungen (siehe Pressemitteilung des BAKOM vom März 2024).

Das Dilemma von Tech-Giganten im Konkurrenzkampf

Seitens der Staatengemeinschaft dürften die nötigen KI-Abkommen auf sich warten lassen. Aber auch die Selbstregulierung von Tech-Unternehmen kann nicht überzeugen. Zu gross ist hier der Wettkampf und das gegenseitige Misstrauen. Regulierungen müssten von einer unabhängigen dritten Instanz so durchgesetzt und überprüft werden können, dass sich kein Tech-Unternehmen aus ihrer – auch verheimlichten – Umgehung Vorteile gegenüber der Konkurrenz verschaffen kann.

Auch hinter dem Ruf nach mehr Regulierung können sich Wettbewerbsinteressen verstecken. Beispielsweise könnte ein Moratorium den KI-Unternehmen, die der Konkurrenz nachhinken, Zeit gewinnen, um aufzuholen. So wirkt es erstaunlich, dass Elon Musk unter den Erstunterzeichnern des offenen Briefs auftrat, mit dem im März 2023 zahlreiche Wissenschaftler und KI-Koryphäen (damals über 26’000 Unterschriften, heute sind es über 33’000) eine sechsmonatige Denkpause beim Training neuer KI-Modelle forderten. Unmittelbar nach diesem öffentlichen Aufruf gründete er sein Start-up xAI, für das er inzwischen – so die britische Agentur Reuters – den grössten KI-Supercomputer bauen lässt. 

Gemäss Politico, einer US-Zeitung mit Fokus auf dem Washingtoner Politikbetrieb, befürwortete Elon Musk den kalifornischen KI-Gesetzesentwurf, aber die Motivation ist nicht klar. Das Konkurrenzdenken ist bei ihm stark ausgeprägt. Als einstiger Mitbegründer von OpenAI tritt Elon Musk mit seinem eigenen Start-up als dessen schärfster Konkurrent auf. Kürzlich (s. die Agentur Reuters vom 15.11.2024) hat er seine Rechtsklage gegen OpenAI auch auf Microsoft ausgedehnt.

Die Millionen, die Elon Musk in den Wahlkampf von Donald Trump einsetzte, zahlen sich für ihn nun aus. Gemäss dem Medienunternehmen Bloomberg profitiert Musk wegen gestiegener Aktienkurse von Gewinnen in Milliardenhöhe. Dank seiner Nähe zu Trump hat er auch strategische Vorteile im Kampf gegen seine Konkurrenten.

Schwieriges Abwägen bei Regulierungen

Was die Trump-Regierung bringen wird, ist noch nicht absehbar. Von grosser strategischer Bedeutung wird sein, wie das Verfahren im Google-Rechtsstreit ausgehen wird. Soeben hat die Kartellbehörde des US-Justizdepartements die Zerschlagung des Monopols von Google auf Suchmaschinen mit der Abspaltung des Internetbrowsers Chrome gefordert (The New York Timesvom 20.11.2024). Gemäss der interessanten Analyse des renommierten Experten für Kartellrecht, Herbert Hovenkamp, Professor an der Wharton School der University of Pennsylvania (publiziert in deren Online-Zeitschrift Knowledge at Wharton), hemmt sowohl ein zu moderates (fördert Monopole) wie ein zu restriktives Kartellrecht die Innovationskraft von Unternehmen. Wegen des Wettlaufs mit China wird Trump überlegen müssen, wie er mit den wertschöpfungsstarken US-Tech-Unternehmen umgehen will.

Keine Hemmung bei Eingriffen in die Inhalte der Plattformen

Wohl schon klarer ist, dass Trump gegen Tech-Unternehmen vorgehen wird, die im Wahlkampf nicht nach seinem Gusto berichteten. Er nominierte den Big-Tech-Kritiker Brendan Carr zum Vorsitzenden der Federal Communications Commission (FCC), welcher bereits dem «Zensurkartell» der Big-Tech – Facebook, Google, Apple und Microsoft – den Kampf ansagte (s. die britische Tageszeitung The Guardian). Sie hätten mit ihren Informationen die freie Meinungsäusserung missachtet. Was damit gemeint sein könnte, wird aus der Drohung von Vizepräsident Vance klar: Wenn die EU weiter gegen Musks Plattform X vorgehe, so könnten die USA sogar die Unterstützung der Nato einstellen (s. Information in der britischen Internet-Zeitung The Independent vom 17.9.2024).

Tatsächlich erhob die EU, gestützt auf den Digital Services Act, im Dezember 2023 Klage gegen Elon Musk und dessen Plattform X, weil diese Desinformation und Hassreden freien Lauf lasse (s. Politico vom 12.7.2024). Inzwischen scheinen die Falschinformationen, Hassreden und Verschwörungstheorien auf X ein Ausmass erreicht zu haben, dass viele die Plattform verlassen. Über den X-odus berichtete kürzlich der paneuropäische Fernsehsender Euronews.

Konflikte und Widersprüche

Zwischen Trump und seinem Wahlhelfer Musk könnte es jedoch auch zu Differenzen kommen. Trumps Politik verstärkter Erdölförderung und erhöhter Zollschranken gegen China könnte Musks Geschäft mit dem Tesla und dessen Produktion in China tangieren. Die erste Fabrik von Tesla wurde im Dezember 2019 in Shanghai eröffnet und produziert rund die Hälfte des weltweiten Angebots des Unternehmens. Tesla sei auf China angewiesen, so Politico vom 20.11.2024.

Es ist zu erwarten, dass die künftige US-Politik den Abschluss internationaler Abkommen erschweren wird. Wegen möglicher Interessenkonflikte und Widersprüche in der US-Regierung selbst und in einem Land mit einer politisch gespaltenen Gesellschaft ist der Politkurs schwierig abzuschätzen. Die KI-Entwicklung verläuft rasch – es ist zu befürchten, dass die Politik mit den nötigen Regulierungen zu spät kommt.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

2 Meinungen

  • am 30.11.2024 um 13:48 Uhr
    Permalink

    Die Autorien übersah «die sich selbstheilenden Kräfte des Marktes».
    Die in den USA verbotene Pharmaforschung ging nach China (Wuhan). Die in DE verbotene Auto-, & Chemieindustrie geht in die USA oder nach China.
    Wozu dieses Trumpbashing?

  • am 30.11.2024 um 14:45 Uhr
    Permalink

    Geht es bei der Regulierung der künstlichen Intelligenz wirklich um den Schutz der Bevölkerung vor Fehlinformationen in Schrift, Bild und Ton? Dann müsste man aber auch darüber nachdenken, wie die Bevölkerung vor Auswüchsen der natürlichen Intelligenz geschützt werden kann. Und das machen oder versuchen ja viele Regierungen. Man nennt das auch Zensur. Wahrscheinlich geht es eher um den Wettbewerb zwischen verschiedenen Konzernen und Ländern, und vielleicht auch um Wettbewerbspolitik.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...