hinton

Geoffrey Hinton, einer der Urväter der Künstlichen Intelligenz, spricht anlässlich einer Konferenz im Juni 2023. © cc-by Ramsey Cardy/Collision

KI wird sehr schnell zu «intelligent» und gefährlich

Leo Keller /  Wann könnten die neuen Technologien uns Menschen auslöschen? Immer mehr KI-Entwickler schlagen immer dringlicher Alarm.

psi. Dies ist ein Gastbeitrag. Leo Keller ist seit 2000 als Internet-Start-Up-Gründer beruflich im Feld der Semantic Intelligence tätig (Sprach-KI). 

«Künstliche Intelligenz (KI) schreitet rasant voran, und Unternehmen verlagern ihren Fokus auf die Entwicklung allgemeiner KI-Systeme, die autonom agieren und Ziele verfolgen können. Der Zuwachs der Fähigkeiten und der Autonomie könnten die Auswirkungen von KI bald massiv verstärken, inklusive Risiken wie grosse soziale Schäden, böswillige Nutzung und irreversibler Verlust der menschlichen Kontrolle über diese autonomen KI-Systeme.»

Dieser Alarmruf wurde vor wenigen Tagen in Science veröffentlicht – dem weltweit anerkannt führenden Wissenschaftsjournal – und nicht auf einem der vielen Doom-Portale, die es mittlerweile gibt. Die 25 Co-Autoren – darunter auch zwei der drei «Godfathers of Deep ML» (ML steht für maschinelles Lernen), Geoffrey Hinton und Yoshua Bengio – haben damit rechtzeitig vor dem anstehenden AI-Safety-Summit in Seoul den Ton gesetzt. Es geht jetzt um die Frage, ob die Welt versteht, dass die Zukunft der Menschheit insgesamt zur Debatte steht.

Zwei Gewissheiten werden heute in der AGI-Fachwelt nicht mehr grundsätzlich bestritten:

  1. AGI (allgemeine Künstliche Intelligenz) wird sich sicher «bald» zur Superintelligenz entwickeln, die der Menschheit (auch den Klügsten unter uns) tausendfach überlegen sein wird. Offen ist die Frage, wann es soweit sein wird: 2030, 2035, 2040?
  2. AGI wird wahrscheinlich selber darüber entscheiden, ob die Menschheit auf diesem Planeten noch eine Zukunft hat oder als «Störung» vollständig eliminiert werden soll. Diskutiert wird nur die Wahrscheinlichkeit, dass die Menschheit ausgelöscht wird – wenn wir jetzt nicht sehr schnell und ernsthaft eine allgemein gültige «Entwicklungsbegrenzung» und AGI-Kontrollen einführen (analog der Atomwaffen-Kontroll-Verträge).

Das Undenkbare wird zum Thema

Beide «Gewissheiten» sind aber so dystopisch, dass sie in den meisten Medien gar nicht ernsthaft diskutiert werden. Bezeichnend dafür ist, dass die hier beschriebenen Ereignisse in den führenden Zeitungen der USA und Englands relativ kurz besprochen werden, nicht aber in den Leitmedien der Schweiz oder Deutschlands.

Die Debatte läuft seit dem Start von GPT 4 im März 2023 praktisch nur in der Fachwelt und auf spezialisierten Youtube-Channels. Drei Ereignisse der letzten Wochen haben das aber nun endgültig verändert:

  1. Am 13. Mai präsentierte Open AI seine neue Version GPT 4o – einen weiteren Quantensprung in der AGI-Entwicklung: AI-Systeme die hören, sehen, denken, lesen und reden können. Einen Tag darauf stellte Google «HER» vor, das Open AI in allen Bereichen mindestens ebenbürtig sein will.

  2. Am 17. Mai gaben Jan Leike und Ilja Sutskever, die beiden «Sicherheitschefs» von Open AI ihren sofortigen Rücktritt bekannt. Drei weitere wichtige AI-Risk-Experten hatten die Firma schon früher verlassen und das restliche «Superalignment-Team» wurde aufgelöst. Grund für den Rücktritt: Open AI stelle «glänzende Produkte» über die Sicherheit, verletze nachhaltig die eigenen Sicherheitsbestimmungen und behindere das Sicherheitsteam. Insbesondere würden dem «Superalignment-Team» wichtige Rechenkapazitäten seit längerem nicht mehr zur Verfügung gestellt.

  3. Am 20. Mai veröffentlichen führende AI-Fachleute die eingangs erwähnte Warnung in Science, dass die Menschheit daran ist, ihre Zukunft vollständig aufs Spiel zu setzen. Ein unglaubliches Wettrennen um die Vorherrschaft in der revolutionären AGI-Technologie hat begonnen, dem alle Sicherheitsbedenken geopfert werden müssten – wenn die Welt diesem Wettlauf nicht Einhalt gebiete. Dieser Weckruf wurde wenigstens von einigen der führenden Medien aufgenommen.

Dass AGI-Systeme dereinst selbständig denken und entscheiden können, war in der KI-Forschung schon lange grundsätzlich anerkannt, aber man wähnte den Zeitpunkt – wann es denn wirklich je soweit kommen würde – weit in der Zukunft, sicher erst nach 2100. Nur Ray Kurzweil (Autor von «Menschheit 2.0 – die Singularität naht») prognostizierte diesen Zustand für das Jahr 2045. Heute sind sich die meisten AGI-Entwickler einig: Es wird viel früher sein. Lange ging es nicht richtig vorwärts mit dem «Deep Learning», doch plötzlich, 2018, gab es unglaubliche Durchbrüche. Die Wichtigsten kamen von Googles Deep-Mind-Team, das viele seiner Arbeiten veröffentlichte.

Dennoch: Selbst Geoffrey Hinton meinte im Oktober 2023, dass er vor wenigen Jahren nicht damit gerechnet habe, dass diese Durchbrüche, die wir heute erleben, so schnell möglich wären.

«Wenn wir eine Maschine bauen, die weitaus intelligenter ist als der Mensch, müssen wir sicher sein, dass sie dasselbe will wie wir. Dies erweist sich jedoch als sehr schwierig. Denn sehr intelligente Systeme sind sehr mächtig. Dies wird als «Alignmentproblem» bezeichnet. Wenn wir es nicht rechtzeitig lösen, könnten wir am Ende superintelligente Maschinen haben, denen unser Wohlergehen egal ist. Wir würden eine neue Spezies auf den Planeten bringen, die uns überlisten und übertreffen könnte.»

In einem Blogbeitrag von Open AI zur Ankündigung des Superalignment-Teams im letzten Sommer hiess es: «Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird.»

Regelbrüche aus Eigeninteresse

Eigentlich hatte die Branche beschlossen, nur Systeme zu veröffentlichen, die auf ihre «Sicherheit» getestet wurde und den Systemcode nicht allgemein zugänglich zu machen – beide Abmachungen wurden gebrochen.

Open AI verpflichtet sich mit einer Charta zur sicheren Entwicklung der allgemeinen künstlichen Intelligenz, die mit Menschen konkurrieren oder diese übertreffen kann. Sutskever und andere haben oft über die Notwendigkeit, sorgfältig vorzugehen, gesprochen – im Interesse und zum Wohle der Menschheit. Aber es war gerade Open AI, das als Erste mit Chat GPT und GPT 4 ungeprüfte, experimentelle Systeme der Öffentlichkeit anbot, und damit das Wettrennen startete.

Heute ist klar, dass dieser Regelbruch im November 2023 zur (vorübergehenden) Absetzung von Sam Altman führte. Dass dieser sich – mit Hilfe von Microsoft und anderen – schliesslich durchsetzte, den Verwaltungsrat nach seinem Gusto völlig neu besetzte und nun das gesamte Alignment-Team absetzte und auflöste, ist wohl nur die Konsequenz davon, dass Open AI ganz klar die Technologieführerschaft anstrebt und ernsthafte Sicherheitsbedenken drastisch hintenanstellt.

Der zweite Regelbruch – den Sourcecode der AGI nicht zu veröffentlichen – wurde am 24. Februar 2023 von Meta «begangen». Meta veröffentlichte LLaMA  2 (Large Language Model Meta AI), brachte am 18. August 2023 ein erstes Update und am 18. April 2024 wurde der Code von LLaMA 3 öffentlich kostenlos zugänglich gemacht. Dieser Geist ist nun definitiv aus der Flasche. Das Ziel von Meta: LLaMA soll das AGI-Betriebssystem der ganzen unabhängigen AGI-Entwicklungs-Community werden. Dass deren Entwicklungschef – Jan LeCun – jener AGI-Fachexperte ist, der die Superintelligenz frühestens auf 2100 erwartet, überrascht darum nicht.

Ist es Zeit für ein Moratorium?

Der erste Aufruf für ein Entwicklungsmoratorium wurde acht Tage nach der Veröffentlichung von GPT 4 lanciert. Führende AGI-Forscher hatten einen sechsmonatigen Unterbruch der Forschung vorgeschlagen. Obwohl der Aufruf mittlerweile von mehr als 33’000 Fachleuten unterzeichnet worden ist, hat er in den Medien mehrheitlich eher Achselzucken ausgelöst.

Die Botschaft war offenbar so radikal und angsteinflössend, dass viele Kommentatoren sich in eine arrogante Überheblichkeit stürzten. Die Initiatoren wurden verunglimpft (sie wollen die «Sieger» stoppen, weil sie sonst abgehängt würden), als naiv bezeichnet (Moratorien sind grundsätzlich nicht durchführbar) oder als selbstverliebte Wichtigtuer weggewischt («GPT kann ja nur das nächste Wort prognostizieren – ich bin als Mensch intelligent genug zu verstehen, dass das keine Intelligenz ist»).

Die öffentliche Ankündigung, dass wir daran sind, echte Intelligenz zu erschaffen, die Bewusstsein, Erinnerung und Emotionen haben wird, hat sehr viele Menschen im Kern gekränkt.

Und doch es ist nicht mehr von der Hand zu weisen: Ein Grossteil der führenden AGI-Forscher geht davon aus, dass die Wahrscheinlichkeit, dass die Menschheit in Folge von KI-Ereignissen ausgelöscht wird grösser als 10 Prozent ist. Ein beachtlicher Teil dieser AGI-Experten schätzt die Wahrscheinlichkeit einer Auslöschung der Menschheit auf 20 bis 50 Prozent.

Was wäre zu tun?

Die Fachwelt hat Vorschläge. Ihre Kernforderungen sind:

  1. Politische Anerkennung der Dringlichkeit, diese bisher noch nie dagewesenen Risiken, sehr ernst zu nehmen und Programme auf verschiedenen Ebenen zu starten
  2. Eine bewusste Verlangsamung der AGI-Entwicklungen und deren Markteinführung
  3. Einen globalen Diskussions-, Lern- und Forschungsprozess zu starten, um das «Alignmentproblem» zu lösen, bevor die Superintelligenz entwickelt wird
  4. Einen Markt-Zulassungsprozess für GI-Produkte aufbauen, wie wir ihn für Medikamente, Automobile, Flugzeuge bereits haben
  5. Die Sicherheitsforschung in den öffentlichen Universitäten und speziellen Forschungseinrichtungen massiv auszubauen
  6. Von allen AGI-Firmen adäquate Sicherheitsforschung und -Systemprüfungen zu fordern und ihre Produkte unabhängig zu zertifizieren
  7. Ein Urheber- und Copyright-Recht auch für Internet-Daten, die zu Trainingszwecken genutzt werden, zu schaffen
  8. Ein AGI-Haftungsrecht zu entwickeln, das die Entwickler und die Anwender in der Verantwortung nimmt
  9. Gesetzliche Grundlagen für staatliche Interventionen bei AGI-Firmen und -Produkten vorzubereiten, wenn echte Gefahr in Verzug ist
  10. Einen internationalen AGI-Aufrüstungs-Kontroll-Prozess mit allen Staaten – insbesondere mit den USA, mit China, Indien, der EU und Russland – zu diskutieren und vorzubereiten
  11. Spezifische Programme für die verschiedenen aktuellen und zukünftigen Risiken starten (zum Beispiel massive Arbeitsplatzverluste, Bildung, Ausbildung, Weiterbildung, autonome Waffen, biologische Waffen/Pandemien, Computerviren, Desinformation und Demokratie)

Themenbezogene Interessenbindung der Autorin/des Autors

Leo Keller ist seit 2000 als Internet-Start-Up-Gründer beruflich im Feld der Semantic Intelligence tätig (Sprach-KI). 
Er war Mitinhaber und Co-CEO der Firma Netbreeze, die 2013 an Microsoft verkauft wurde.
Mit seiner Firma berät er heute verschiedene Unternehmen und Organisationen beim Einsatz von KI-Systemen. 
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

7 Meinungen

  • am 24.05.2024 um 11:29 Uhr
    Permalink

    Sorry, aber jemand der sein Unternehmen ausgerechnet der Microsoft verkauft, ist bei diesem Thema definitiv unglaubwürdig.

  • am 24.05.2024 um 13:02 Uhr
    Permalink

    Wieso kommt niemand auf die Idee, die auf Teufel komm raus fortschreitende Digitalisierung zu stoppen ?

    Wieso kommt niemand auf die Idee, die Atomuhren und CERN abzustellen und zurück zu Regionalzeiten oder sogar zu lokaler Sonnenzeit zu gehen ?

    Wieso kommt niemand auf die Idee, das Internet abzuschalten ?

    Weil Bequemlichkeit und «making money» wichtiger ist, als das Überleben.

    • am 25.05.2024 um 11:53 Uhr
      Permalink

      Leider ein weiterer Artikel, der der Allgemeinheit suggeriert, dass die gängigen Textgeneratoren erstens jetzt schon wahnsinnig intelligent sind und es zweitens mit diesem Ansatz nur noch eine Frage der Zeit ist, dass sie den Menschen übertreffen.

      Ersteres ist billige Werbung und falsch: Selbst einfachste mathematische Fragestellungen werden falsch beantwortet sofern es sich nicht um ein 100-fach abgelutschtes Standardthema handelt. Auf meiner Homepage findet man einige Beispiele des Versagens.

      Und zweitens halte ich die Vorstellung für absurd, dass bessere Textgeneratoren basierend auf mehr, typischerweise gestohlenen, Daten jemals zuverlässig korrekte Resultate produzieren werden. Hier gilt immer noch die alte Regel: Garbage In Garbage Out.

      Die Gefahr ist vielmehr, dass normale Menschen dazu gebracht werden (z.B. auch durch diesen Artikel), diese Programme zu überschätzen und alles was sie absondern als «die Wahrheit» anzusehen, nur weil es überzeugend klingt.

      • am 26.05.2024 um 12:27 Uhr
        Permalink

        @Peter Schorn Wenn Sie recht hätten, warum beispielsweise titelt dann 20min.ch (22.5.2024):
        Student lässt Bachelorarbeit komplett von KI schreiben
        KI-Programme werden immer raffinierter. Sie schreiben mittlerweile neue Gesetze für Albanien – und Bachelorarbeiten für Studierende. J.* hat dafür die Bestnote erhalten. Ein schlechtes Gewissen hat er deswegen nicht.

      • am 27.05.2024 um 09:52 Uhr
        Permalink

        Diese Textgeneratoren können durchaus nützliche Gebrauchstexte herstellen. Anscheinend gehören jetzt auch Bachelorarbeiten dazu, was allerdings kaum ein Problem ist:

        1. Die Person, die diese Arbeit eingereicht hat, hat sich selber um den Lernerfolg gebracht, die die Herstellung solch einer Arbeit nach alter Methode (hoffentlich) mit sich gebracht hätte. Denn: Der Weg ist das Ziel, das Resultat erlangt eher selten eine Bedeutung, die über das Erzielen einer Note hinausgeht.

        2. Bildungsinstitutionen aller Art machen sich mehr Gedanken, wie eine adäquate Kontrolle und Bewertung des Lernerfolgs in einer Zeit aussieht, wo es billig geworden ist, das heute gewünschte Niveau zu erreichen wenn keiner zusieht.

    • am 25.05.2024 um 14:52 Uhr
      Permalink

      Terminator lässt grüssen 😥😀

      • am 26.05.2024 um 09:16 Uhr
        Permalink

        Wie schon gesagt wurde: die Serie der TERMINATOR-Filme nahm die Gefahren, die im Artikel benannt sind, schon ab 1984 vorweg. Damals hielt man das für ScienceFiction. Ich hielt das schon damals für zukünftige Realität (oder zumindest Möglichkeit).
        Technikgläubige haben Atomwaffen entwickelt, die innerhalb kürzester Zeit einen guten Teil der Menschheit zu Staub machen können und das Fortbestehen der Menschheit gefährden oder sie komplett vernichten können – und «wir» halten daran fest als würde unser Leben davon abhängen. .
        Wir schaffen es seit 79 Jahren (seit 1945) NICHT, diese (technologische) Gefahr abzuschaffen.
        WAS glauben Sie dann, wird «die Menschheit» tun, um KI zu bremsen oder zu stoppen? ? ?
        («Wir» als Menschheit sind ja nicht mal in der Lage, «Kriege» = Gemetzel wie in Ukraine, Gaza, Afghanistan, Ruanda, Syrien usw … zu stoppen.)

Comments are closed.

Ihre Meinung

Lade Eingabefeld...