garymarcus_2017

AI-Experte Gary Marcus an der Konferenz «AI for Good» in Genf 2017. © cc-by ITU Pictures

«Auto-Vervollständigung gibt uns nur Bullshit»

Pascal Sigg /  Schweizer Medien berichten regelmässig euphorisch über Künstliche Intelligenz. Doch mehr Skepsis wäre angezeigt.

Die Begeisterung ist offenbar gross: Schweizer Medien waren in den letzten Wochen und Monaten voller Berichte über Künstliche Intelligenz (KI). Nur ein paar Beispiele: Der Tages-Anzeiger opferte dem Thema gar den ersten Bund, und der Blick berichtete euphorisch von einem durchs eigene Medienhaus mitgetragenen PR-Event (Infosperber berichtete).

Doch nicht nur den grossen Medienverlagen, die mittlerweile selber in KI-Unternehmen investieren, fehlt die Distanz. Die Wissenschaftsredaktion von SRF berichtete von einem Forschungsprojekt des Bundesamts für Rüstung, das Fake News automatisiert erkennen soll. Zwar liefert der Artikel einige kritische Hinweise. Doch das Fazit bleibt eine positive Prognose: «Künstliche Intelligenz wird eine wichtige Rolle im Kampf gegen Desinformation spielen.»

Dass trotz dem gegenwärtigen Medienrummel eine gute Portion Skepsis angebracht ist, zeigte vor wenigen Tagen der KI-Experte Gary Marcus. Der ehemalige Professor für Psychologie und Neurowissenschaften an der New York University legte in einem Podcast-Interview mit Ezra Klein von der New York Times detailliert dar, weshalb er die technologischen Bemühungen um KI auf dem falschen Weg sieht.

Hier seine fünf wichtigsten Aussagen:

  • Derzeitige KI ist nicht verlässlich, weil ihr die Wahrheit egal ist.

Für KI-Modelle wie das vieldiskutierte Sprachprogramm ChatGPT, welches selber Texte schreiben kann, sind Verlässlichkeit und Wahrhaftigkeit keine wichtigen Kriterien. «Diese Systeme versuchen nur unsere Sätze zu vervollständigen. Und das ist nicht die Tiefe, die wir brauchen.» Und weiter: «Diese Systeme haben keine Vorstellung von Wahrheit. Manchmal liegen sie richtig, manchmal nicht. Sie sagen einfach Dinge, die andere Leute gesagt haben und versuchen, die Wahrscheinlichkeit, dass dies nochmals gesagt wird, zu maximieren. Es ist nur Auto-Vervollständigung und Auto-Vervollständigung gibt uns nur Bullshit.»

  • Das kann gefährlich sein.

Sprachmodellsysteme können den gesellschaftlichen Zusammenhalt gefährden, weil es ganz einfach und günstig ist, Text zu schreiben, der auf den ersten Blick richtig aussieht. «Stellen wir uns mal einen News-Artikel vor, der aussieht, als hätte ihn ein Mensch geschrieben. Er sieht stilistisch und formal genau so aus, erfindet Quellen und Daten. Menschen mögen zwar einen dieser Artikel rausfiltern und als falsch erkennen. Aber was, wenn wir 10 davon haben oder 100 oder 1000 oder 10’000? Dann wird es sehr schwierig, sie zu überwachen.»

  • KI kann bereits heute für Betrug genutzt werden.

Mit automatisierter Text-Herstellung können ganz schnell und einfach Texte für Websites programmiert werden, mit denen sich die Google-Suche oder Googles automatisierte Online-Werbeinfrastruktur manipulieren lässt.

Marcus warnt: «Nehmen wir einmal an, dass wir Anzeigen mittels falscher medizinischer Informationen verkaufen wollen. Und seien wir ehrlich, es gibt Leute, denen ist es egal, ob sie falsche Infos verbreiten, solange sie die Klicks kriegen. Wir bewegen uns in Richtung dieser dunklen Welt.»

  • Viele KI-Systeme können nicht abstrahieren.

Im Gegensatz zu Menschen sind Maschinen nicht gut darin, neue Regeln zu erlernen. Und einfach immer mehr Daten werden dieses Problem nicht lösen. «Das gegenwärtig dominante Paradigma funktioniert für Probleme, für welche man unendlich viele Daten erhalten kann oder diese günstig sind und man das Problem fast mit Gewalt lösen kann. Man kann das nächste Wort, das jemand schreiben wird, ziemlich gut mit einem Datensatz von der Grösse des Internets vorhersagen. Aber zum Beispiel darüber, wie Menschen wirklich übereinander denken, wird man nie genug Daten haben. Und dann gibt es auch diese Ausnahmefälle. Das Problem mit selbstfahrenden Autos ist, dass Dinge vor ihnen erscheinen und es einfach nicht genug Daten gibt, um diese immer wieder neuen Szenarien abzubilden. Zum Beispiel was passiert, wenn man mit dem Auto über einen Flugplatz fährt.» Ein selbstfahrender Tesla fuhr im April 2022 in einen stehenden Privatjet.

  • Künstliche Intelligenz kann Menschen trotzdem nützen.

Dafür müssten sie aber bewusster als einzelne Werkzeuge verstanden werden, die für verschiedene, unterschiedliche Aufgaben benutzt werden können. Statt sich einzig auf immer grössere Datenmengen zu verlassen, sollten einzelne Prozesse zur Lösung bestimmter Probleme genauer analysiert und verstanden werden. Marcus sagt, das Potenzial von KI bleibe gross. «Ich denke, dass viele wissenschaftliche und technologische Probleme zu schwierig sind, um von einzelnen Menschen gelöst zu werden. Im Besonderen in der Biologie. Wir haben 20’000 verschiedene Proteine in unseren Körpern, 20’000 Gene, und sie interagieren alle auf komplizierte Arten. Ich glaube, Maschinen könnten uns zum Beispiel beim Thema Alzheimer helfen.»


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach zehn Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

6 Meinungen

  • Portrait_Josef_Hunkeler
    am 20.01.2023 um 14:34 Uhr
    Permalink

    garbage in, garbage out. «AS» = artificial stupidity ?

    Als Hilfsmittel, vielleicht von Nutzen zur Analyse von Standardsituationen. Damit hat es sich aber auch.

    0
  • am 20.01.2023 um 17:04 Uhr
    Permalink

    Das künstliche Intelligenz als Wahr, wahrgenommen wird, liegt daran das der Mensch nicht intelligent ist. Ansonsten wären die Kriege, das Leid, der Umgang miteinander und die Umweltbelastung nicht erklärbar.
    KI ist elektronisch und von Hand gemacht. Deshalb kennt auch die KI nur 0 und 1 und nichts anderes! Was 0 und 1 sein soll muss ihm beigebracht werden, es wird also eine Datenbank mit Information gefüttert, wie schon in den 70igern als es losging mit Computern. Noch nie waren Datenbanken so gross wie heute, aber die Physik ist nicht neu erfunden. Was 0 und 1 ist, muss vorher einprogrammiert werden! Und seien die Ergebnisse noch so umfassend, es musste vorher fesgelegt, programmiert und gespeichert werden.
    Demzufolge gibt es keine KI, es ist nur ein Oberbegriff für die Eingabe von Daten mit Sensoren anstelle einer Tastatur. Aber intelligent ist nichts daran, genauso wenig wie am Menschen der viel zu unvollkommen ist um so etwas zu schaffen.

    0
  • am 21.01.2023 um 15:44 Uhr
    Permalink

    Philip Loser hat im «Magazin» die Begriffe «exponentielles Wachstum» und KI kombiniert. Demzufolge dürfte KI irgendwann «plötzlich» extrem mächtig werden, egal ob es sich um echte oder nur simulierte Intelligenz handelt, weil das irgendwann keine Rolle mehr spielt. Das birgt einige Chancen aber auch grosse Gefahren, vor allem wenn damit gefährliche Maschinen gesteuert werden.

    0
  • am 24.01.2023 um 12:47 Uhr
    Permalink

    Es ist ungeschickt, dass von künstlicher «Intelligenz» gesprochen wird, geht es doch um reine Rechnerei, während zur menschlichen Intelligenz eben auch noch Empathie, Intuition etc gehören. Jüngeren Generationen, deren Alltag völlig von digitalen Geräten bestimmt wird, mag das nicht ganz klar sein. Sie sind es sich gewohnt, den ganzen Tag Anleitungen zu folgen, die sie nicht in Frage stellen, denn anders lässt sich ein sogenanntes Smartphone ja nicht verwenden. Dass hier eine tief gehende Umprogrammierung des Menschen im Gange ist, sollte uns zu denken geben und erklärt m.E. auch die weitgehend kritiklose Reaktion auf die eben erlebte Pandemie und ihre Folgen gerade bei den Jüngeren (man denke an das vielgehörte «Mach’s einfach!» mit seiner Doppelbedeutung.).

    0
  • am 24.01.2023 um 17:17 Uhr
    Permalink

    @ Michael Schlomm.
    Ihre Argumentation ist gefährlich. Wenn «intelligent daran (KI) nichts ist, genauso wenig wie am Menschen der viel zu unvollkommen ist um so etwas zu schaffen.» Dann machen Sie künstliche Intelligenz gleich der menschlichen. Oder habe ich das sprachlich falsch mitbekommen?

    0
    • am 25.01.2023 um 23:32 Uhr
      Permalink

      Das haben Sie richtig verstanden. Wenn der Mensch etwas schafft, der unvollkommen ist, was wir ja offensichtlich sind wenn ich mir den Umgang mit uns selbst, der Natur und Mutter Erde anschaue, wie soll das denn vollkommen sein?
      Technisch Physikalisch gibt es keine KI. Nur weil eine Datenbank nicht mit der Tastatur gefüttert wird ist sie nicht intelligent. Auch nicht wenn die Datenbankeinträge durch mathematische Bedingungen zueinander abgeglichen werden, kann nicht von Intelligenz gesprochen werden. Es sind und bleiben programmierte Funktionen die nicht besser sein können als der/die-jenigen die das programmiert haben.

      0

Comments are closed.

Ihre Meinung

Lade Eingabefeld...