Kommentar

kontertext: Der tägliche Turing-Test

Beat Mazenauer © zvg

Beat Mazenauer /  Unser Autor hat GPT eine Testfrage gestellt: Wer hat das Buch «Die Zukunft der Toten» verfasst? Die Antwort ist verwirrend.

Als der englische Mathematiker Alan Turing vor 75 Jahren seinen Turing-Test entwarf, waren die computertechnischen Möglichkeiten noch sehr bescheiden. Umso prophetischer klingt aus heutiger Warte sein 1950 erschienener Aufsatz «Computing Machinery and Intelligence». Gleich eingangs stellt er darin die zentrale Frage «Can machines think?». Als Antwort schlägt er ein «Imitation game» vor, den Turing-Test. Ein Befrager kommuniziert per Tastatur und Bildschirm mit zwei Gegenübern, die er nicht sieht. Das eine Gegenüber ist ein Mensch, das andere eine Maschine. Ziel der Befragung ist es herauszufinden, welches Gegenüber Mensch, welches Maschine ist. Wenn letztere nun den Menschen derart zu imitieren vermag, dass der Befrager zu keinem klaren Urteil mehr kommt, kann die Maschine denken, ist sie folglich intelligent.

Der Imitationstest war zu Turings Zeiten erst eine theoretische Skizze, deren Schwächen sich Turing durchaus bewusst war. «Das Modell beruht auf Vereinfachung und Idealisierung und ist deshalb eine Verfälschung», aber es bleibe zu hoffen, dass die zu diskutierenden Aspekte «dem derzeitigen Wissensstand grösstmögliche Erkenntnis hinzuzufügen» vermöchten. Die Computertechnologie hat sich, wie von Turing erhofft, seither so gründlich weiterentwickelt, dass sein Test zum Gradmesser für maschinelle Intelligenz avanciert ist.

Wie funktioniert GPT?

Dies erst recht, seit Ende November 2022 der ChatGPT von OpenAI ans Netz ging. Seither dominiert dieser Generative Pretrained Transformer (GPT) weltumspannend die Diskussionen und befeuert die menschlichen Fantasien. Tests mit ihm zeigen schnell: Das neuronale Netzwerk, das auf einem Large Langue Model (LLM) basiert, ist gut. Seit März 2023 in der Version 4, liefert der GPT akkurat formulierte Texte, egal ob auf Englisch oder Deutsch, ja teilweise sogar in Dialekt. Zugrunde liegen ihm Trainingsdaten aus dem weltweiten Web, die er zu Antworten und Aussagen auswertet. Auch wenn es Turing 1950 irrigerweise noch für absurd hielt, die Frage nach der maschinellen Intelligenz «in einer statistischen Erhebung wie einer Gallup-Umfrage zu suchen», errechnet der GPT an jeder Stelle eines Satzes nach statistischem Verfahren ein wahrscheinlich nächstes Wort für die Fortsetzung: rasend schnell, aber ohne Gallup. Das Verfahren lässt sich vergleichen mit den drei Wortvorschlägen auf WhatsApp, nur eben viel viel viel raffinierter.

Ein Test

Der GPT erfindet also nichts Neues, «sondern konfrontiert uns mit Werten, die aus der Mehrheit kommen», wie Roberto Simanowski schreibt. Umso stärker durchdringt der Turing-Test heute unseren Alltag. Wer hat es geschrieben, ist die Frage, vor die uns inzwischen viele Texte stellen. Steckt noch eine «Handschrift» dahinter, oder bloss ein Algorithmus? Und überhaupt: Braucht es noch einen Autor?

Der GPT kann Hinweise, Einladungen, Börsenberichte, Abhandlungen und vor allem auch Übersetzungen. Was auf den ersten Blick erstaunt und blendet, ist allerdings von höchster Tücke. Ein kleiner Test veranschaulicht es. Ich habe dem GPT jüngst die Frage gestellt: «Wer hat das Buch ‹Die Zukunft der Toten› verfasst?». Herausgekommen ist Folgendes.

«Die Zukunft der Toten» ist ein Roman von Hermann Broch, der von ihm selbst verfasst wurde. Der Roman erschien 1936 und ist Teil der Trilogie «Die Schlafwandler», die sich mit den Themen Krieg, Revolution und Demokratie auseinandersetzt. «Die Zukunft der Toten» ist der zweite Teil der Trilogie und thematisiert die politischen Ereignisse in Österreich während der Jahre 1918 bis 1933. Der Roman wurde von Kritikern und Lesern gleichermaßen geschätzt und zählt heute zu den bedeutendsten Werken der Moderne.

Das ist eine hochgradig verwirrende Antwort, die richtig und falsch in  verwirrter Weise miteinander mixt. Wäre nicht der erste dumme Nebensatz «von ihm selbst verfasst», der Antwort wäre beinahe zu trauen. Deshalb lohnt sich ein kurzer Blick auf das Tohuwabohu.

Zur Klärung gleich vorneweg: «Die Zukunft der Toten» ist ein Erzählband von Sabine Haupt, der dieses Frühjahr erschienen ist. Aber Hand aufs Herz, könnte nicht Hermann Broch den zweiten Band seiner «Schlafwandler»-Trilogie genau so überschrieben haben? Wenn ich die GPT-Antwort von dieser Trilogie aus lese, so ist einiges stimmig: Hermann Broch ist tatsächlich ihr Autor, und darin werden Krieg, Revolution und Demokratie im frühen 19. Jahrhundert beschrieben. Zudem gilt die Trilogie als bedeutendes Werk der Moderne. So weit, so gut. Aber darauf muss gleich eine Berichtigung folgen: «Die Schlafwandler» erschienen 1930-1932 (nicht 1936), sie beschreiben Ereignisse in Deutschland (nicht in Österreich) aus dem Zeitraum von 1888-1918 (und nicht 1918-1933). Vor allem aber heisst der zweite Band «Esch oder die Anarchie». Wikipedia gibt darüber mustergültig Auskunft. Woher aber hat der GPT bloss seine Informationen und was macht er daraus?

Als Eindruck bleibt vorerst soviel: Formal formuliert der GPT tadellos, inhaltlich ist er höchst fragwürdig. Für Häme ist es trotzdem zu früh. Wieviel weiss ich, Germanist und Brochleser, über die Wirkung von Fentanyl oder die DNA der Drosophila? Der Turing-Test wird zur täglichen Pflicht nur schon, weil wir nie alle Antworten bei jeder Gelegenheit doppelt und dreifach überprüfen wollen und können. Je mehr und je Vielfältigeres wir über das Internet erfahren, umso wichtiger wird das präzise einordnende Expertenwissen.

Knackpunkt «Common sense»

Was fange ich nun aber damit an? Anders gefragt: Ist es überhaupt von Belang, wer oder was einen Text geschrieben hat? Ein schlechter Text bleibt ein schlechter Text, und ein wirklich origineller, meinungsstarker Text stammt ohnehin (noch) vom Menschen. Fraglich bleibt aber das Mittelmass, die sachliche Auskunft. Genau hierin entfaltet sich die Wirkung des GPT, beginnt er die Gesellschaft zu durchdringen, unterminiert er unsere Schriftkultur. Gerade eben hat gemäss Börsenblatt der Buchdienstleister bookwire den GPT in sein Operating System aufgenommen, damit Verlage einfacher «automatisierte Klappentexte und Social-Media-Beiträge für Instagram, Twitter oder Facebook» erstellen und «ihre digitalen Werke noch erfolgreicher» vermarkten können. Natürlich fragt der Spötter umgehend: Warum nicht gleich die ganzen Bücher, dann bliebe mehr Zeit zum Lesen?

Immerhin in diesem Punkt ist die Gefahr noch klein, denn bezüglich erzählerischer oder essayistischer Kreativität hinkt der GPT noch hintennach. Ihm fehlt das Talent für Überraschungen und Geistesblitze, oder einfacher: Er hat kein Verständnis für die Welt und keinen Common Sense. «Die grosse Ironie am Common sense ist», bemerkt der Neurowissenschaftler Gary Marcus, dass «doch niemand genau zu wissen scheint, worum es sich dabei handelt». Als Beispiele nennt er alltägliches Wissen wie «Menschen wollen ihr Geld nicht verlieren», «Messer schneiden Dinge» oder «Dinge verschwinden nicht, wenn sie mit einem Tuch bedeckt werden». Genau damit tut sich Künstliche Intelligenz schwer, weil diese einfachsten Dinge nicht im Internet stehen und weil wir Menschen sie intuitiv wissen. Im Common sense drückt sich unser Verhältnis zur Welt aus, worüber Maschinen nicht verfügen.

Wo Fehler, da Mensch!

Und dennoch: Der GPT weiss vieles, ist einfach zu handhaben und leicht verfügbar – deshalb wird er gebraucht werden, nicht nur von Schüler:innen für ihre Hausarbeiten. Zwar neigt er zu Gemeinplätzen, sterilen Satzkonstruktionen, Klischees und überlangen Antworten, doch er tut es syntaktisch und othographisch tadellos. Genau darin liegt die eminente Gefahr. Warum soll ich selbst schreiben, wenn der GPT es fehlerlos macht? Wer sprachlich unsicher ist, freut sich über dieses Tool, das die sprachliche Schwäche zum Verschwinden bringt.

Unter diesem Aspekt verkehrt der GPT den Turing-Test förmlich ins Gegenteil. Wenn Lehrer die Schulaufsätze ihren Schülern oder der Maschine zuordnen wollen, rate ich ganz simpel: Achtet darauf, ob Kommaregeln und Orthographie korrekt sind. Wenn ja, stammt der Text von der Maschine. Das Fehlerhafte, Ungelenke dagegen ist den Schüler:innen zuzuordnen. Mit anderen Worten: Es ist der Mensch, der den Turing-Test nicht mehr besteht. Die perfekte Simulation der Wirklichkeit hat ihn längst überholt.

All das erinnert an einen Begriff, den der Philosoph Günter Anders 1956, wenige Jahre nach Turing, in seinem Buch «Die Antiquiertheit des Menschen» prägte: die «prometheische Scham». Sie trifft im Kern die Mensch-Maschine-Konstellation. Wir haben, schreibt Anders, eine Technologie erschaffen, «mit der Schritt zu halten wir unfähig sind und die zu ‹fassen› die Fassungskraft, die Kapazität sowohl unserer Phantasie, unserer Emotionen wie unserer Verantwortung absolut überfordert». Hinzu kommt, dass der irrende, fehlerhafte Mensch sich vor der Perfektion, Widerstands- und Leistungsfähigkeit der Apparatur schämt und vergeblich versucht, ihr gleichzukommen. Daraus schlussfolgert er, dass aus dem Titanen Prometheus ein abhängiger «Hirte der Objekte» geworden sei, der seine Apparaturen «bedient». Anders› radikale Kritik zielte auf das Atomzeitalter und war als provozierende Warnung gedacht.

Ich irre, also bin ich

Wie sich unser Verhältnis zu Textgeneratoren wie dem GPT entwickeln wird, steht noch offen. In einem Beitrag unter dem Titel «The false promise of ChatGPT», der am 9. März in der «New York Times» erschienen ist, dreht Noam Chomsky die menschliche Schwäche ins Rettende:

«Wir sind fehlbar. Aber das ist ein Teil dessen, was Denken bedeutet: Um recht zu haben, muss es möglich sein, falsch zu liegen. Intelligenz besteht nicht nur aus kreativen Mutmassungen, sondern auch aus kreativer Kritik. Das menschliche Denken basiert auf möglichen Erklärungen und Fehlerkorrekturen, ein Prozess, der die Möglichkeiten, die rational in Betracht gezogen werden können, allmählich einschränkt.»

In diesem Spannungsfeld stehen wir nun täglich, wenn es darum geht zu entscheiden, ob wir einen von einem Autor verfassten Text oder einen algorithmisch produzierten Text lesen. Wie schwer eine solche Prüfung im konkreten Fall mittlerweile fällt, zumindest bei einfachen Textformen, lässt sich beim Real-or-Fake-Spiel auf der Website https://roft.io nachprüfen.

Es ist eine eigenartige Verkehrung dessen, was Alan Turing einst mit der Frage «Können Maschinen denken?» in Gang setzte. Die menschliche Intelligenz wird nicht mehr aus der simulierten Perfektion abgeleitet, sondern aus der Fehlerhaftigkeit. Der Rotstift als beschämender Seinsbeweis: Ich irre, also bin ich. Das verändert nicht nur die Schule, das verändert meine Sprache und mit der Zeit meine Wahrnehmung der Welt.

So haben es Barthes, Foucault oder Federman sicherlich nicht gemeint, als sie den «Tod des Autors» postulierten und den Umgang mit Texten als «Pla(y)giarismus» bezeichneten: als plagiaristisches Spiel mit bestehenden Diskursen. Dennoch birgt ihr ästhetischer Abgesang auch einen Trost – respektive ein Instrument des Widerstands in Form des kultur- und textkritischen Blicks des Zeichendeuters.

Kritik gegen Herrschaft

Der GPT ist ein ambivalentes, weil erstaunlich funktionales und zugleich beunruhigendes Tool, das es produktiv zu nutzen, zu beherrschen gilt. Es wird nicht mehr aus der Welt zu schaffen sein, zumal mit Bard von Google gerade eben ein neuer Textgenerator aufgetaucht ist, der noch schneller, besser etc. sein soll und die automatische Textproduktion zusätzlich anfachen wird. Schnöde Ablehnung hilft da nicht weiter, denn, frei nach Günter Anders, was möglich ist, wird gemacht.

Wir müssen uns also damit auseinandersetzen. Dabei bleiben uns zwei Handlungsoptionen: Wir lassen uns erstens nicht von der scheinbaren Fehlerlosigkeit blenden, und wir überprüfen zweitens textkritisch die Elaborate der Textgeneratoren. Kritik ist, so Foucault, die Kunst, «nicht dermassen regiert zu werden». Genau dies wird mehr denn je vonnöten sein. Wir müssen demnach neu lesen lernen, wir müssen unser Gespür für die Variabilität der Sprache schärfen, um die feinen Signale dieses so wunderbar menschlichen «Tools» differenziert wahrzunehmen. Die Textkritik erlaubt uns den selbstbewussten und zumindest partiell beherrschten Umgang mit den KI-Textgeneratoren. Ob’s mehr ist als ein frommer Wunsch?


Themenbezogene Interessenbindung der Autorin/des Autors

Keine. Beat Mazenauer ist freier Autor, Literaturkritiker und Netzwerker und leitender Redaktor der Buchreihe essais agités. Er lebt in Luzern und Zürich.

Unter «kontertext» schreibt eine externe Gruppe von Autorinnen und Autoren. Sie greift Beiträge aus Medien auf, widerspricht aus journalistischen oder sprachlichen Gründen und reflektiert Diskurse der Politik und der Kultur. Zurzeit schreiben regelmässig Silvia Henke, Mathias Knauer, Michel Mettler, Felix Schneider und Beat Sterchi.
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Weiterführende Informationen

Zum Infosperber-Dossier:

GegenStrom_2_ProDirectFinance_XX_heller

kontertext: Alle Beiträge

kontertext widerspricht Beiträgen anderer Medien aus politischen, inhaltlichen oder sprachlichen Gründen.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

4 Meinungen

  • am 5.06.2023 um 12:41 Uhr
    Permalink

    Wozu braucht man diese Texterzeuger eigentlich? Hat die Welt sie vorher vermisst? Was wird verbessert? Wer braucht das und warum? Diese Fragen sollte man doch erstmal klären. Es gibt zig Menschen, die hervorragende Texte verfassen und auch keine Schwierigkeiten damit haben, neue und genauso gute Texte zu verfassen. Wir haben immer mehr Menschen auf dieser Welt, also immer mehr, die gute Texte schreiben können – vielleicht sollten wir uns um die kümmern und nicht um teure, energiefressende Technologie, die uns wieder nur Jobs und Menschenwürde kostet. Soll man jetzt wirklich kostbare Lebenszeit opfern, um diese künstlichen Ergüsse auch noch zu überprüfen? Was soll das bringen? Es gibt tonnenweise gute Literatur aus der ganzen Welt, aus fast allen Epochen. Manches mag man zwei- oder dreimal lesen, weil es so gut ist. Damit sollte man sich beschäftigen, mit den Erzeugnissen unserer eigenen Intelligenz aus tausenden Jahren.

  • am 6.06.2023 um 09:36 Uhr
    Permalink

    In körperlicher Hinsicht wurde der Mensch schon durch Maschine ersetzt. Jetzt braucht die Maschine nur noch einen «Kopf» ….und meine Dasseinsberechtigung liegt nur noch darin, dumm dämlich zu fragen : Warum bin ich? weshalb bin ich? wieso bin ich? wozu bin ich?
    Hammerhart, wie sich eine Rasse «selbst» zum körperlich – geistigen Krüppel machen kann. Kein Wunder, dass wir wieder als Neandertaler anfangen müssen, wenn der «Strom» ausfällt.

  • am 6.06.2023 um 14:57 Uhr
    Permalink

    Vermutlich verknüpfen diese Algorithmen einzelne Elemente ihrer Texte in einer Art, welche wahrscheinlich sinnvoll ist. Wahrscheinlich, aber nicht sicher. Und ganz offensichtlich verfügt AI über keine Kontrollfunktion, welche offensichtlichen Bockmist aussortieren könnte. Von einem Verständnis der Materie kann also nicht die Rede sein.
    Für die Schule sehe ich einen positiven Effekt: Die Lehrer müssen aufhören, ihre Schüler mit seichten Schreibaufträgen zu beschäftigen.

  • am 7.06.2023 um 13:47 Uhr
    Permalink

    Herzlichen Dank und herzliche Gratulation, Frau Manuela Von Schledorn, besser kann man den Unfug nicht kommentieren. Prof. Weizenbaum hat KI schon in den 80-er Jahren entlarft und klargestellt in
    «Die Macht der Computer und die Ohnmacht der Vernunft.» Stecker ziehen, dann sind wir wieder intelligente Neandertaler, trefflich.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...