Roboter

Sprachgeneratoren wie ChatGPT wirbeln den Journalismus durcheinander. Auf dem Weg zu JournGPT sind wir derzeit aber noch nicht - dafür flunkern sie nämlich zu viel. © Stable Diffusion

ChatGPT: Für den Journalismus flunkert die KI zu viel

Daniela Gschweng /  Gibt es bald nur noch Artikel aus der Maschine? Danach sieht es derzeit nicht aus, nützlich ist die KI aber schon.

Vor wenigen Monaten war von Chatbots noch keine Rede. Inzwischen gibt es anscheinend nichts, was ChatGPT und Co. nicht können. Sprachgeneratoren wirbeln den Journalismus durcheinander. Die Branche passt sich erstaunlich schnell an.

Die ersten Stellenbeschreibungen für journalistische «Prompt Engineers» sind schon erstellt. Also Menschen, die besonders gut darin sind, Eingaben zu machen, auf die die KI dann verwertbare Antworten gibt. Man kann das in Kursen bei Open AI lernen.

Viele Journalist: innen fürchten um ihre Branche

In der Branche geht teilweise die Panik um, den Job oder gleich das ganze Betätigungsfeld zu verlieren. Verlegerverbands-Präsident Andrea Masüger sah am Swiss Media Forum beispielsweise einen «Tsunami, der sich über die Medien ergiesst».

Screenshot-2023-05-20-111429
Stellenanzeige für einen Prompt Engineer

Journalistenschüler der Deutschen Journalisten-Akademie haben jemanden gefragt, der bereits mit KI arbeitet. «Es gibt Chancen und Risiken», antwortet Ulrike Köppen, Gründerin des AI+ Automation Lab beim Bayerischen Rundfunk (BR), im Fachjournalist-Podcast.

Kein Grund, in Panik auszubrechen

Panik ist demzufolge derzeit unangebracht. «Grundsätzlich sind KI und Automatisierung nur ein Werkzeug», erklärt Köppen. Die BR-Redaktion teste und verwende KI schon seit längerer Zeit, Chatbots wie ChatGPT seien nur das neueste und im Moment meistdiskutierte Tool.

Am Ende sei KI «nur eine Maschine». Diese könne Menschen viel Arbeit abnehmen, dazu müssten Journalistinnen und Journalisten aber vorbereitet sein. Kenntnisse darüber, wie Sprachmodelle funktionieren und woher KI ihr Wissen haben, seien für sie unerlässlich.

Der talentierte Mr. GPT

Gleichwohl ist die Maschine sehr eloquent. Was sie sagt, klingt einfach gut. Zu gut. Inhaltlich kann sie mit menschlichen Redaktionen nicht mithalten.

Dafür sorgt unter anderem ein Phänomen, das «Halluzinieren» heisst. Die Künstliche Intelligenz erfindet Fakten, die in den Trainingsdaten nicht vorkommen. Sogar dann, wenn sie zur Aufgabe hat, einen vorgesetzten Text zusammenzufassen.

Die Autorin hat das selbst getestet. In der Zusammenfassung eines Textes der «Washington Post», der als Quelle für den Artikel «Wie Russland mit schrottreifen Tankern das Embargo umschifft» diente, meisterte ChatGPT die Übersetzung vom Englischen ins Deutsche samt Zusammenfassung ganz ordentlich. Kleinere grammatikalische und stilistische Fehler stellen kein Lesehindernis dar. Im KI-Text tauchte aber auch eine Zeile mit Fakten auf, die nicht auf den Ursprungstext zurückgeführt werden konnten. Wer diesen nicht gelesen hatte, hätte sie nicht gefunden.

Derzeit ist der Mensch schneller

«Man merkt das relativ schnell, wenn man sich mit einem Thema auskennt», sagt Köppen. Wer einem Sachverhalt das erste Mal begegne, bekomme die Fehler aber kaum mit. Die fehlende Faktentreue ist für die BR-Redakteurin auch das grösste Problem bei der Arbeit mit ChatGPT.

Das sei auch einer der Gründe, weshalb es noch so wenige KI-Texte gebe, glaubt das AI+ Automation Lab. Die Gruppe testete GPT-3, indem sie ChatGPT Texte für Infokästen erstellen liess. Die zuständige Redakteurin bemerkte schnell, dass sie jedes einzelne Statement überprüfen musste. Schneller und zielgenauer sei es für eine geübte Fachperson, die Recherche selbst zu machen und zu schreiben, schlossen die Tester.

Sicheres Auftreten bei weitgehender Ahnungslosigkeit

Auch im bayerischen Abitur, das als besonders schwer gilt, schnitt der Chatbot schlecht ab. Miese Noten bekam er ausgerechnet in seinen Kernfächern Deutsch und Informatik. «Rechtschreibung und Grammatik sind fehlerfrei», urteilte der Korrektor, ein Lehrer an einem bayerischen Gymnasium. Der Umfang jedoch sei nicht ausreichend, sprachlich und stilistisch sei die Lösung zu anspruchslos und inhaltlich sei ebenfalls nichts zu holen. Mit drei Punkten wäre die KI klar durchgefallen.

«Das ist viel Gelaber», fand der Korrektor noch. Das will im Journalismus sicher niemand haben. Dasselbe passierte in der Informatikprüfung. Die Aufgabe: Die Erstellung einer Software, die Informationen zu Radiosendungen verwaltet. Das Ergebnis: zwei Punkte. «Da hätte ich der KI mehr zugetraut», sagte der Informatiklehrer.

Nutze die KI, aber vertraue ihr nicht

Besser, man lasse GPT-3 tun, was der Chatbot besonders gut könne, sagt Köppen: reden. Wenn es darum gehe, Texte in Sekunden stilistisch umzuwandeln, Geschriebenes zu strukturieren oder wichtige Punkte herauszuarbeiten, sei ChatGPT fast nicht zu schlagen.

Eine Nachricht in einen Twitter-Thread zu verwandeln, funktioniere beispielsweise nicht immer gut, aber teilweise perfekt, berichtet Köppen. Gut schlage sich GPT-3 auch beim Ausfüllen von Lückentexten und beim Erstellen von uniformen Nachrichten wie Spielberichten, hat das Automation Lab herausgefunden.

Nützlich sei die Sprachmaschine im kreativen Prozess. Im Chat Ideen entwickeln, sich Formulierungen vorgeben lassen oder ChatGPT als «Sparringpartner» nutzen, sei überaus lohnend. Köppens derzeitiges Fazit: «Nutze ChatGPT, aber vertraue ihm nicht.»

Die Taschenrechner-Debatte von heute?

Nutzende, die ChatGPT für Anwendungen ausserhalb des Journalismus ausprobiert haben, geben grösstenteils positive Wertungen ab, wenn sie danach gefragt werden. Auf einer Veranstaltung zu ChatGPT gibt ein Wissenschaftler an, dass er jede Woche mehrere Stunden spart, weil er sich Texte von der KI strukturieren lässt. Ein Lehrer findet die Verwendung von Chatbots an sich nicht schlimm. «Das ist halt die Taschenrechner-Debatte von heute», sagt er. Er überlegt, ob schriftliche Prüfungen noch Sinn machen oder ob er vermehrt auf mündliches Abfragen von Gelerntem setzen soll.

Ein technikaffiner Architekt, der sich als Tech-Visionär bezeichnet, lässt ganze Kapitel seines jüngsten Buches von der KI redigieren und demonstriert, wie sie inhaltliche Fehler findet.

«Man kann alles schlechtreden», sagt er. GPT-3, GPT-4 und ihre Geschwister seien wirklich disruptive Technologie, die grosse Umwälzungen bringen werde. Auf Bot-Halluzinationen herumzureiten, sei kleinlich. Auch ohne KI gebe es Fehler in der journalistischen Berichterstattung. Damit hat er zweifellos recht. Den Pressekodex und die Zwei-Quellen-Regel können findige Ingenieure der KI womöglich noch beibringen.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

4 Meinungen

  • am 29.05.2023 um 20:17 Uhr
    Permalink

    Jede intellektuell-kreative Tätigkeit die wir auslagern, trainiert das lernfähige Computerprogramm, aber nicht uns. Jeden Text, den wir selber recherchieren und schreiben, trainiert uns, verbessert die Verbindung zwischen den Synapsen, beugt damit der Hirnalterung vor und befähigt uns noch bessere Texte zu schreiben. Jede Tätigkeit, sei sie körperlich oder geistig, die neu oder ungewohnt für uns ist, schafft neue Synapsen, trainiert und verbessert unser Gehirn. Und das bis zum Tode. Im Gegensatz zu einem Computer, der immer mehr Ressourcen beansprucht, wird unser Gehirn nie voll, es braucht auch keine neue Kühlung, keine neuen Prozessoren, keine Heerscharen an Operatoren. Und es gehört uns; es sind unsere Fähigkeiten, mit niemandem zu teilen, die wir für unser Wohlergehen, zur Freude, einsetzen können. Mobiler als jeder Computer. Ein Schmalzbrot und ein Glas Wasser stellen die Betriebsfähigkeit her.

    • am 30.05.2023 um 23:50 Uhr
      Permalink

      Sehr richtig Herr Schön. Treffend auf den Punkt gebracht.
      Unsere Denk- und Arbeitsleistung ist im Prinzip gratis. Sozusagen: Ich bin, also kann ich denken. Jedes technische System verursacht Zusatzkosten. Das gilt auch für das Immunsystem. Gesunde Ernährung vorausgesetzt – vermutlich ist die aber zu teuer.

  • am 31.05.2023 um 12:03 Uhr
    Permalink

    Ja, Herr Poser, ein Immunsystem dürfte der KI fehlen, Eine Abwehr für KD, künstliche Dummheit. Noch einfacher: dem Unfug den Stecker ziehen! Die Einschätzung von Paul Schön ist goldrichtig.

  • am 31.05.2023 um 16:54 Uhr
    Permalink

    Die sogenannte Chatbots können – und werden voraussichtlich – zu einem weiteren (und schnelleren, umfassenderen) streamlining von öffentlich verfügbaren Informationen (wikipedia, internet im allgemeinen etc.) führen, wie wir es heute bereits auf wikipedia und ähnlichen Plattformen vorfinden.
    Kritische, abweichende Meinungen bzw. Informationen werden voraussichtlich zunehmend ‹weggebügelt›.
    Zitat: «Im KI-Text tauchte aber auch eine Zeile mit Fakten auf, die nicht auf den Ursprungstext zurückgeführt werden konnten.» ? ? ? WAREN das nun Fakten – oder nicht?
    Diese Grenze wird verschwimmen – frei nach Trump: «alternative Fakten» – und keiner wird’s mehr merken …Mr. Orwell lässt grüßen.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...