Sprachlupe: KI kann schreibfaul machen, muss aber nicht
Als Kommentar zu meiner letzten «Sprachlupe» über Textautomaten, die als Künstliche Intelligenz (KI) vermarktet werden, hat der Leser Paul Schön die Grundsatzfrage gestellt: «Mir erschliesst sich der Sinn dieser Text-‹KI› immer noch nicht: Sollte doch jeder in der Lage sein, Texte selbst zu formulieren, als Ausdruck von Bildungsstandard, Intelligenz und Persönlichkeit. (…) Warum sollte man also die Verfassung von Texten an ein Computerprogramm delegieren? Muss da nicht naturgemäss die eigene Fähigkeit verkümmern – getreu dem Motto, was ich nicht trainiere, verliere ich? Müssen nicht diese Überlegungen am Anfang stehen, anstatt Leistungsvergleiche zwischen textverfassenden Computerprogrammen anzustellen?».
Bevor ich versuche, eine Antwort zu geben, zwei Vorbemerkungen: Die generativen Sprachmodelle – wie eine präzisere Bezeichnung für Chat-GPT und Konsorten lautet – werden angeboten und angewendet; generell über ihre Existenzberechtigung nachzudenken, mag reizvoll sein, hat aber kaum praktische Konsequenzen. Der Leserkommentar zielte vielleicht auch gar nicht darauf ab, sondern mehr auf den Nutzen oder Schaden, den die KI-Modelle jenen bringen, die sie verwenden. Was bei ihnen eingeholte Auskünfte angeht, war ich zum Schluss gekommen, solche Programme seien aufgrund ihrer Funktionsweise bei der Suche nach Faktenwissen wenig zuverlässig. Ihre Kernkompetenz ist es, Texte zu formulieren. Individuen und Organisationen müssen für sich selber herausfinden, ob und wie sie von dieser Kompetenz Gebrauch machen wollen. Ich habe bisher nur aus Neugier dies und das ausprobiert und stütze mich daher auf Erfahrungsberichte aus der Anwendungspraxis.
Befreiung von monotoner Routine
Alexandra Stark, KI-Expertin beim Regionalverbund CH-Media, sieht im Journalismus viele «monotone Aufgaben». Die sollte man «der Maschine überlassen». Im Fachmagazin «Edito» nennt sie als Beispiele: «etwa Informationen aus E-Mails extrahieren und ins Planungstool eintragen oder Basisrecherchen durch schnelleren Zugriff aufs Archiv erledigen. KI kann heute schon bei der Suchmaschinenoptimierung helfen, Texte gegenlesen oder Verschlagwortungen übernehmen.» (Schlagworte werden elektronisch gespeicherten Texten beigegeben, damit diese präziser gefunden werden, auch von Suchmaschinen. Auch allerhand andere «Optimierungen» des Texts sollen bewirken, dass er in den Suchresultaten weit oben erscheint.) Die Entlastung von solchen Arbeiten hilft dabei, dass sich Medienschaffende «wieder mehr auf jene journalistischen Kernaufgaben konzentrieren können, bei denen man nur als Mensch einen Unterschied machen kann», wie Stark zusammenfasst: «Etwa indem man ein weiteres Gespräch führt, rausgeht oder einen anderen Dreh entwickelt.»
Eine neue Studie aus der Universität Zürich zeigt auf: Im Schweizer Journalismus «werden KI-Tools überwiegend unterstützend eingesetzt – zum Beispiel für Transkriptionen, Textoptimierungen oder Titelvorschläge». Weiter sagte Silke Fürst, Leiterin der Studie beim Forschungszentrum Öffentlichkeit und Gesellschaft (Fög), laut der Medienmitteilung der Uni, «die Generierung ganzer Inhalte, seien es Texte, Bilder oder Videos, würden kaum eine Rolle spielen». Ob der falsche Plural «würden» (zum Subjekt «Generierung») einer KI zu verdanken ist, erfahren wir nicht; eine gute Schreibkraft käme da mit einem einfachen Konjunktiv aus: «spiele kaum eine Rolle».
Schreiben und schreiben lassen
Die Studie beruht auf einer Online-Befragung mit 730 Antworten – KI-Interessierte könnten also übervertreten sein. Dennoch heisst es in der Zusammenfassung: «Die Mehrheit der Medienschaffenden (87 %) nutzt KI im Arbeitsalltag, einige sogar sehr stark (17 %).» Rund ein Drittel der Befragten gebe an, die Qualität ihrer Beiträge verbessere sich durch die Nutzung von KI. Aber noch etwas mehr Befragte verneinten dies, und oft fehle die Zeit zur Überprüfung und Ergänzung; das habe auch schon zu Fehlern geführt. Und: «Die Mehrheit der Befragten berichtet, dass es in ihrer Redaktion beim KI-Einsatz keine systematischen Massnahmen der Qualitätssicherung gibt oder sie diese nicht kennen.» Da kann man nur hoffen, dass Beiträge mit KI-Beteiligung gekennzeichnet werden, wie es Richtlinien in manchen Medienhäusern und beim Schweizer Presserat vorschreiben.
«Die Verfassung von Texten an ein Computerprogramm delegieren», wie es der zitierte Leser unnötig findet, ist bei Weitem nicht das Einzige, was man mit Sprach-KI tun kann. Braucht man lange Schriftstücke als Quellen, so kann die KI sie zusammenfassen, und wer bestimmte Aspekte unbedingt drinhaben will, kann sie im Voraus angeben. Auf Wunsch werden bei geeigneten Inhalten auch Tabellen und Grafiken erstellt. Was man davon weiterverwenden will, muss man freilich überprüfen. Auch bei eigenen Texten kann man sich von KI-Programmen helfen lassen, ohne diesen das Verfassen zu überlassen. Stehen Routinebriefe an, die man sonst aus Textbausteinen zusammenstoppeln würde, so kann eine KI das schneller und womöglich besser.
Auch delegieren will gelernt sein
Der «Ausdruck von Bildungsstandard, Intelligenz und Persönlichkeit» ist da ohnehin nicht gefragt. Und wo er es ist, lässt er sich verbessern, auch wenn gerade kein Mensch Zeit zum Gegenlesen hat: Sprach-KI kann Vorschläge machen, etwa für bessere Lesbarkeit und Verständlichkeit. Man wird also mehr oder bessere Schriftstücke hervorbringen, je nach eigener und ausgelagerter Aufgabe – vorausgesetzt, man hat die Sprach- und KI-Kompetenz, die richtigen Arbeiten richtig zu delegieren.
Nur dann kann man sich «auf Kernaufgaben konzentrieren», wie es die Expertin für den Journalismus empfiehlt oder wie es der Taschenrechner jenen ermöglicht, die genug mathematisches Verständnis haben, um Sinnvolles ausrechnen zu lassen. Das soll ja in der Schule gelehrt werden, seit weniger Kopfrechnen geübt werden muss. Entsprechend wird auch der Umgang mit KI dort wichtiger, ebenso für viele Berufsleute. Wer gut selber Texte formulieren kann, kann auch mehr aus der KI-Unterstützung herausholen. Das Fazit einer Beraterin zu einem niedersächsischen Schulprojekt weckt aber Zweifel, ob dort die Richtung stimmte: Beim abschliessenden Schreibwettbewerb liessen viele Beiträge erkennen, dass KI Formulierungen beigesteuert hatte.
Bei generierten Bildern erst recht: Zweimal hinschauen!
Genau zu überprüfen, was uns eine KI vorschlägt, ist womöglich noch wichtiger, wenn es um Bildsprache geht. Der SVP-Generalsekretär Henrique Schneider hat es trotz Plagiatserfahrung nicht getan, sondern das KI-Bild eines geldgierigen «EU-Beamten» mit gewaltiger Hakennase auf Instagram gestellt, im Namen der Partei. Er erntete mehrere Online-Kommentare mit dem Vorwurf des Antisemitismus. In der Tat ähnelt der dargestellte Typ frappant manchen Karikaturen im nationalsozialistischen Kampfblatt «Der Stürmer». Von dort scheinen sie – direkt oder via Nachahmungen – in die Bildsprache von Chat-GPT eingeflossen zu sein. Dass er diese KI verwendet hatte, bekannte Schneider einem Tamedia-Journalisten und fand, das Bild zeige, «wie teuer die lächerliche EU-Bürokratie» sei. Mit dem nächsten Satz zeigte sich der neue Generalsekretär ahnungslos und uneinsichtig: «Eine andere Interpretation kann es gar nicht geben.» Falls er die Vorbilder der Illustration wirklich nicht erkannte, hätte er in der SVP gewiss Nachhilfe bei einem geschichtsbewussten Vordenker finden können.
(Bildbetrachtung auf eigenes Risiko: SVP; «Stürmer»)
Weiterführende Informationen
- Literaturprofessor Philipp Theisohn zu Schäden durch KI (Tamedia-Interview)
- Indexeintrag «KI» in der laufenden «Sprachlupen»-Sammlung: tiny.cc/lupen3
Quelldatei für RSS-Gratisabo «Sprachlupe»: sprachlust.ch/rss.xml; Anleitung: sprachlust.ch/RSS.html
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.










Ihre Meinung
Lade Eingabefeld...