Kommentar
kontertext: Moral-Kollaps durch die KI
Red. Im ersten Teil seiner Rezension hat Beat Mazenauer geschildert, wie Roberto Simanwoski nachzuweisen versucht, dass wir durch den bedenkenlosen Gebrauch der KI uns selbst entmündigen. Die Sprach-Maschine, so der kritische Gedanke, kommuniziert nicht. Sie verfolgt mit ihren Äusserungen keine Absicht, sondern gibt nur die statistisch wahrscheinlichste Wortfolge. Hier folgt die Fortsetzung von Mazenauers Rezension.
_____________________
Immer wieder ploppt gegenwärtig von konservativer Seite der Vorwurf auf, Sprachmaschinen wie GPT, Bard oder Gemini seien «woke», würden der LGBTQ-Community nach dem Mund reden und verträten linksliberale Meinungen. Der Medienwissenschaftler Roberto Simanowski erkennt dahinter ein tatsächliches Malaise und belegt es mit Argumenten und Beispielen.
Haltungen oder Überzeugungen haben Sprachmodelle prinzipiell nicht. Sie operieren bloss mit der Macht der Zahl. Eine Sprachmaschine «betrachtet immer das als angemessen, was sich statistisch am wahrscheinlichsten als anschlussfähig erweist». Sie ergreift Partei für die Mehrheit der Aussagen, die in den Trainingsdaten gespeichert sind. Und diese stammen überwiegend aus westlichen Quellen: gesicherten wie Wikipedia, vor allem aber aus unsicheren wie Social Media-Kanälen. In diesem Korpus sucht eine Sprachmaschine in unterschiedlichen Datensegmenten, um daraus eine Antwort zu finden, die stimmig ist und global gelten soll. In den Worten Simanowskis: «Der Heilige Geist der Maschine wird ausgeschüttet über alle, ganz gleich welcher sprachlichen, kulturellen oder nationalen Herkunft. Wie damals zu Pfingsten in Jerusalem.» Erst auf Nachfrage lassen sich Differenzierungen oder womöglich abweichende Antworten erhalten.
«Finetuning» – die moralische Zweiterziehung
Ursprünglich erwies sich ChatGPT-3, um es kurz zu sagen, als weisser Rassist amerikanischer Prägung. Die neuesten Versionen der Sprachmodelle hingegen sind, vielleicht von Elon Musks Grok abgesehen, inzwischen meist wohlmeinende, umsichtige Antwortgeber, die alles Harsche aus ihren Antworten verbannt haben. Verantwortlich für diese Wandlung ist ein Prozess, der «Finetuning» heisst:
«Eine Art Zweiterziehung des Sprachmodells nach der Ersterziehung durch die Trainingsdaten. In dieser Zweiterziehung werden dem Sprachmodell bestimmte Gedanken ausgetrieben (Muslim = Terrorist), bestimmte Antworten untersagt (wie man Massenvernichtungswaffen baut) und bestimmte Werte eingeimpft (das Recht von Homosexuellen auf Selbstverwirklichung).»
Mittels eines sogenannten Systemprompts, einer für den User nicht sichtbaren Anweisung an die Maschine, werden die Anfragen im Sinne dieses normativen, politischen Finetunings formatiert. Etwa so:
«Benutze für jede Darstellung, die Menschen enthält, verschiedene Geschlechter und ethnische Zugehörigkeiten, falls ich dies vorzugeben vergessen habe.»
Was gut gemeint ist, ist ideologisch grundiert, somit politisch, und birgt zwei Probleme: Können diese Werte für alle Welt gelten? Wer und welche Ideologie bestimmt darüber, welche Werte eingeimpft werden? Die Sache ist kompliziert, wie Simanowski zeigt. Er erörtert verschiedenste Entwürfe und Ideen, wie der westliche Primat in den Trainingsdaten und somit im Output der KI korrigiert werden könnte. Allerdings kranken alle diese Korrekturversuche immer daran, dass Sprachmaschinen einen statistischen Mittelwert ausgeben und vielleicht eine kollektive «Haltung» oder einen gesellschaftlichen Trend vermitteln, aber keine echte Diskussion zulassen. Eine solche aber benötigt ein Hin und Her zwischen unterschiedlichen Positionen und Ansichten.
Als Alternative zur Einheitssuppe geistert bereits eine Lösung umher, die im Kern ein Überwachungssystem à la chinoise mit privat-kapitalistischer Ausprägung verspricht. Eine personalisierte KI, eine «personalized soup», wäre mir ergeben, indem sie Zugriff auf alle meine Daten erhält und daraus meine persönlichen Wertvorstellungen erkennt und berücksichtigt, respektive meine Absichten gleich vorwegnimmt («predictive messaging»). Sie wäre erst recht, was eine KI ohnehin ist: «ein Opportunist und Schleimer», der seinen Benutzer:innen nach dem Mund redet. «Sycophancy» nennt sich das – so wie überhaupt viele der mitunter gruseligen Strategien der KI-Entwicklung eine technische Bezeichnung haben. All das aber, so Simanowski, «würde dazu führen, dass es keine geteilte Wirklichkeit mehr gibt und entsprechend keinen gemeinsamen Meinungsstreit» — die Voraussetzung für Demokratie.
Verlust der Welt
Sprachmodelle handeln mit Sprache. Dabei gilt es das Diktum von Wittgenstein zu bedenken: «Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.» Wenn uns die Sprache abgenommen wird, weil wir sie in eine KI auslagern, droht uns die Sprache selbst abhanden zu kommen und damit auch die Welt. Mit dem Schreiben verfertigen sich die Gedanken, Ideen und Informationen, damit wir über sie verfügen. Deshalb muss der Schreibprozess beim Menschen verbleiben! Simanowski: «Delegiert der Mensch das Schreiben an die Sprachmaschine, verfehlt er sich selbst.» Mit der Fähigkeit des Schreibens und der Sprache verliert er auch die Fähigkeit der Ideenfindung und des Denkens generell. Es droht «unsere ‹Proletarisierung›, wenn wir alle Arbeit dem Knecht überlassen». Mit anderen Worten: Wer nur noch kann, was KI (besser) kann, kann getrost ersetzt werden.
Daten-Inzest
Gemäss einer breit angelegten Studie des Max Planck-Instituts von Juli 2025 scheint sich sprachlich tatsächlich etwas zu bewegen. Der Wortschatz konzentriert sich in der User-Kommunikation verstärkt auf Worte, die der GPT offenkundig gehäuft verwendet; und Sätze werden zunehmend verstümmelt und auf die notwendigen Stichworte verkürzt. «Unsere Ergebnisse», schreiben die Autor:innen, «wecken Bedenken hinsichtlich der Erosion der sprachlichen und kulturellen Vielfalt sowie der Risiken einer skalierbaren Manipulation». Es betrifft bereits auch die Alltagssprache. Hinzu kommt erschwerend: Je mehr von der KI selbst generierter Text in ihre Trainingsdaten einfliesst und die KI sich am eigenen Output trainiert, umso mehr wächst die Gefahr eines «model collapse» oder Daten-Inzests, der die Qualität dieses Outputs beschädigt. Diese Gefahr scheint real.
Roberto Simanowski betont, dass ihm Sprachmodelle wie GPT gute Dienste erweisen und auch Spass bereiten. Das soll freilich eine differenzierte kritische Reflexion nicht verhindern. Exakt in diesem Sinn ruft er zum Widerstand gegen die zunehmend selbstherrlichen «Knechte» auf, die uns «Herren» zu reinen Bedienern degradieren und uns die Werkzeuge der Sprache rauben. Der Reiz seines Buches liegt darin, dass er die Tragweite der Sprachmaschinen breit diskutiert und viele sich widersprechende Argumente vorbringt, ohne diese miteinander zu versöhnen oder selbst eine schlüssige Antwort zu liefern. In diesem argumentativen und kommunikativen Hin und Her unterscheidet er sich grundlegend von der Selbstgewissheit der algorithmischen Maschine.
Let’s think!
Doch wo, fragt Simanowski, bleibe die öffentliche Debatte darüber, welche Entwicklungen wünschbar seien und welche unterbunden gehörten, welche Ziele die Menschheit (und nicht die Tech-Milliardäre) mit diesen Tools verfolge. Eine düstere Antwort darauf gibt es: «Vieles kommt zu spät. Man hätte sich früher interessieren müssen. Man hätte früher reagieren müssen: als diese Unternehmen noch nicht so mächtig waren.» Zu spät oder nicht, wir kommen nicht darum herum, uns genauer mit den nur allzu hilfreichen Sprachmaschinen zu beschäftigen. Dieses Buch, das von profundem Wissen, weitem Horizont, Witz und kritischer Reflexion zeugt, bietet eine ausgezeichnete Anleitung dafür.

Roberto Simanowski: Sprachmaschinen. Eine Philosophie der Künstlichen Intelligenz. C.H. Beck Verlag, München 2025
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.
_____________________
Unter «kontertext» schreibt eine externe Gruppe von Autorinnen und Autoren. Sie reflektiert Diskurse der Politik und der Kultur, greift Beiträge aus Medien kritisch auf und pflegt die Kunst des Essays. Zurzeit schreiben regelmässig Silvia Henke, Mathias Knauer, Michel Mettler, Felix Schneider und Beat Sterchi.










Ihre Meinung
Lade Eingabefeld...