Tamedia: Die KI löscht Leserkommentare
Vorgestern berichtete Infosperber darüber, dass die Tamedia-Zeitungen auch harmlose Leserkommentare löschen. Auf Anfrage erklärte die Tamedia-Medienstelle: «Auf unseren Angeboten gelten klare Community-Regeln und ein professioneller Moderationsrahmen.» Zudem: «Die Redaktion behält sich vor, Kommentare ohne Angabe von Gründen nicht zu publizieren oder bereits publizierte Kommentare wieder zu entfernen.»
Es ist die KI
Aber jetzt kommt heraus, dass es keinen «professionellen Moderationsrahmen» gibt und dass nicht «die Redaktion» entscheidet. Vielmehr ist es die sogenannte Künstliche Intelligenz. Das geht aus einem Mailverkehr zwischen einem Infosperber-Leser und Tamedia-Ombudsmann Ignaz Staub hervor.
Zum Mailverkehr kam es so: In einem Artikel über die Wahlen in Bulgarien hatte der «Tages-Anzeiger» den Wahlsieger Rumen Radew als «Russland-Freund» bezeichnet. Der Infosperber-Leser verfasste auf tagesanzeiger.ch einen Kommentar: «Wenn einer mit Russland ein respektvolles Verhältnis pflegen will, ist er ein Russland-Freund?»
Ein grosser Seufzer
Der Kommentar widerspricht nicht den Kommentarregeln der Tamedia-Zeitungen. Dennoch wurde er abgelehnt. Deshalb gelangte der Leser an den Tamedia-Ombudsmann Ignaz Staub und fragte: «Sind ‹Tages-Anzeiger›-Autorinnen und -Autoren ganz oder weitgehend frei, Kommentare abzulehnen, die ihnen nicht gefallen?»
Die Antwort des Ombudsmanns liest sich wie ein grosser Seufzer: «Moderierte früher bei der Tamedia ein Team natürlich intelligenter Menschen das anfallende Feedback, so tut das neuerdings weitgehend die Künstliche Intelligenz (KI), deren Urteilsvermögen ich nicht (oder noch nicht) traue.»
Der Satz lässt aufhorchen, denn er steht im Widerspruch zur Stellungnahme der Tamedia-Medienstelle. Diese hatte so getan, als würden Menschen aus Fleisch und Blut die Leserkommentare beurteilen.
«Nichts Verwerfliches»
Im Mail an den Leser fährt Ombudsmann Staub fort: «War es für mich früher möglich, mich bei den Zuständigen nach den Gründen für eine Ablehnung zu erkundigen, so kann ich das im Fall von KI nicht mehr.» Das heisst: Die KI löscht. Aber niemand weiss, warum.
Staub kann im Kommentar des Infosperber-Lesers jedenfalls «nichts Verwerfliches entdecken». Und er ist auch nicht der Einzige, der sich über einen abgelehnten Kommentar beschwere. So schrieb Staub schon früher in einem Qualitäts-Report von Tamedia: «Die Leserschaft ortete mangelnde Fairness von Tamedia-Redaktionen beim Umgang mit Online-Kommentaren oder Leserbriefen, deren Ablehnung sie als intransparent und unfair einstuft.»
Viele Beschwerden
Er nannte sogar Zahlen: «Kein Wunder also, dass 2023 mehr als ein Drittel aller Beschwerden die Moderation des Online-Feedbacks und in kleinerer Zahl jene von Leserbriefen im Print betraf – in einzelnen Fällen verbunden mit der Ankündigung oder der Drohung, ein Abonnement zu kündigen.»
Irritierend ist, dass Ignaz Staub ganz offen sagt, dass «weitgehend die KI» die Leserkommentare moderiere, die Tamedia-Medienstelle aber so tut, als würden die Kommentare von Menschen beurteilt.

Die KI «highlightet»
Auf Nachfrage räumt die Medienstelle ein: «Wir nutzen KI dazu, kritische Kommentare zu ‹highlighten›. Aber wir haben nach wie vor Menschen, die diese Kommentare prüfen und dann freischalten oder eben dann final ablehnen.»
Das heisst wohl: Die KI macht auf Zweifelsfälle aufmerksam. Menschen beurteilen diese anschliessend. Die klaren – oder die vermeintlich klaren – Fälle erledigt die KI selber. Darauf deutet auch hin, was ein anderer Infosperber-Leser schon erlebt hat: Dass Kommentare nämlich «bereits nach 15 Sekunden abgelehnt werden». Das schafft kein Mensch.
Auslese ist problematisch
Kommt hinzu: Auf tagesanzeiger.ch gehen täglich gut 3500 Kommentare ein, auf 20min.ch über 10’000. Diese Kommentarflut kann auch ein grosses Team nicht bewältigen. Der Ombudsmann von Tamedia spricht es aus, die Medienstelle druckst herum.
Die automatisierte Auslese ist problematisch. Denn wenn Kommentare wegen einzelner Begriffe, welche die KI nicht akzeptiert, aussortiert werden, dann werden gewisse Themen nur noch einseitig beleuchtet. Und viele Kommentarschreiber werden sich rasch einmal entmutigt fühlen. So kann es zu einer einseitigen Debatte kommen, welche die Meinung der kommentierenden Leser überhaupt nicht abbildet.
Auch anderswo
Und wie sieht es eigentlich bei den anderen grossen Verlagen aus? Ringier, Herausgeber des «Blicks», schreibt: «Wir nutzen einen automatisierten Algorithmus, der toxische (also rassistische, sexistische und beleidigende) Kommentare erkennt und automatisch herausfiltert.» Die restlichen werden von Menschen überprüft. Jeder Kommentar, der auf blick.ch erscheine, werde von einem Menschen freigeschaltet.
Bei der «NZZ» «kommen sowohl redaktionelle als auch technische Unterstützung zum Einsatz». Die Kommentare würden «automatisiert vorgeprüft» und unterlägen anschliessend einer «manuellen Überprüfung». Letztlich entscheide der Mensch.
CH-Media schreibt: «Über eine allfällige Löschung von Kommentaren entscheiden die Redaktorinnen und Redaktoren.»
Themenbezogene Interessenbindung der Autorin/des Autors
Keine
_____________________
➔ Solche Artikel sind nur dank Ihren SPENDEN möglich. Spenden an unsere Stiftung können Sie bei den Steuern abziehen.
Mit Twint oder Bank-App auch gleich hier:
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.








Ihre Meinung
Lade Eingabefeld...