Twitter, Klimakrise, Fake-News, Falschnachrichten, infosperber © pixabay/Montage

Computerprogramme verbreiten auf Twitter massenweise Falschnachrichten über die Klimakrise

Ein Viertel aller Klima-Tweets stammt von Computerprogrammen

Tobias Tscherrig / 05. Mär 2020 - Eine Studie zeigt, dass Computerprogramme im Internet Fake-News zum Klimawandel verbreiten und dadurch den Diskurs mitbestimmen.

Die Social-Media-Konversation über die Klimakrise wird massgeblich von einer Armee von automatischen Twitter-Bots geprägt. Laut einem Studienentwurf der US-amerikanischen Brown-Universität stammen rund ein Viertel aller Meldungen, die das Klima behandeln und jeden Tag auf Twitter verbreitet werden, von sogenannten Bots. Ein Bot ist ein Computerprogramm, das automatisch sich wiederholende Botschaften absetzt, ohne dabei auf die Interaktion von Benutzerinnen oder Benutzer angewiesen zu sein.

Wie der «Guardian» berichtet, zeigt die neue Analyse, dass die automatischen Computerprogramme einen erheblichen Einfluss auf die Verbreitung von Fake-News haben. Die erstaunlich hohe Aktivität der Twitter-Bots zu Themen im Zusammenhang mit der globalen Erwärmung und der Klimakrise verzerre den Online-Diskurs, der damit weit mehr klimawissenschaftliche Lügen enthalte, als dies üblicherweise der Fall wäre.

Millionen Tweets analysiert

Die Forscherinnen und Forscher der Brown-Universität haben während der Zeit als US-Präsident Donald Trump verkündete, aus dem Klimaabkommen von Paris auszusteigen, insgesamt 6,5 Millionen Tweets analysiert. Die Tweets wurden nach Themen kategorisiert, wobei das Tool «Botometer» zum Einsatz kam um festzustellen, ob ein Computerprogramm oder ein Mensch Urheber der jeweiligen Einträge war. Das Ergebnis der Analyse spricht für sich: Die meisten der als Bots identifizierten Accounts unterstützten die Haltung des US-Präsidenten, wonach die Klimakrise «Bullshit» sei. Gleichzeitig verbreiteten sie wissenschaftliche Fehlinformationen.

Durchschnittlich stammten pro Tag rund 25 Prozent aller Tweets über die Klimakrise von Bots. Dieser Anteil war bei bestimmten Themen höher: Bots waren für 38 Prozent aller Tweets mit wissenschaftlichen Falschnachrichten verantwortlich. In 28 Prozent aller Meldungen, die durch Bots abgesetzt wurden, wurde der Erdölgigant Exxon erwähnt. Auf der anderen Seite waren bei Twitter-Meldungen, die zur Unterstützung von Massnahmen gegen die Klimakrise aufriefen, nur sehr wenige Bots vertreten.

Thomas Marlow, Brown-Doktorant und Leiter der Studie sagte im «Guardian», die Analyse sei zustande gekommen, da er und seine Kollegen sich immer gefragt hätten, warum die Verbreitung von Fake-News über die Klimakrise derart hoch sei – obwohl sich die Wissenschaft über die Ursachen mehrheitlich im Klaren sei.

Unbekannte Urheber

Die Studie der Brown-Universität konnte nicht ermitteln, wer sich hinter dem Bataillon aus Twitter-Bots versteckt. Es sei unklar, ob die Programme von Einzelpersonen oder Interessengruppen eingesetzt würden. In welchem Mass die Bot-Armee mit ihren Meldungen Einfluss auf die zuweilen heftig geführte Klimadebatte hat, bleibt ebenfalls unklar.

Allerdings haben viele der verdächtigen Twitter-Accounts, die dazu genutzt werden um die Klimawissenschaft sowie Klimaaktivistinnen und Klimaaktivisten herabzusetzen, eine grosse Anzahl an Followern. So zum Beispiel der inzwischen gesperrte Account @sh_irredeemable, der in der Vergangenheit immer wieder die Klimaaktivistin Greta Thunberg aufs Korn nahm und etwa den Begriff «Klimawandelwahnsinn» verbreitete.

Ein weiteres Beispiel ist der nun ebenfalls gesperrte Bot @petefrt, dem zum Zeitpunkt der Analyse fast 52'000 Menschen folgten – und der die Klimawissenschaft als unseriös darstellt. Im August 2018 verbreitete das Computerprogramm zum Beispiel die Meldung: «Sei realistisch, CNN: Das 'Klimawandel'-Dogma ist Religion, nicht Wissenschaft». In einem weiteren Tweet vom November forderte das Computerprogramm die Aufhebung des Pariser Abkommens, da eine Zukunft, die von «Globalisten und europäischen Öko-Bonzen aufgebaut wurde», abzulehnen sei.

Wahr ist, was auf Interesse stösst

Bereits vor einem Jahr haben Recherchen über das Verhalten von Internetnutzerinnen und Nutzern ergeben, dass in Sozialen Netzwerken vor allem diejenigen Meldungen als wahr angesehen werden, die oft geteilt und gelikt werden. Stephan Lewandowsky, Akademiker der Universität Bristol und Mitverfasser der damaligen Studie, sagte im «Guardian», er sei «überhaupt nicht überrascht» über die Ergebnisse der Brown-Studie. In den meisten Fällen würden sich hinter verdächtigen Accounts Computerprogramme verbergen. Je mehr derartige «Internet-Trolle» es gebe, desto eher würden die Menschen glauben, dass hinsichtlich der Klimakrise und ihren Ursachen eine «Meinungsvielfalt» bestehe, was wiederum die Klimawissenschaft schwäche.

«Gefährlich und einflussreich»

John Cook, ein australischer Kognitionswissenschaftler und Mitautor der Lewandowsky-Studie sagte im «Guardian», dass Bots «gefährlich und potenziell einflussreich» seien. So gebe es Beweise dafür, dass sich Menschen, die gleichzeitig Fakten und Fake-News ausgesetzt sind, oft in die Irre leiten liessen. «Das ist eines der heimtückischsten und gefährlichsten Elemente der von Bots verbreiteten Fehlinformationen - nicht nur, dass Fehlinformationen für die Menschen überzeugend sind, sondern dass allein die Existenz von Fehlinformationen in sozialen Netzwerken dazu führen kann, dass die Menschen den genauen Informationen weniger vertrauen oder sich ganz von den Fakten lösen».

Wie der «Guardian» ausserdem schreibt, befürchten in den USA Befürworter von Massnahmen zur Bewältigung der Klimakrise, dass die Bot-Aktivitäten auf Twitter im Zuge der US-Präsidentschaftwahlen in diesem Jahr weiter zunehmen werden. «Auch wenn wir nicht wissen, wer sie sind oder ihre genauen Motive kennen, scheint es offensichtlich, dass Trump von der positiven Unterstützung, die er von diesen Bots und ihren Machern erhält, lebt», sagte Ed Maibach, ein Experte für Klimakommunikation an der George Mason University gegenüber dem «Guardian».

Themenbezogene Interessen (-bindung) der Autorin/des Autors

keine

Meinungen / Ihre Meinung eingeben

Ähnliche Artikel dank Ihrer Spende

Möchten Sie weitere solche Beiträge lesen? Ihre Spende macht es möglich:

Mit Kreditkarte oder Paypal - oder direkt aufs Spendenkonto für Stiftung SSUI, Jurablickstr. 69, 3095 Spiegel BE
IBAN CH0309000000604575581 (SSUI)
BIC/SWIFT POFICHBEXXX, Clearing: 09000

Ihre Spenden können Sie bei den Steuern abziehen.

Einzahlungsschein anfordern: kontakt@infosperber.ch (Postadresse angeben!)

2 Meinungen

Wer selber Webseiten betreibt und zwischendurch Einsicht in die Serverprotokolle nimmt, der kennt das Trommelfeuer maschinellen Ursprungs, das gibt es schon lange. Blockiert man das ganze Treiben, lebt es sich trotzdem ganz passabel, oder gerade deswegen ganz passabel.
Mike Wieland, am 05. März 2020 um 13:57 Uhr
Das Internet ist längst von neoliberalen Interessengruppen pervertiert worden. Nicht nur biedern sich Algorithmen mit Werbung bei uns an, damit wir eingetrichtert bekommen, was wir kaufen sollen, auch zahlungskräftige Lobbyisten haben mehr Macht. So wäre jeder Wutbürger auf Twitter längst gesperrt worden, wenn er sich wie Donald Trump benehmen würde. Nicht so Trump, denn er ist ein Milliardär, den man als CEO von Facebook oder Twitter ja nicht desavouieren darf. Ich bin sicher, dass auch Parteien wie die SVP, wenn nicht Bots, so doch Schreibwerkstätten in den Onlineforen der Tageszeitungen einsetzen (Operation Libero und Economiesuisse haben es immerhin schon zugegeben). Selbstverständlich machen da Konzerne wie Tamedia mit, indem sie neben der Bevorteilung von SVP-Themen noch von den Klickraten der Bots und Auftragsschreiberlingen profitieren. Man muss doch das rechtsgerichtete Grosskapital auf seiner Seite haben.
Thomas Läubli, am 07. März 2020 um 04:32 Uhr

Ihre Meinung

Loggen Sie sich ein. Wir gestatten keine Meinungseinträge anonymer User. Hier können Sie sich registrieren.
Sollten Sie ihr Passwort vergessen haben, können Sie es neu anfordern. Meinungen schalten wir neu 9 Stunden nach Erhalt online, damit wir Zeit haben, deren Sachlichkeit zu prüfen. Wir folgen damit einer Empfehlung des Presserats. Die Redaktion behält sich vor, Beiträge, welche andere Personen, Institutionen oder Unternehmen beleidigen oder unnötig herabsetzen, oder sich nicht auf den Inhalt des betreffenden Beitrags beziehen, zu kürzen, nicht zu veröffentlichen oder zu entfernen. Über Entscheide der Redaktion können wir keine Korrespondenz führen. Zwei Meinungseinträge unmittelbar hintereinander sind nicht erlaubt.