Fake News

Laut der Studie gibt es einen «ganzen Markt» von Dienstleistern, die im Auftrag von – auch demokratisch gewählten – Regierungen oder Politikern «lukrative Verträge und politische Verbindungen über ethische oder rechtliche Integrität stellen». © georgejmclittle / Depositphotos

Wie Regierungen mit künstlicher Intelligenz manipulieren

Pascal Derungs /  Dutzende von Regierungen weltweit desinformieren und zensieren online immer stärker. Sie nützen dabei neueste Technologie.

KI-basierte Tools, die Text, Audio und Bilder generieren sowie bestehende Inhalte analysieren können, sind in kurzer Zeit immer ausgefeilter, zugänglicher und benutzerfreundlicher geworden. Dies hat weltweit zu einer besorgniserregenden Eskalation von Desinformationstaktiken geführt. Regierungen und politische Akteure auf der ganzen Welt, sowohl in Demokratien als auch in Autokratien, nutzen KI, um Texte, Bilder und Videos zu generieren, welche die öffentliche Meinung zu ihren Gunsten manipulieren, oder sie nutzen KI, um kritische Online-Inhalte automatisch zu zensieren. Das zeigt eine neue, detaillierte Studie von «Freedom House», einer Menschenrechtsorganisation in den USA.

In der Studie dokumentieren die Forscher insbesondere den Einsatz generativer KI in 16 Ländern, «um Zweifel zu säen, Gegner zu verleumden oder die öffentliche Debatte zu beeinflussen». Es sei «ein ganzer Markt von Auftragsdienstleistungen entstanden, welche die staatlich unterstützte Manipulation von Inhalten unterstützen», heisst es in dem Bericht. Mit diesem Outsourcing werde es schwerer, Regierungen eine Einflussnahme nachzuweisen.

Staatsbeamte geben Aufträge

«Staatsbeamte haben Netzwerke von privaten Akteuren aufgebaut, die bereit sind, falsche und irreführende Inhalte zu verbreiten. Anstatt das politische Risiko einzugehen oder die Ressourcen zu entwickeln, um sich selbst an solchen Aktivitäten zu beteiligen, kann eine Wahlkampagne, ein Politiker oder ein Ministerium einfach einen Social-Media-Influencer oder eine PR-Firma beauftragen, die lukrative Verträge und politische Verbindungen über ethische oder rechtliche Integrität stellen.»

Neben Russland führt der Bericht als ein Beispiel Israel an. Dort sei «ein wachsender Markt von Unternehmen entstanden, die Desinformationen in Auftrag geben». Eine Untersuchung mehrere Medien, darunter der «Guardian», habe 2023 die Arbeit einer in Israel ansässigen Firma namens Team Jorge aufgedeckt. Sie nutze demnach eine Online-Plattform, die automatisch Texte auf der Grundlage von Schlüsselwörtern erstellen kann und diese dann über ein Netzwerk von gefälschten Konten in den sozialen Medien verbreite. So habe die Firma etwa Geschichten gestreut, die Anschuldigungen in Zweifel ziehen sollten gegen den ehemaligen Direktor der mexikanischen Kriminalpolizei, er sei in Folter, Entführung und Fälschung von Beweisen verwickelt.

In Angola unterstützte das in Israel ansässige Unternehmen Mind Force laut dem «Freedom House»-Bericht über ein Netzwerk von Meta-Konten mit Posts die regierende Volksbewegung für die Befreiung Angolas und machte Stimmung gegen die wichtigste Oppositionspartei des Landes. «Ein Mitarbeiter von Mind Force gab öffentlich bekannt, dass die angolanische Regierung ein Kunde war.»

Die Internetfreiheit geht seit mehr als einem Jahrzehnt zurück

Der jährliche Bericht «Freedom on the Net» bewertet Länder nach ihrem relativen Grad an Internetfreiheit, gemessen an einer Vielzahl von Faktoren wie Internetabschaltungen, Gesetzen, die die Online-Meinungsäusserung einschränken, und Vergeltungsmassnahmen für Online-Meinungsäusserungen. Die Ausgabe 2023, die am 4. Oktober veröffentlicht wurde, ergab, dass die globale Internetfreiheit im 13. Jahr in Folge zurückging, wesentlich zurückzuführen auf die Verbreitung künstlicher Intelligenz.

Zusätzlich zu generativen KI-Tools hätten Regierungen auch in herkömmliche Taktiken intensiviert, wie zum Beispiel der Verwendung einer Kombination aus menschlichen und Bot-Kampagnen, um Online-Diskussionen zu manipulieren. Mindestens 47 Regierungen hätten im Jahr 2023 Kommentatoren eingesetzt, um Propaganda zu verbreiten – doppelt so viele wie noch vor zehn Jahren, analysiert der Bericht.

«Freedom House» kann allerdings nicht als komplett unabhängig bezeichnet werden. Die Organisation hat ihren Sitz in Washington und wird zum Teil mit Geldern der US-Regierung finanziert. Die «Twitter Files» etwa werden in der Studie nicht erwähnt.* In ihrer Selbstdarstellung bezeichnet sich «Freedom House» als «Organisation, die sich der Unterstützung und Verteidigung der Demokratie auf der ganzen Welt verschrieben hat.» 

Studie Freedom on the Net 2023
Neuer Rekord: 41 Regierungen blockierten Websites mit politischen, sozialen oder religiösen Inhalten. Auch Deutschland, Grossbritannien und Italien werden als Beispiele in der Grafik genannt. Die USA fehlen in dieser Aufzählung (blau: Einschränkungen bei Internetverbindungen; türkis: Blockieren von Inhalten auf Social Media; gelb: Blockieren von Websites; gelb: Blockieren von virtuellen privaten Netzwerken (VPN); braun: Entfernen von Inhalten erzwungen).

KI verschärft die Krise der Internetfreiheit

«Die Freiheit des Internets ist auf einem historischen Tiefstand, und die Fortschritte in der KI verschlimmern diese Krise sogar noch», so Allie Funk, eine Forscherin und Mitautorin des Forschungsberichts. Funk sagt, dass eine ihrer wichtigsten Erkenntnisse in diesem Jahr mit Veränderungen in der Methode zu tun habe, wie Regierungen KI einsetzten. Man fange erst an zu lernen, wie die Technologie die digitale Unterdrückung fördert. Funk identifiziert zwei Hauptfaktoren für diese Veränderungen: 

  • Die Erschwinglichkeit und Zugänglichkeit generativer KI senke die Eintrittsbarriere für Desinformationskampagnen. 
  • Innovationen im Bereich der KI hätten es den Regierungen ermöglicht, Zensur präziser und subtiler einzusetzen. Sie sei schwieriger nachweisbar und behindere so eine öffentliche Gegenreaktion. Dies senke die politischen Risiken für die Machthaber.

Deepfakes sind die neuste Sphäre der Desinformation 

Während Wahlperioden und in Phasen politischer Krisen würden besonders viele KI-generierte, falsche Inhalte produziert, stellt der Bericht fest. So hätten venezolanische Staatsmedien beispielsweise regierungsfreundliche Botschaften durch KI-generierte Videos von Nachrichtensprechern eines nicht existierenden internationalen englischsprachigen Kanals verbreitet. Diese seien von «Synthesia» produziert worden, einem Unternehmen, das kundenspezifische Deepfakes anbietet.

Ein weiteres, im Bericht von «Freedom House» genanntes Beispiel war Pakistan: Dort teilte der ehemalige Premierminister Imran Khan im Mai 2023, inmitten eines eskalierenden politischen Konflikts zwischen ihm und dem vom Militär unterstützten Establishment, ein KI-generiertes Video. Es zeigte eine Frau, die sich furchtlos der Polizei entgegenstellte. Khan habe so den Eindruck erwecken wollen, dass die Frauen Pakistans zu ihm stünden und nicht zum Militär.

«Vor den nigerianischen Wahlen im Februar 2023 wurden Influencer bezahlt – einer erhielt Berichten zufolge bis zu 45’000 US-Dollar – um falsche Geschichten zu verbreiten, die politische Kandidaten mit militanten oder separatistischen Gruppen in Verbindung brachten», heisst es in dem Bericht. Während der Wahlen in Kenia im August 2022 hätten Influencer mit den Trending-Funktionen von Social Media-Plattformen gespielt, um irreführende politische Hashtags zu verbreiten. «So wurde beispielsweise mit dem Hashtag #ChebukatiCannotBeTrusted versucht, die unabhängige Wahlbehörde des Landes zu untergraben, indem suggeriert wurde, dass ihr Leiter einen Präsidentschaftskandidaten gegenüber den anderen unterstützt.» Ähnliche Netzwerke von Influencern hätten Desinformationskampagnen gegen kenianische Journalisten, Richter und Mitglieder der Zivilgesellschaft koordiniert. Und in den Vereinigten Staaten machten KI-manipulierte Videos und Bilder von politischen Führern in den sozialen Medien die Runde. Als Beispiele führt der Bericht ein Video an, in dem Präsident Biden transphobe Kommentare abgibt, und ein Bild von Donald Trump, der Anthony Fauci umarmt.

KI-Zensur nährt Zweifel und Vertrauensverlust

Obwohl diese neusten Entwicklungen nicht unbedingt überraschend seien, sagt Funk, bestehe eine der interessantesten Erkenntnisse darin, dass die weit verbreitete Zugänglichkeit generativer KI das Vertrauen in überprüfbare Fakten untergraben könne. Selbst wenn Deepfakes offensichtlich fabriziert oder schnell als solche entlarvt würden, schwächten sie dennoch die Informationssphäre, indem sie eine zuverlässige und unabhängige Berichterstattung übertöne, Aktivisten und Journalisten zur Selbstzensur anrege und das Vertrauen der Öffentlichkeit in demokratische Prozesse untergrabe. KI-generierte Bilder könnten die Empörung über kontroverse Themen hochschaukeln und so die Polarisierung und andere bestehende Spannungen innerhalb der Gesellschaft verfestigen. Im Extremfall könne es zu Gewalt gegen Einzelpersonen oder ganze Gemeinschaften kommen. Die Auswirkungen von KI-generierter Desinformation würden sich noch verstärken, fürchtet Funk. Denn ihre Häufung und zunehmende Raffinesse werde es Beobachtern, Moderatoren und Regulierungsbehörden zunehmend erschweren, sie als Desinformation zu erkennen, zu entlarven oder zu entfernen.

Manipulatoren machen sich «Lügendividende» zunutze

Wenn KI-generierte Inhalte im Internet zur Normalität werden, warnt die Studie, «wird es politischen Akteuren ermöglicht, verlässliche Informationen in Zweifel zu ziehen». Es ist ein Phänomen, das als «Lügendividende» bekannt ist, bei dem die Vorsicht vor Fälschungen die Menschen skeptischer auch gegenüber wahren Informationen macht, insbesondere in Krisenzeiten oder politischen Konflikten, wenn falsche Informationen weit verbreitet sein können. So lösten im April 2023 durchgesickerte Tonaufnahmen von Palanivel Thiagarajan, einem prominenten indischen Beamten, eine Kontroverse aus, nachdem sie zeigten, wie der Politiker Parteifreunde verunglimpfte. Prompt bezeichnete Thiagarajan die Audioclips als maschinell generiert. Unabhängige Forscher stellten später fest, dass mindestens eine der Aufnahmen authentisch war.

Social Media Kanäle als Gehilfen der Staatszensur

In vielen Ländern verbieten die Gesetze Formen der politischen, sozialen und religiösen Meinungsäusserung, die nach internationalen Menschenrechtsstandards frei und geschützt sein sollten. In mindestens 22 solcher Länder seien Social-Media-Unternehmen verpflichtet worden, automatisierte Systeme zur Moderation und gegebenenfalls Unterdrückung von Inhalten einzusetzen. Dies sei explizit sie auch indirekt geschehen, durch die Auferlegung knapper Fristen für die Entfernung von verbotenem Material. Dieser Einsatz von KI sei nicht nur sehr effizient, er verschleiere zudem die Rolle des Staates bei der Zensur, mahnt die Studie.

KI-Technologie ist nicht vor Missbrauch zu schützen

Unternehmen wie OpenAI und Google haben Leitplanken eingeführt, um einige offenkundig schädliche Anwendungen ihrer Chatbots zu reduzieren. Forscher hätten jedoch Techniken identifiziert, um die Sicherheitsvorkehrungen beliebter Chatbots zu durchbrechen, so dass sie schädliche, falsche, diskriminierende oder missbräuchliche Texte erzeugten, einschliesslich Fehlinformationen über die COVID-19-Pandemie und die russische Invasion in der Ukraine. Generative KI-Anwendungen hätten auch falsche und schädliche Aussagen über prominente Mitglieder der Zivilgesellschaft hervorgebracht. Die Gefahren von KI-gestützten Desinformationskampagnen würden in die Höhe schnellen, da böswillige Akteure zusätzliche Möglichkeiten entwickelten, Sicherheitsvorkehrungen zu umgehen und Open-Source-Modelle auszunutzen.

Immer öfter werden Internetdienste ganz gesperrt

Wenig überraschend stellt die Studie fest, dass vor allem autoritäre Regime KI nutzen, um Zensur auszuweiten und effektiver zu machen. Diese sind es auch, die nach wie vor zum ultimativen Mittel der Sperrung und Blockierung greifen. Insgesamt hätten im vergangenen Jahr 41 Regierungen Websites für politische, soziale und religiöse Äusserungen gesperrt, was «die Verschärfung der Zensur auf der ganzen Welt» belege, sagt Funk. In der Rangliste von Freedom House verzeichnen Myanmar und China die restriktivste Internetzensur – ein Titel, den China seit neun Jahren in Folge innehat. Den stärksten jährlichen Rückgang der Internetfreiheit weist aktuell der Iran aus. Nach den historischen Protesten hatten die Behörden im Herbst 2022 Internetdienste abgeschaltet, WhatsApp und Instagram blockiert und die Überwachung massiv verstärkt. 

_____________________

*Infosperber fragte am 19.10.2023 bei «Freedom House» nach, weshalb die Twitter Files und der Druck, den die US-Regierung auf Twitter ausübte, damit bestimmte Tweets oder Twitter-Konten nur wenig Reichweite erzielten, im Bericht nicht genannt wurden. Falls noch eine Antwort eintrifft, werden wir sie hier vermerken.


Themenbezogene Interessenbindung der Autorin/des Autors

Keine. Übersetzung mit Hilfe von deepl.com
_____________________
Meinungen in Beiträgen auf Infosperber entsprechen jeweils den persönlichen Einschätzungen der Autorin oder des Autors.

Weiterführende Informationen

  • Die Schweiz wird von «Freedom House» gut bewertet. In der erwähnten Studie wird die Schweiz nicht genannt.

Zum Infosperber-Dossier:

KI.ralwel mit Hintergrund

KI – Chancen und Gefahren

Künstliche Intelligenz wird als technologische Revolution gefeiert. Doch es gilt, ihre Gefahren zu beachten.

Business_News_Ausgeschnitten

Medien: Trends und Abhängigkeiten

Konzerne und Milliardäre mischen immer mehr mit. – Die Rolle, die Facebook, Twitter, Google+ spielen können

Terrorist

NSA, BND, NDB: Totale Überwachung?

Die Angst vor terroristischen Anschlägen wird als Grund genannt für weitreichende Privatsphäre-Eingriffe.

War dieser Artikel nützlich?
Ja:
Nein:


Infosperber gibt es nur dank unbezahlter Arbeit und Spenden.
Spenden kann man bei den Steuern in Abzug bringen.

Direkt mit Twint oder Bank-App



Spenden


Die Redaktion schliesst den Meinungsaustausch automatisch nach drei Tagen oder hat ihn für diesen Artikel gar nicht ermöglicht.

2 Meinungen

  • am 1.11.2023 um 14:10 Uhr
    Permalink

    Darin, so vermute ich, liegt auch die Hauptursache, warum sich die Covid19-«Pandemie», im Gegensatz zur «Schweinegrippe» zehn Jahre zuvor, zu einer weltweiten Massenhysterie ausweiten konnte, obwohl die übrigen Startbedingungen praktisch die gleichen waren. Darin, und in den unsäglichen «Tests».

  • am 2.11.2023 um 08:04 Uhr
    Permalink

    Der Fokus sollte hier auf den Algorithmen liegen, welche soziale Netzwerke und Suchmaschinen verwenden, um ihren Nutzern Posts zu empfehlen und zu zeigen, oder eben nicht zu zeigen. Das sind meist opake Softwareanweisungen, die auf bestimmten Kriterien basieren, die ihnen vorgegeben wurden. In diesen Kriterien liegt immer auch mehrere subjektive Wertungen der Bewertenden, die des Öfteren zweifelhaft sind, aber immer deren Weltanschauung widerspiegeln.
    Kurz, verbietet man sozialen Medien die Verwendung solcher «Empfehlungsalgorithmen», wird es automatisch besser. Den Begriff «AI» oder «KI» sollte man hier sowieso nicht verwenden, das ist ein Begriff des Marketings der IT-Branche.

Comments are closed.

Ihre Meinung

Lade Eingabefeld...