Facebook hätte die Macht und die Mittel, demokratische Wahlen zu beeinflussen. © Daniela Gschweng
© Facebook-Hilfe

Facebook: Die politische Macht des Tech-Giganten

Red. / 18. Mai 2016 - «Sollte Facebook helfen, die Wahl Donald Trumps zu verhindern?» fragten Facebook-Angestellte den Facebook-CEO Mark Zuckerberg.

Es mag überraschend klingen, dass diese Frage überhaupt gestellt wurde. Könnte das Social-Media-Unternehmen demokratische Wahlen tatsächlich beeinflussen?

Facebook stellte dies sofort in Abrede. Das Unternehmen habe nie versucht, dies zu tun und es gibt auch keine Hinweise dafür. Die Plattform könnte es aber schon. Facebook ist mittlerweile das mächtigste Medienunternehmen der Welt.

Kein anders Medium hat so viel politischen Einfluss

Das kalifornische Unternehmen ist nicht nur ein Container für Katzenbilder, Eigenwerbung und persönliche Beziehungen, Facebook ist mittlerweile auch das grösste und mächtigste Medienunternehmen der Welt. Kein anderes Medium hat so viel politischen Einfluss.

Selbst wenn man davon ausgeht, dass Facebook diese Macht nicht nutzen wird, ist zu wenig bekannt darüber, wie sie zustande kommt und wie Facebook damit umgeht. Grund genug, sich ein paar Gedanken zu machen, schrieb die «New York Times» am 12. Mai.

Aus dem Nichts kam diese Warnung nicht. Anfang Mai warf der Blog «Gizmodo» Facebook vor, Nachrichten mit konservativen Inhalten systematisch unterdrückt zu haben. Der Bericht des Blogs stützt sich auf Aussagen ehemaliger Facebook-Mitarbeiter. Er rief immerhin so viel Sorge hervor, dass sich Mark Zuckerberg auf Initiative des konservativen Abgeordneten John Thune demnächst im US-Kongress erklären muss.

In der Kritik: die Inhalte der Facebook-Spalte «Trending Topics». (Bild: Facebook-Hilfe)

Bei den Vorwürfen geht es um die Facebook-Rubrik «Trending Topics» (Topaktuell), die es in der Schweiz und in Deutschland nicht gibt. Auf den ersten Blick sieht sie aus wie die Spalte «meist geklickt», die viele Onlinemedien führen. Aber wer oder was entscheidet, was dort auftaucht?

Zunächst das «Wer»

Die meisten Facebook-Nutzer glauben, dass das, was ihnen von Facebook präsentiert wird, von einem Programm bestimmt wird. Glaubt man hingegen den Berichten von «Gizmodo», wird bei Facebook kuratiert wie in jedem anderen Newsroom auch.

Angesichts der Vorwürfe hat Facebook die internen Richtlinien zur Auswahl der Rubrik «Nachrichten-Trends» veröffentlicht: Bei der Entscheidung, was für Facebooks Nutzer «Neuigkeiten» sind, sind in jeder Phase Menschen beteiligt. Inzwischen gibt es dazu auch eine FAQ-Seite von Facebook.

In den «Guidelines» geht es um allgemeine Anweisungen, wie Meldungen zu gestalten und sensible Themen zu behandeln sind. Weiter geht es darum, wann und wie in die Auswahl eingegriffen werden kann, die der Algorithmus von sich aus vorschlägt.

Auf menschliches Urteil kann auch Facebook nicht verzichten

Ganz auf maschinelle Intelligenz, rechtfertigten sich Facebook-Angestellte, könne man sich nicht verlassen. Nach den Unruhen in Ferguson im August 2014, die auf Facebook zu wenig präsent gewesen seien, sei deutlich geworden, dass das menschliche Urteil eben doch unverzichtbar sei. Damals war auf der Social-Media-Plattform die Ice Bucket Challenge im Vordergrund gestanden anstatt die Unruhen in Ferguson.

Aus Sicht von Facebook ist das gegenwärtige System ausgewogen: Elektronische und menschliche Faktoren glichen einander aus.

Geht es um Dinge, die Facebook nicht zeigen möchte, funktioniert die elektronische Auswahl eher weniger gut. Erst kürzlich wurde publik, wie Billigarbeiter auf den Philippinen die Inhalte grosser Plattformen von «unangemessenen» Inhalten säubern – teilweise auf Kosten ihrer psychischen Gesundheit (Infosperber berichtete).

Ein Algorithmus ist nicht objektiv

Damit zum «Was?»: Der Algorithmus wählt aus, was schon andere für wichtig oder nützlich befunden haben und präsentiert es auf einer Facebook-Seite an prominenter Stelle. Ganz ähnlich funktioniert die Vorauswahl der Nachrichten. Welche Quellen Facebook nach welchen Kriterien dazu auswertet, ist geheim und wird häufig geändert.

Ein Programm, darauf kann man sich zwar verlassen, entscheidet immer gleich. Genau genommen ist diese Entscheidung aber weder neutral noch objektiv. Denn hinter einem Programm stehen Menschen.

In die Programmierung eines Algorithmus fliessen menschliches Können, menschliche Erfahrung und auch die ein oder andere Schätzung ein. Im Zweifelsfall umfasst sie auch menschliche Vorurteile und Fehler. Welche Richtlinien die Suchmaschine benutzt, weiss der Nutzer nicht. Das Unternehmen legt seine Algorithmen nicht offen, Projektmanager und Programmierer bleiben normalerweise unbekannt.

Facebook ist anders – das ist ein Grund, sich Sorgen zu machen

Na und? Davon abgesehen, dass Facebook ein Technologie- und kein Medienunternehmen ist: Auch Medienunternehmen beschäftigen Angestellte, die menschliche Entscheidungen treffen, sind darauf angewiesen, Geld zu verdienen, sind nicht voll transparent, haben grosse Meinungsmacht und werden von wohlhabenden Menschen kontrolliert, die aus ihrer politischen Anschauung kein Hehl machen.

Doch Facebook ist anders und das ist ein Grund sich Sorgen zu machen, schreibt die «New York Times». Schon wegen seiner schieren Grösse. In vielen Ländern gilt der Markt für Facebook bereits als gesättigt. In der Schweiz gibt es etwa 3,7 Millionen aktive Facebook-Nutzer – das ist fast die Hälfte der Gesamtbevölkerung. In Ländern, in denen Facebook einen kostenlosen Zugang auf die App zur Verfügung stellt wie den Philippinen, stellt Facebook praktisch «das Internet» dar. Facebook gibt die Zahl der weltweiten User mit 1,6 Milliarden an.

Facebook polarisiert

Wer ein Facebook-Konto hat, kennt den selbstverstärkenden Effekt, den die Plattform haben kann: Inhalte, die einigen Leuten gefallen, werden geliked, geteilt, kommentiert. Dadurch erfahren mehr Nutzer davon, die ihrerseits wieder liken, teilen, kommentieren. Eine Art Schneeballsystem, das dadurch unterstützt wird, dass sich die meisten Nutzer «Freunde» suchen, die das eigene Wertesystem teilen. Die Polarisation jeden Inhalts ist damit eingebaut.

Facebook ist wenig vergleichbar

Facebook polarisiert nicht nur, es ist auch wenig vergleichbar mit konventionellen Medien. Was ein Nutzer in seiner Timeline sieht, ist nicht das Gleiche wie das, was sein Nachbar oder sein Partner sieht. Was wieder am Algorithmus liegt – diesmal am persönlichen. Auch das wäre nicht schlimm, im besten Fall ist diese Auswahl sogar nutzerfreundlich, wie Facebook behauptet.

Wenn das Problem der Kontrolle nicht wäre. Um konventionelle Medien zu vergleichen, werden sie nach Inhalten durchsucht. Haben von den grossen Zeitungen beispielsweise drei ein wichtiges Thema aufgegriffen und die vierte nicht, kann man fragen, wo die Gründe dafür liegen. Bei Facebook ist das unmöglich.

Dass Facebook Stimmungen beeinflussen kann, hat das Unternehmen in mehreren Tests bewiesen. 2010 wurde einigen Nutzern angezeigt, wenn andere Nutzer an Wahlen teilgenommen hatten. Das wiederrum animierte sie, selbst zu wählen.

Auf einen bestimmten Kandidaten abgestimmt waren die Tests nicht. Aber sie könnten es sein. Bemerken würde das wahrscheinlich niemand.

---

Diesen Beitrag hat Daniela Gschweng aufgrund von Berichten in der «New York Times» und des «Guardian» erstellt. Grosse Medien in der Schweiz haben bisher nicht darüber berichtet.

---

Themenbezogene Interessen (-bindung) der Autorin/des Autors

keine

Weiterführende Informationen

«Facebook’s Bias Is Built-In, and Bears Watching», New York Times
«Facebook news selection is in hands of editors not algorithms, documents show», The Guardian
«Former Facebook Workers: We Routinely Suppressed Conservative News», Gizmodo
Facebook Trending News Guidelines, internes Facebook-Dokument (PDF)
Facebook News Team Stylebook

Meinungen / Ihre Meinung eingeben

Ähnliche Artikel dank Ihrer Spende

Möchten Sie weitere solche Beiträge lesen? Ihre Spende macht es möglich:

Mit Kreditkarte oder Paypal - oder direkt aufs Spendenkonto für Stiftung SSUI, Jurablickstr. 69, 3095 Spiegel BE
IBAN CH0309000000604575581 (SSUI)
BIC/SWIFT POFICHBEXXX, Clearing: 09000

Ihre Spenden können Sie bei den Steuern abziehen.

Einzahlungsschein anfordern: kontakt@infosperber.ch (Postadresse angeben!)

2 Meinungen

Das wäre ja wunderbar, wenn die Wahl des Trumpeltiers verhindert werden könnte, aber der Gedanke, dass Facebook das könnte, ist doch unheimlich....
Martin A. Liechti, am 18. Mai 2016 um 15:28 Uhr
Die Möglichkeit der Beeinflussung wurde für Suchmaschinen systematisch untersucht. Google könnte vermutlich 20% und mehr der Wählerstimmen Steuern: https://en.m.wikipedia.org/wiki/Search_engine_manipulation_effect
Thorsten Roggendorf, am 21. Mai 2016 um 09:00 Uhr

Ihre Meinung

Loggen Sie sich ein, um Ihre Meinung unter Ihrem richtigen Namen zu äussern. Wir gestatten keine Meinungseinträge anonymer User. Hier können Sie sich registrieren.
Sollten Sie ihr Passwort vergessen haben, können Sie es neu anfordern. Achtung: Die Länge der Einträge ist beschränkt und wir erlauben nicht, zwei Meinungseinträge unmittelbar hintereinander zu platzieren. Unnötig herabsetzende Formulierungen ändern oder löschen wir ohne Korrespondenz.