Facebook: Wir filtern uns selbst

Der "Newsfeed" des sozialen Netzwerks bekommt regelmäßig viel Kritik, weil er alternative Meinungen wegzulassen scheint. Einer Facebook-Studie zufolge kann der Algorithmus dafür aber wenig.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 4 Min.
Von
  • Rachel Metz

Der "Newsfeed" des sozialen Netzwerks bekommt regelmäßig viel Kritik, weil er alternative Meinungen wegzulassen scheint. Einer Facebook-Studie zufolge kann der Algorithmus dafür aber wenig.

Bei Facebook dreht sich bekanntlich alles um den Newsfeed: In diesem nicht enden wollenden Nachrichtenstrom liest man die geteilten Links der Freunde, bekommt Inhalte von Unternehmen, bei denen man "Like" gedrückt hat, und kann sich die neuesten Fotos und Videos der Internet-Bekanntschaft ansehen.

Wie sich dieser Newsfeed zusammensetzt, entscheidet ein geheimer Algorithmus, dem Kritiker vorwerfen, eine Filterblase zu erzeugen: Man erhalte selten alternative Inhalte zur eigenen Meinung, etwa aus der Politik, heißt es. Ergo: Ist der Nutzer liberal eingestellt, sieht er keine Neuigkeiten aus der konservativen Ecke – und umgekehrt.

Forscher des sozialen Netzwerks sind dem Phänomen nun nachgegangen und haben dazu den Newsfeed zahlreicher politisch interessierter Nutzer untersucht. Das Ergebnis der Studie, die in "Science" veröffentlicht wurde: Offenbar limitiert die eigene Freundesauswahl das im Newsfeed unterbreitete Inhalteangebot deutlich stärker als die Technik.

Dazu wurde untersucht, wie Nutzer politische Internet-Nachrichten, die Freunde unterschiedlicher politischer Ausrichtung mit ihnen teilen, konsumieren. Mehrere Millionen URLs wurden dazu analysiert – von US-Usern, die sich in ihrem Profil als jeweils "liberal" oder "konservativ" bezeichneten.

Facebook-Forscher Eytan Bakshy, Mitglied des Data-Science-Teams und Co-Autor der Studie, sagt, man habe dabei herausgefunden, dass der Newsfeed-Algorithmus die Wahrscheinlichkeit der Anzeige von Nachrichten mit anderen politischen Meinungen nur leicht reduziere. "Am Ende geht es um individuelle Wahlmöglichkeiten – die Auswahl der Freunde – und was gelesen wird – sind wichtiger als der Effekt der Sortierung durch den Algorithmus", sagt er.

Vor drei Jahren hatten Bakshy und seine Kollegen bereits gezeigt, dass die meisten Informationen, die man über Facebook erhält, von Personen stammen, mit denen man nur schwache Kontakte unterhält – auch wenn die Wahrscheinlichkeit höher ist, dass man Informationen aus dem näheren Umfeld ansieht und weitergibt. Schon das war für den Facebook-Forscher ein Zeichen, dass die berühmte Filterblase so nicht existiert. Damals war allerdings nicht untersucht worden, wie viele Informationen man von Leuten erhält, die einen anderen ideologischen Standpunkt haben als man selbst.

Um dies nachzuholen, analysierten die Forscher anonymisierte Daten von 10,1 Millionen Facebook-Nutzern, die sich öffentlich als liberal oder konservativ titulierten – und sieben Millionen URLs auf "harte" politische Nachrichtentexte, die vom 7. Juli bis zu 7. Januar per Facebook geteilt wurden.

Behandelt wurden nur solche URLs, die von mindestens 20 Nutzern mit einer bestimmten politischen Haltung geteilt wurden. Ihnen wurde dann darauf basierend ein Label verpasst – liberal, neutral oder konservativ.

Ergebnis: Immerhin 24 Prozent der URLs, die Freunde liberaler Facebook-Benutzer teilten, entsprachen dem Profil konservativer Benutzer, im konservativen Spektrum waren es für "liberale" Geschichten sogar 35 Prozent. Durchschnittlich wurden Nutzer also zu 29,5 Prozent mit Inhalten von der anderen Seite des politischen Spektrums konfrontiert.

Der Einfluss des Newsfeed-Algorithmus auf die Anzeige solcher Nachrichten ist dagegen klein, so die Facebook-Forscher: Insgesamt habe dieser die Anzahl der URLs mit einer gegensätzlichen politischen Meinung um weniger als 1 Prozent reduziert – von 29,5 auf 28,9 Prozent.

Geprüft wurde auch, was Nutzer tatsächlich gelesen haben. Demnach reduziert sich die Chance, dass ein Konservativer einen liberalen Artikel anklickt, um 17 Prozent – gerechnet auf alle anderen "harten" Nachrichtengeschichten im Newsfeed. Bei den Liberalen lag das Minus bei 6 Prozent.

Sharad Goel, Juniorprofessor an der Stanford University, der das Thema Filterblasen untersucht, meint, das Problem werde schon seit Jahren diskutiert, doch nur Facebook sei in der Lage, es wirklich zu untersuchen. Zudem dürfe man nicht vergessen, dass Nutzer ihre Nachrichten aus vielen Quellen beziehen – was den Einfluss, den die Facebook-Lektüre hat, reduziere. "Ich stimme aber mit der grundsätzlichen Aussage überein, dass der Algorithmus allein nicht so stark zur Polarisierung beiträgt." (bsc)