Facebook-Studie soll Gefahr der "Filterbubble" widerlegen

Forscher bei Facebook wollten für eine Studie herausfinden, wie groß die Gefahr wirklich ist, dass die eigenen Nutzer in einer Filterbubble keine abweichenden Meinungen zu sehen bekommen. Beantwortet haben sie das aber nicht wirklich.

In Pocket speichern vorlesen Druckansicht 26 Kommentare lesen
Facebook

(Bild: dpa, Jens Büttner)

Lesezeit: 3 Min.

Die viel diskutierte Filterbubble auf Facebook ist gar nicht so hermetisch abgeriegelt wie oft gedacht. Das jedenfalls wollen Forscher des Data Science Teams von Facebook als zentrale Erkenntnis einer im Science Magazine veröffentlichten Studie verstanden wissen. Demnach bekommen Nutzer ein deutlich breiteres Spektrum an Links zu politischen Nachrichten zu sehen als vielleicht gedacht. Wenn sie trotzdem mehrheitlich Inhalte anklicken, die ihren eigenen Überzeugungen entsprechen, liegt das demnach in nicht geringerem Maße an ihrem eigenen Verhalten als am Algorithmus.

Bereits seit längerem wird diskutiert, welche Folgen es hat, dass sich Menschen auf Facebook vor allem mit Leuten verbinden, die ähnliche Ansichten haben. Möglich sei, dass dadurch jeweils eine Filterbubble entsteht, in der sich Nutzer vor allem ähnlichen oder gleichen Meinungen gegenübersehen. Für die Studie haben die Forscher nun das Klickverhalten von rund 10 Millionen US-amerikanischen Facebook-Nutzern ausgewertet. Und zwar solcher, die ihre eigene politische Überzeugung über das Eingabefeld in ihrem Profil als "liberal" oder "conservative" angegeben haben. Es wurde analysiert, wieviele Posts des jeweils gegenüberliegenden Spektrums den Nutzern angezeigt beziehungsweise vom Algorithmus vorenthalten wurde.

Der Studie zufolge versteckt der Algorithmus vor "Konservativen" rund 5 Prozent der "liberalen" Inhalte ihrer Freunde, bei "Liberalen" seien es andersherum 8 Prozent. Gleichzeitig sei die Wahrscheinlichkeit, dass ein "Konservativer" auf einen angezeigten "liberalen" Inhalt klicke, 17 Prozent geringer als bei anderen Beiträgen in seinem Newsfeed. "Liberale" kämen hier auf 6 Prozent. Insgesamt klickten die Nutzer aber ohnehin nur auf 7 Prozent der "harten Inhalte", also Nachrichten aus der weltweiten oder nationalen Politik.

Das Data Science Team von Facebook schlussfolgert nun, es sei nicht ausschließlich der Algorithmus, der dafür sorge, dass Nutzer vor allem mit Inhalten interagieren, denen sie mutmaßlich eher zustimmen. Diese Filterbubble sei in ähnlichem Maße selbstgemacht. Insgesamt habe sich aber auch gezeigt, dass Nutzer in substanziellem Maße Inhalte zu sehen bekommen, die von Freunden mit anderen (politischen) Standpunkten geteilt wurden. Die Größe und Zusammensetzung des Freundeskreises auf Facebook sei deswegen der wichtigste Faktor bezüglich der Breite an Meinungen, die Facebook-Nutzer zu sehen bekämen.

Dem Fazit des Facebook-Teams widerspricht die Journalistin Eva Wolfangel auf Spektrum der Wissenschaft. Die Studie vergleiche lediglich den Effekt, den der Algorithmus im Vergleich zum Verhalten des Nutzers selbst hat. Das Ergebnis sei jedoch das gleiche: Nutzer klicken Inhalte mit anderen Meinungen seltener. Offenbar wollten die Konsumenten "nichts anderes, als in ihrer Filterbubble in Ruhe gelassen zu werden". Viele ahnten außerdem nicht einmal, dass ihr Nachrichtenstrom auf Facebook von einem Algorithmus gesteuert wird, wie eine andere Studie gezeigt habe. Wenn sie den für ein Abbild der Realität hielten, ebne das den Weg für eine Radikalisierung. (mho)