Rabbit-Hole-Effekt: Studie sieht keine algorithmische YouTube-Radikalisierung

Radikalisiert der Empfehlungsalgorithmus von Youtube die Zuschauer? Eine interdisziplinare Untersuchung verneint und schlägt vor, nach neuen Gründen zu suchen.

In Pocket speichern vorlesen Druckansicht 43 Kommentare lesen
«QAnon»

QAnon gilt als klassische Rabbit-Hole-Story.

(Bild: Ehimetalor Akhere Unuabona / Unsplash)

Lesezeit: 7 Min.
Von
  • Enno Park
Inhaltsverzeichnis

Für die Radikalisierung, die in westlichen Gesellschaften zu beobachten ist, werden immer wieder Social-Media-Plattformen und insbesondere Youtube verantwortlich gemacht. Dessen Empfehlungsalgorithmus gepaart mit Autoplay-Mechanismen führe dazu, dass den Zuschauern mit der Zeit immer extremere Videos gezeigt würden.

Die Vorstellung: Wie in "Alice im Wunderland" geraten sie immer tiefer in den medialen Kaninchenbau einer skurrilen und verstörenden Parallelwelt, aus der sie nur schwer wieder herausfinden, weshalb dieser Vorgang als Rabbit-Hole-Effekt bezeichnet wird. Die These scheint gut belegt zu sein, schließlich wurden in den vergangenen Jahren immer neue, eindrucksvolle Geschichten von Menschen veröffentlicht, die explizit angaben, durch Youtube und immer extremere Videos radikalisiert worden zu sein. Die Vorwürfe führten dazu, dass die Google-Tochter selbst besonders radikale Inhalteanbieter von der Plattform warf und die verwendeten Algorithmen anpasste, sich aber weiterhin nicht immer an die eigenen Richtlinien zu halten scheint.

In einer aktuellen Studie geht die amerikanische Forscherin Homa Hosseinmardi mit ihrem interdisziplinären Team im Bereich der computergestützten Sozialwissenschaften nun der Frage nach, inwiefern der Empfehlungsalgorithmus auf Youtube wirklich zu einer Radikalisierung der Zuschauer führt. Das Team analysierte das Online-Verhalten von rund 300.000 US-Bürgern in den vier Jahren von Januar 2016 bis Dezember 2019. Dabei untersuchten die Forscher mehrere Fragen: Schauten die Personen politische Videos? Wenn ja, welchen politischen Richtungen sind diese Videos zuzuordnen? Kamen sie über eine Suche, einen externen Link oder den Empfehlungsalgorithmus an diese Videos? Und steigerten diejenigen, die rechtsradikale Inhalte ansahen, mit der Zeit ihren Konsum?

Überraschenderweise konnte das Team auf Basis der vorhandenen Daten alle diese Fragen mehr oder weniger eindeutig mit "nein" beantworten. Insgesamt waren nur 3,32 Prozent der betrachteten Videos politischen Richtungen zuzuordnen. Mit Abstand größte Gruppe waren die linken Inhalte mit 0,63 Prozent, während rechtsextreme Inhalte mit 0,05 Prozent die zweitkleinste Gruppe bildeten. Noch kleiner war nur noch die Gruppe der linksradikalen Inhalte, die mit 0,002 Prozent kaum sinnvoll messbar war. Die übrigen Gruppen konservativer und politisch mittig stehender Inhalte fanden sich dazwischen.

Interessant ist, dass die Forscher eine weitere Gruppe politischer Videos ausmachte, die sie "Anti-Woke" nannten. Diese enthielten sich vordergründig unpolitisch gebende Videos, die sich gegen Bewegungen und Organisationen wenden, die für mehr soziale Gerechtigkeit eintreten wollen. Während alle anderen Gruppen im Großen und Ganzen stabil blieben, was ihre Zuschauerzahlen betrifft, wuchs die "Anti-Woke"-Gruppe von 0,17 Prozent auf 0,3 Prozent.

Die Analyse des Online-Verhaltens ergab, dass nur 36 Prozent der extrem rechten Videos abgespielt wurden, nachdem bereits ein anderes Video angesehen wurde. 41 Prozent der rechten Videos wurden über externe Links von Webseiten wie Fox News, Breitbart oder Infowars gefunden, der Rest verteilt sich auf Suche, Kanalabos und die Youtube-Homepage (die allerdings auch algorithmisch gesteuert ist). Der Konsum von politischen Videos blieb in den einzelnen Gruppen relativ konstant mit Ausnahme besagter "Anti-Woke"-Videos. Ein Abwandern der Zuschauer von "Anti-Woke" in Richtung rechtsradikaler Inhalte und somit eine entsprechende Radikalisierung lässt sich den Zahlen nicht entnehmen. Eher scheint es so, als ob sich rechtsradikal gesinnte Menschen auch für "Anti-Woke"-Inhalte interessieren und ein großer Teil von deren Zuschauern sich selbst rechts verortet.

Die Ergebnisse der Studie beißen sich mit den Erfahrungsberichten von Menschen, die sich nach eigenen Angaben selbst im Rabbit Hole befanden. Das kann verschiedene Gründe haben. Dass Youtube zwischenzeitlich die Algorithmen angepasst hat, kann sich allenfalls bedingt auswirken, weil die Studie den Zeitraum 2016 bis 2019 abbildet, also genau jenen Bereich, in dem entsprechende Kritik überhaupt erst laut wurde. Es ist durchaus möglich, dass ein systematischer Rabbit-Hole-Effekt nicht stattfand, aber einzelne Menschen ihren Youtube-Konsum so erlebt haben – vergleichbar damit, wie manche Menschen auf die Wirkung bestimmter Heilmethoden schwören, welche aber empirisch nicht nachgewiesen werden kann.

Die Hosseinmardi-Studie selbst ist durchaus angreifbar. Sie umfasst lediglich Desktop-Nutzer und lässt damit die Mehrzahl derjenigen außen vor, die Youtube-Videos auf Mobilgeräten betrachten – eine enorm große Gruppe. Die Datenbasis stammt aus einem Panel des Meinungsforschungsinstitutes Nielsen, was die Frage erlaubt, inwiefern freiwillige Teilnehmer selbst in großer Zahl repräsentativ sein können.

Schließlich ist die Annahme nicht ganz abwegig, dass die Zielgruppe extrem rechter Videos sich eher nicht so gerne von einem Marktforschungsinstitut beim Online-Verhalten über die Schulter schauen lässt. Eine weitere Schwäche betrifft die Videos selbst: Die Studie ordnet 816 Youtube-Kanäle sowie einzelne Videos anhand ihrer Tags dem politischen Spektrum zu. Das kann zu einer großen Dunkelziffer nicht korrekt zugeordneter Videos führen.

Dennoch fügt sich diese Studie in ein Gesamtbild: Immer wieder werden technische Systeme und Algorithmen für gesellschaftliche Fehlentwicklungen verantwortlich gemacht, was sich dann bei näherer Betrachtung als nicht oder nur schwer haltbar erweist. So postulierte Eli Pariser 2011 die "Filter Bubble", wonach personalisierte Google-Suchergebnisse dazu führen, dass Google-Nutzer nur noch einseitige, ihrer Filterblase entsprechende Suchergebnisse erhalten. Die Untersuchung einer Datenspende von drei Millionen Google-Sucherergebnissen des Sozioinformatikers Tobias Krafft an der TU Kaiserslautern zeigte jedoch keinerlei solche Tendenzen.

Ganz ähnlich verhält es sich mit Social Bots, vollautomatischen Agenten, die in den sozialen Medien Propaganda verbreiten und Unfrieden stiften. Informatiker und Medienwissenschaftler Florian Gallwitz kann nach langer Suche keine Hinweise auf die Existenz solcher Systeme finden. Zwar gebe es Agenten, die automatisch Inhalte posten, aber hinter dem, was gemeinhin als "Social Bot" wahrgenommen wird, stecken eher menschliche Akteure. Dass ein algorithmischer Rabbit-Hole-Effekt nicht existiert, aber in der Gesellschaft empfunden und als Erklärungsmuster dankbar angenommen wird, ist also durchaus nicht unwahrscheinlich. Solche technischen Erklärungsmuster haben individuell wie gesellschaftlich den Effekt, Fehlentwicklungen wie eine zunehmende Radikalisierung auf angenehme und entschuldigende Weise wegzuerklären und sich mit der Frage nach ihren eigentlichen Ursachen nicht weiter beschäftigen zu müssen.

Das heißt aber nicht, dass technische Rabbit-Hole-Effekte nicht möglich wären – oder nicht passieren. Ganz im Gegenteil konnten Journalisten des "Wall Street Journal" mit einem Experiment zeigen, dass auf der zunehmend populären Plattform Tiktok eine Verengung auf bestimmte Inhalte stattfinden kann, wenn die Plattform erst einmal entsprechende Nutzervorlieben festgestellt hat. Und auch die Hosseinmardi-Studie leugnet nicht einen vorhandenen Rabbit-Hole-Effekt, sondern bestreitet, dass der Youtube-Empfehlungsalgorithmus eine zentrale Rolle darin spielt. Vielmehr sei Youtube als Teil eines großen sozioinformatischen Systems zu begreifen, in dem entsprechende Communitys solche Effekte erzeugen. Dass im Internet so genannte Playbooks kursieren, die das Vorgehen erläutern, wie mögliche Kandidaten für eine rechte Radikalisierung ausgemacht und bearbeitet werden, deutet ebenfalls darauf hin. In ihnen spielen Plattformen und ihre Algorithmen eine eher untergeordnete Rolle, es geht mehr um Inhalte und Ansprache bestimmter Zielgruppen.

(bsc)