Netzaktivist will Facebooks Filterbubble diskutierbar machen

Der Forscher und Aktivist Claudio Agosti möchte dem Facebook-Filter entgegenwirken. Er will den Nutzern selbst die Möglichkeit geben, bewusste und informierte Entscheidungen zu treffen.

In Pocket speichern vorlesen Druckansicht 19 Kommentare lesen
Filtervergleich

(Bild: Dominic Lipinski / PA Wire / dpa)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Soziale Netzwerke publizieren Inhalte in unüberschaubaren Mengen, sodass sie jedem Nutzer nur eine Teilmenge präsentieren können. Algorithmen wählen diesen Ausschnitt aus und sollen damit die Interessen des Nutzers möglichst gut treffen. Eine Folge davon ist die berüchtigte Filterblase. Damit wird der Effekt bezeichnet, dass Benutzer nur noch Informationen zu sehen bekommen, die ihr Weltbild bestätigen.

Dem Projekt tracking.exposed zufolge geht das Problem aber viel weiter: Die Netzwerke lassen sich nur sehr ungern in die Karten schauen und hüten die entsprechenden Algorithmen als Geschäftsgeheimnisse. Dadurch sind Nutzer nicht nur in ihrer Filterblase gefangen, sie verstehen auch nicht, wie sich diese Blase aufbaut. Sie können kaum Einfluss darauf nehmen, welche Informationen ihnen angezeigt und welche vor ihnen versteckt werden. Im Regelfall erkennen Sie nicht einmal, dass etwas verborgen bleibt – und sie können deshalb auch nicht darüber diskutieren.

Claudio Agosti, dem Gründer von tracking.exposed, ist dieser Kontrollverlust ein Dorn im Auge. Er meint, Nutzer sollten die Filter zumindest verstehen und idealerweise auch verändern oder austauschen können. Eine Art Open-Source-Community für gesellschaftsrelevante Algorithmen schwebt Agosti vor. Die würde es erlauben, sich mit anderen über solche Algorithmen auszutauschen und bewusste Entscheidungen darüber zu treffen, wie Informationen gefiltert werden. Als „algorithmische Diversität“ bezeichnet das Projekt dieses Ziel und versteht sich selbst dabei als Dachorganisation, unterhalb derer sich verschiedene spezifischere Projekte ansiedeln können.

Mehr Infos

Die Forderungen von tracking.exposed finden sich im Detail in deren Manifest. Auf einem eigenen Blog liefert das Projekt eigene Informationen zur Datenauswertung.

Das technisch am weitesten fortgeschrittene davon ist facebook.tracking.exposed, kurz „fbTREX“, das speziell den Newsfeed-Algorithmus von Facebook im Visier hat. fbTREX entwickelt Browser-Plug-ins für Chrome und Firefox, die die Newsfeeds ihrer Anwender im Blick haben und die öffentlichen Posts an das Projekt weiterleiten. Dort werden die Feeds mit denen anderer Nutzer verglichen und statistisch ausgewertet. Angesichts der Größe von Facebook und der Dynamik, mit der HTML-Code und Feed-Filter geändert werden, ist das kein leichtes Unterfangen.

fbTREX will aber ohnehin kein schlüsselfertiges Produkt sein, sondern versteht sich als Infrastruktur. „Das Ziel ist nicht, Millionen von Nutzern zu bekommen, sondern die Auswirkungen des Algorithmus aufzuzeigen“, schreibt das Projekt. Es will Diskussionsgrundlagen schaffen und „Beweismaterial sammeln“. Schon der Vergleich der Feeds einzelner Nutzer kann zeigen, dass der Algorithmus dieselben Meldungen von Nutzer zu Nutzer sehr unterschiedlich bewertet. Und man kann auch mit einer vergleichsweise kleinen Nutzerbasis zumindest grobe Rückschlüsse darauf ziehen, nach welchen Kriterien Facebook sortiert. Der Algorithmus ist so zwar kaum komplett offenzulegen, aber sein Wirken wird immerhin sichtbarer. Effekte des Algorithmus können so infrage gestellt werden und Nutzer können Facebook mit ihren Beobachtungen konfrontieren.

Bei diesem zweiten Schritt will tracking.exposed ebenso helfen. Seine Unterprojekte sollen nicht nur Daten bereitstellen, sondern auch auswerten. Als erstes dieser Art untersuchte elezioni.tracking.exposed Verzerrungen in Facebooks Newsfeed während des Wahlkampfes in Italien. Diese Fallstudie konnte unter anderem zeigen, dass faschistoid eingestellte Nutzer vom Algorithmus sehr viel stärker isoliert werden als Anwender mit anderen politischen Ansichten.

Aktuell arbeitet fbTREX unter anderem an einem besseren Interface zur Analyse der Daten: Letztendlich sollen alle Mitglieder der Gesellschaft und nicht nur technikaffine Nutzer von fbTREX die Auswirkungen solcher Algorithmen sehen und diskutieren können. Aber auch mit guten Benutzerschnittstellen lässt sich die Thematik nicht beliebig vereinfachen. Parallel will fbTREX daher eine Community heranwachsen lassen, die den gesellschaftlichen Diskurs befördert und auch technisch weniger versierte Menschen unterstützt.


Projekte wie fbTREX sind wichtig und überfällig. Um ihre Aufgabe zu erfüllen, müssen sie aber langfristige soziale Effekte entfalten – und da liegt die größte Unwägbarkeit. Netzwerke wie Facebook sind immer noch eine relativ neue Erscheinung und gerieren sich gerne als Plattformen, die den veröffentlichten Inhalten ihrer Nutzer neutral gegenüber stehen. Jede Diskussion über inhaltliche Tendenzen in ihren Filtern schadet diesem Bild, und deshalb stellen sie sich dieser Debatte nur ungern.

Projekte wie fbTREX ermöglichen eine fundierte Auseinandersetzung in der Gesellschaft, unabhängig vom Gutdünken der Konzerne. Diese Chance muss aber auch aufgegriffen und kontinuierlich genutzt werden. tracking.exposed träumt von einer Zukunft in der „Algorithmen, die definieren, was unsere Prioritäten sind, als Erweiterungen unseres eigenen Willens aufgefasst werden“. Das Projekt schreibt weiter: „Wir müssen fähig sein, unsere eigenen Algorithmen bewusst zu entwerfen [und] zu verändern wann immer wir wollen.“

Das erfordert aber viel Bildung und Aufmerksamkeit aufseiten der Nutzer. Und es benötigt auch viel Zeit, die viele Anwender vielleicht nicht aufbringen wollen. Eine Community nach Art der Open-Source-Bewegung soll da helfen, sagt tracking.exposed. Das wäre zwar sehr wünschenswert, aber es scheint mir fraglich, wie erfolgreich so etwas sein kann.

Zum einen gibt es zahlreiche technische und soziale Fallstricke beim Aufbau und Unterhalt – das Internet ist voll von toten Projekten, die an internen Problemen und Streitigkeiten gescheitert sind. Zum andern erscheint es grundsätzlich nicht ungefährlich, Filteralgorithmen von einer Community bewerten zu lassen: Je nachdem, wen man fragt, sind die Code-Beispiele auf StackOverflow berühmt oder berüchtigt, auch die mit vielen positiven Bewertungen. Die Mehrheit hat eben bei Weitem nicht immer recht. Zugegeben, besser als einen Konzern hinter verschlossenen Türen entscheiden zu lassen, wäre das aber allemal. (Sylvester Tremmel)

Dieser Artikel stammt aus c't 14/2019. (syt)