Wie Meta/Facebook unabhängige Forschung blockiert
Mit Ad Observatory und AlgorithmWatch hat Facebook zwei unabhängigen Forschungsprojekten die (Daten-)Grundlage entzogen. Doch die Geblockten geben nicht auf.
Der jüngst in Meta umbenannte Facebook-Konzern kontrolliert mit seinen Diensten von Facebook über Instagram bis hin zu WhatsApp einen Großteil der Social-Media-Aktivitäten weltweit. Doch im selben Maß, wie die Plattformen Grenzen überwinden und Verbindungen schaffen, bergen sie auch enorme gesellschaftspolitische Sprengkraft: durch unbemerkt ablaufende Desinformationskampagnen, feingranular ausgespielte politische Werbung (Microtargeting) und von den Algorithmen bevorzugte Inhalte, die Klischees und Rollenbilder zementieren.
Belastbare Aussagen über die Größenordnung oder exakte Wirkungsweise sind allerdings schwer zu treffen. Forscher und zivilgesellschaftliche Organisationen versuchen deshalb vor allem im Vorfeld wichtiger Wahlen, den Mechanismen rund um die Verbreitung politischer Botschaften und Werbung auf den Grund zu gehen.
An vorderster Front kämpft die Computerwissenschaftlerin Laura Edelson von der New York University, die sich mit anderen Forschern in der Organisation "Cybersecurity for Democracy" zusammengeschlossen hat, um fürs Nutzer- und Gemeinwohl schädliche Entwicklungen auf Social-Media-Plattformen frühzeitig zu erkennen und gegenzusteuern. So rief die Gruppe ein viel beachtetes Datenspendeprojekt namens Ad Observatory ins Leben, um politische Werbung im Vorfeld der US-Präsidentschaftswahl zu analysieren.
Facebook sperrt Wissenschaftler aus
Doch das Untersuchungsobjekt zeigte sich nur mäßig begeistert und sperrte nach monatelangen Auseinandersetzungen schließlich im August dieses Jahres die Facebook-Konten der Wissenschaftler. Begründung: Das von den freiwilligen Teilnehmern der Studie installierte Browser-Add-on, das individuell ausgespielte Werbung und deren Metadaten automatisiert an die Cybersecurity-Server übertrug, habe die Privatsphäre von Facebook-Nutzern verletzt. Somit konnten Edelson und ihre Mitstreiter weder Erkenntnisse über politisches Werbe-Targeting im Dunstkreis der vergangenen US-Wahlen gewinnen noch ihre Forschungen zu Covid-19-Desinformation fortsetzen.
Betreutes Forschen
Auf der diesjährigen ACM Internet Measurement Conference Anfang November präsentierte Edelson nun dennoch eine gemeinsam mit Kollegen der Universität Grenoble verfasste Studie, die Nutzerreaktion und -interaktion auf Desinformationsseiten untersucht. Die Studie gibt auf zweierlei Art zu denken: Zum einen konnten die Forscher nachweisen, dass Posts von Seiten, die als unseriös gelten, bis zu sechsmal mehr Interaktion (also Shares und Likes) auslösen als Posts auf neutralen, faktengestützten Quellen.
Zum anderen zieht Edelson das ernüchternde Fazit, dass diese Erkenntnisse erst ein Anfang sind und eine Menge interessanter Fragen aufwerfen, die sich aber mit dem von Meta/Facebook über die offizielle Research-Schnittstelle bereitgestellten Datenmaterial nicht beantworten ließen – womit der vielversprechende Anfang auch gleichzeitig das Ende markiere.
Algorithm Watch: Instagram-Projekt im Streit beendet
Denn anders als das Ad-Observatory-Projekt stützt sich die Fake-News-Studie ausschließlich auf die offizielle Forscherschnittstelle CrowdTangle des Konzerns. Laut Edelson unterschlägt diese aber wichtige Daten wie etwa die Post Impressions, die es erlauben würden, die Ursachen der beobachteten Effekte zu ergründen. Im Gespräch mit c’t gibt die Wissenschaftlerin Einblick in das mühsame Geschäft, dem größten Datenschatz der Welt valide Informationen abzuringen (siehe Kasten unten).
Ähnlich erging es der deutschen Non-Profit-Organisation AlgorithmWatch, die sich die Erforschung der Auswirkung algorithmisch getroffener Entscheidungen auf die Fahnen geschrieben hat. Im August beendete AlgorithmWatch seine in Zusammenarbeit mit Medien und Forschern gestarteten Instagram-Untersuchungen auf unmissverständlichen Druck des Mutterkonzerns hin. Auch diese Projekte lebten von einem selbst entwickelten Datenspende-Add-on, mit dessen Hilfe ergründet werden sollte, welche Art von Content die Algorithmen bevorzugen. Vorläufiges Ergebnis: Sie honorieren eher stereotype Darstellung von Frauen, bevorzugt leicht bekleidet.
Laut AlgorithmWatch zweifelte Facebook nicht nur die Ergebnisse an und bescheinigte der Forschung pauschal methodische Schwächen, sondern drohte auch mit "formelleren Konsequenzen", weil das automatisierte Sammeln von Nutzerdaten die "Terms of Services" des Konzerns verletzten.
Im Kern ist es also ein ähnlicher Konflikt wie beim Ad Observer: Facebook stuft die Add-ons als Tools für automatisiertes Scrapen ein und stellt sie damit auf eine Stufe mit missbräuchlichen Verwendern wie Cambridge Analytica oder Clearview AI, die teils sensible Daten im großen Stil (auch von Nutzern, die nicht eingewilligt haben) von der Plattform abgesaugt hatten. Sowohl AlgorithmWatch als auch Cybersecurity for Democracy legen ihre Methoden und den verwendeten Code aber offen und stellen klar: Sie analysieren ausschließlich Daten, die Teilnehmer in ihrem privaten Feed angezeigt bekommen und freiwillig teilen. Privater Content anderer Nutzer werde umgehend gelöscht.
Riskanter Rechtsweg
Diese Sichtweise vor Gericht durchzusetzen, hält AlgorithmWatch-Geschäftsführer Matthias Spielkamp allerdings für wenig aussichtsreich. Denn "ob und wie Geschäftsbedingungen anwendbar sind, ist weltweit umstritten und weitgehend ungeklärt. Bei der Frage, ob man einen Rechtsstreit wagt, spielt nicht allein die Frage eine Rolle, ob man glaubt, die besseren Argumente zu haben. Es geht auch darum, ob man sich in ein Verfahren begeben will, das leicht Jahre dauern kann (bis zu zehn, wenn es bis vor den EuGH geht) und in dem man einen Gegner mit faktisch unbegrenzten Ressourcen hat", erklärt er auf Nachfrage von c’t.
Mehr verspricht er sich von Bemühungen, Transparenz direkt über gesetzliche Regelungen im Zuge des Digital Services Act zu erzwingen: "Die Tatsache, dass die Kommission bereit war, in Artikel 31 des Gesetzesvorschlags den verpflichtenden Datenzugang für externe Forschung zu verankern, zeigt die Bereitschaft, hier etwas zu erreichen." Allerdings müsse man auch hier aufpassen, dass die Ausnahmeregelung zum Schutz von Geschäftsgeheimnissen in Artikel 31(6)(b) von den Plattformen nicht als willkommenes Schlupfloch genutzt werde, um externe Forschung abzuwehren. "Es scheint jedoch derzeit, dass dieses Schlupfloch geschlossen werden könnte", gibt er sich optimistisch.
Facebook ging auf unsere detaillierten Fragen zur Verbesserung der Zusammenarbeit mit Forschern sowie den aktuellen Fällen nicht ein, sondern verwies auf und zitierte aus bereits veröffentlichten Statements.
Die Computerwissenschaftlerin Laura Edelson möchte herausfinden, wie soziale Medien die Gesellschaft durcheinander wirbeln. Aber Facebook gefällt das nicht.
c’t: Um politische Werbung auf Facebook zu untersuchen, setzen Sie auf Datenspenden von Nutzern. Die aktuelle Studie zu Desinformation stützt sich hingegen auf offiziell von Facebook bereitgestellte Daten. Warum?
Laura Edelson: Wir haben immer versucht, alle Daten zu nutzen, die Facebook zur Verfügung stellt, weil sie tendenziell eine sehr große Bandbreite abdecken. Aber unsere eigenen unabhängigen Daten helfen uns, das, was Facebook bietet, in einen Kontext zu setzen. Allerdings sind diese Daten verengt, weil sie von Leuten stammen, die unsere Citizen-Science-Tools nutzen. Wir haben nur 16.000 Nutzer. Das ist viel für ein Citizen-Science-Projekt, aber nur ein winzig kleiner Teil der globalen Facebook-Community.
c’t: Können Sie ein Beispiel nennen?
Edelson: Über das API von Facebooks Ad Library können Forscher sehr umfassende Informationen über politische Werbung gewinnen. Allerdings enthält sie nur Anzeigen, die Facebook als politisch einstuft. Die Frage ist aber, ob diese Datenbank vollständig ist, ob sie wirklich alle politischen Anzeigen erfasst und wie gut Facebook politische Werbung erkennen kann. Um dies zu beantworten, muss man aber auch Ads finden, die Facebook nicht als politisch eingestuft hat. Diese Aufgabe erfüllt der Ad Observer.
c’t: Facebook sagt, dass Ihr Add-on die Privatsphäre der Nutzer verletze, Kooperationsangebote abgelehnt wurden.
Edelson: Facebook meint damit die Privatsphäre der Werbetreibenden, und es stimmt natürlich, dass auch Werbekunden Facebook-Nutzer sind. Eines sehen wir aber anders: Wir glauben nicht, dass die Anzeigen von Werbetreibenden privat sind. Wir halten die Anzeigen, die unseren Nutzern gezeigt werden, für öffentlich und unsere Nutzer dürfen frei entscheiden, ihre Beobachtungen mit uns zu teilen, und wir wiederum dürfen diese mit der Öffentlichkeit teilen. Facebook hat uns kein Angebot gemacht, das uns erlaubt hätte, unsere Arbeit als eine Art unabhängiger Prüfer fortzusetzen.
c’t: Aber immerhin steht die Federal Trade Commission auf Ihrer Seite.
Edelson: Die FTC wollte mehr über Ad Observer wissen, wie er arbeitet und was unsere Ziele sind. Sie hat enorme Unterstützung für uns demonstriert, aber ich glaube nicht, dass sie darüber hinaus mehr für uns tun können. Es [Facebooks Verhalten] verletzt keine Gesetze.
c’t: Also brauchen Sie veränderte gesetzliche Regelungen?
Edelson: Es gibt auf Facebook enorm viele öffentlich verfügbare Inhalte, die zugänglicher gestaltet werden müssten. In Europa und den USA existieren Gesetze gegen irreführende und schädliche Werbung. Aber momentan gibt es kaum Wege, diese Gesetze gegenüber Facebook durchzusetzen, weil die Inhalte außerhalb der Reichweite der Regulierer liegen.
c’t: Sollte Facebook enger mit Forschern zusammenarbeiten?
Edelson: Wir haben die Erfahrung gemacht, dass Facebook kein guter Forschungspartner ist. Wir brauchen einen Weg, dass unabhängige Forscher Zugriff auf die benötigten Daten bekommen: Eine Art sicheren Raum, der nicht von den Social-Media-Plattformen kontrolliert wird; in dem die Daten verbleiben und Forscher ihre Analysen durchführen können.
In c’t 25/2021 sagen wir den steigenden Energiepreisen den Kampf an. Wer Stromfresser identifiziert, das eigene Verhalten anpasst und den heimischen Stromtarif optimiert, kann ordentlich sparen. Wir räumen mit Energiesparmythen auf und enttarnen ein Stromspar-Placebo. Außerdem haben wir 55-Zoll-TVs der Mittelklasse nebst passender Videostreaming-Dienste getestet. Ausgabe 25/2021 finden Sie ab dem 19. November im Heise-Shop und am gut sortierten Zeitschriftenkiosk.
(atr)