Facebook: Immer mehr Interna beschreiben verheerende Unternehmensführung

Frances Haugen und andere Whistleblower gewähren einen Blick hinter die Kulissen von Facebook. Eine Zusammenfassung und ein Ausblick.

In Pocket speichern vorlesen Druckansicht 178 Kommentare lesen
Daumen nach unten neben Facebook-Logo

(Bild: Sue Seecof CC BY 2.0)

Lesezeit: 12 Min.
Von
Inhaltsverzeichnis

Die Whistleblowerin Frances Haugen hat Tausende Seiten interner Dokumente von Facebook öffentlich gemacht. Diese Facebook Files haben es in sich. Sie beweisen, so Haugen, dass das Unternehmen "die Öffentlichkeit wiederholt darüber in die Irre geführt hat, was die eigene Forschung über Sicherheit für Kinder offenlegt, über die Wirksamkeit seiner künstlichen Intelligenz und über seine Rolle bei der Verbreitung spaltender und extremistischer Mitteilungen."

Haugen hatte 2018 bei Facebook angeheuert. Ab 2019 arbeitete sie als leitende Produktmanagerin im Team "Civic Misinformation". Dessen Aufgabe war es, Falschinformationen und Hetze entgegenzutreten. Haugen glaubte nach eigener Aussage aber bald nicht mehr daran, dass ihr Team etwas bewirken könne. Sie entschied sich, als Whistleblowerin die Allgemeinheit über die Missstände bei Facebook zu informieren. Im Mai 2021 verließ sie das Unternehmen mit großen Mengen Material, das sie seitdem verschiedenen Medien zugänglich gemacht hat.

Zusätzlich hat sie acht Beschwerden bei der US-amerikanischen Börsenaufsicht SEC eingereicht. Sie ist der Ansicht, dass Facebook in öffentlichen Erklärungen das Ausmaß von und sein Wissen um schwerwiegende Probleme mit Produkten gegenüber den Anlegern mutwillig falsch dargestellt und damit gegen Wertpapiergesetze verstoßen hat. Außerdem war Haugen vor dem US-Senat und dem britischen Parlament geladen, um den Politikern in den beiden Ländern ihre Sicht der Probleme bei Facebook darzulegen.

Einige der Anschuldigungen aus den Facebook Files knapp zusammengefasst:

  • Nicht für alle der knapp drei Milliarden Nutzer von Facebooks Plattformen gelten die gleichen Regeln, obwohl Facebook-Chef Mark Zuckerberg das immer wieder behauptete, sogar unter Eid vor dem US-Senat. Facebook habe ein System namens XCheck geschaffen, das knapp sechs Millionen Nutzer, vor allem Prominente, von der Anwendung der Inhalteregeln ausnahm. Dadurch hätten sie sich Fehltritte erlauben können, die bei gewöhnlichen Mitgliedern sanktioniert worden wären.
  • Die Inhalte, die Jugendliche auf Instagram sehen, sind eine Gefahr für ihr Selbstwertgefühl, können Depressionen auslösen oder sogar Suizidgedanken hervorrufen. So gehe es einem Drittel der Mädchen, die sich unwohl in ihrem Körper fühlen, schlechter, wenn sie Instagram nutzen. Das ist nur eine von vielen Zahlen aus internen Studien zu den negativen Effekten auf Jugendliche.
  • Facebook hat sich zum Ziel gesetzt, mehr jüngere Kinder an sich zu binden. "Warum sollten wir uns um Tweens kümmern?", zitiert das Wall Street Journal ein Dokument aus dem Jahr 2020, das auch gleich die Antwort gibt: "Sie sind eine wertvolle, aber ungenutzte Zielgruppe". Als "Tweens" bezeichnet man im Englischen Kinder ungefähr im Alter von 10 bis 13 Jahren. Mit dem Messenger Kids betreibt Facebook bereits ein erstes Produkt für unter 13-Jährige. Für Instagram sollte ein ähnliches Produkt folgen. Nach Kritik liegt das Projekt aber derzeit auf Eis.
  • Facebooks Newsfeed-Algorithmen bevorzugen Posts, die negative Emotionen wie Empörung und Sensationsgier erzeugen. Das Wall Street Journal berichtet detailliert über eine Änderung des Newsfeed-Algorithmus im Jahr 2018, die dazu führen sollte, die Bindungen zwischen den Nutzern zu stärken und Interaktionen zwischen Freunden und Familie zu fördern. Facebook sollte ein friedlicherer Ort werden – zugleich sollten die Maßnahmen die Interaktionsraten in die Höhe treiben. Als sich zeigte, dass die Änderungen zwar zu mehr Interaktion, aber auch zu mehr Empörung führten, wehrte sich Mark Zuckerberg persönlich gegen einige vorgeschlagene Korrekturen. Er befürchtete, dass diese die Interaktion der Menschen auf Facebook wieder reduzieren würden.
  • Beim sogenannten Engagement Based Ranking entscheiden Algorithmen auf Basis von Kommentaren, Likes und Weiterverbreitungen, wer bei Facebook und Instagram was vorgesetzt bekommt. Das Problem: Facebook legt die Algorithmen nicht offen, sie werden von keiner unabhängigen Stelle kontrolliert: "Nur Facebook weiß, wie es den Newsfeed für Sie personalisiert." Das sei für einen so mächtigen und extrem profitablen Konzern nicht länger zu dulden.
  • Facebooks KI hilft kaum, schädliche Inhalte zu erkennen. "Wir werden vermutlich niemals ein Modell haben, das auch nur die Mehrheit der Integritätsverletzungen erkennt, vor allem in sensiblen Bereichen", zitiert die Süddeutsche Zeitung einen Facebook-Forscher in einem Memo aus 2019. Er spreche von einer Erkennungsrate von zwei Prozent, eine andere interne Studie nennt drei bis fünf Prozent.
  • Es gibt zu wenige Moderatoren für schädliche Inhalte, vor allem in der nicht englischsprachigen Welt. So würden für viele Länder, in denen Arabisch gesprochen wird, Moderatoren fehlen.

Frances Haugen äußert bei ihrer Anhörung im US Senat schwere Vorwürfe gegen über Facebook.

(Bild: Alex Brandon – AP – dpa)

Facebook wehrt sich vehement gegen diese und weitere Vorwürfe. Mark Zuckerberg schrieb in einem Blog-Post, sein Unternehmen stelle Profit nicht über Sicherheit und Wohlbefinden. Beispielsweise habe sein Netzwerk die Newsfeeds so geändert, dass weniger virale Videos und mehr Inhalte von Freunden und Familie gezeigt würden. Das habe Facebook eingeführt, obwohl dem Unternehmen klar gewesen sei, dass die Menschen dann weniger Zeit im Netzwerk verbringen würden.

Facebook gibt an, dass es zur Fake-News-Bekämpfung 15.000 Moderatoren für mehr als 70 Sprachen der Welt beschäftigte, auch für Arabisch in Jemen, Libyen, Saudi-Arabien und Irak. Laut Guy Rosen, "VP of Integrity", hat Facebook die Rate der angezeigten Hassmails innerhalb der letzten drei Quartale um 50 Prozent gesenkt. Bei nur 0,05 % der angesehenen Inhalte handele es sich um Hassrede.

Frances Haugen ist nicht die erste Facebook-Whistleblowerin. Schon im Jahr 2020 hat Sophie Zhang systematische Probleme und zweifelhafte Entscheidungen bei Facebook angeprangert. Zhang hatte seit 2018 als Data Scientist im sogenannten Site Integrity Fake Engagement Team gearbeitet. Ihre Aufgabe war es, Bot-Accounts zu bekämpfen.

Sie meldete viele verdächtige Bot-Netzwerke in mehr als zwanzig Ländern. Bei einem Netzwerk, das den honduranischen Präsidenten Juan Orlando Hernández unterstützte, dauerte es mehr als ein Jahr, bis Facebook schließlich die betroffenen Profile löschte. In vielen anderen Fällen unternahm Facebook nichts, weil die Netzwerke nicht die wechselnden Kriterien von Facebook erfüllten, um für Sperrungen priorisiert zu werden, so Zhang. Ganz generell beschreibt sie die Entscheidungsprozesse als unüberlegt und planlos. 2020 wurde sie von Facebook entlassen.

Im April 2021 war der Onlineplattform Buzzfeed eine interne Untersuchung darüber zugespielt worden, welche Rolle Facebooks beim Angriff auf das US-Kapitol am 6. Januar gespielt hat. Obwohl sich das Unternehmen monatelang auf eine mögliche Delegitimierung der Wahl durch Trump und seine Anhänger vorbereitet hatte, hieß es laut Buzzfeed in dem Bericht, dass diese Bemühungen von einem mächtigen Netzwerk koordinierter Konten ausmanövriert würden.

Hätte Facebook wirksamer gegen die "Stop the Steal"-Bewegung der Trump-Anhänger vorgehen können? Die Non-Profit-Organisation Media Matters of America weist darauf hin, dass Facebook nicht einmal auf eigene Schutzmechanismen hätte zurückgreifen müssen, um zu erkennen, dass es sich um eine konzertierte Aktion zur Delegitimierung der Wahl handelt. Zahlreiche Medien hätten schon im November darauf hingewiesen, wie der Slogan benutzt wurde, um in Facebook-Gruppen massenhaft Falschinformationen zu verbreiten.

Mit Messenger Kids betreibt Facebook bereits ein Produkt für unter 13-Jährige.

Im Rahmen der Veröffentlichungen rund um die Facebook Files sind weitere Whistleblower an Medien herangetreten, die über Missstände berichten – wenngleich bis dato anonym. So wirft ein ehemaliger Mitarbeiter dem Unternehmen in einer Beschwerde bei der US-Börsenaufsicht ebenfalls vor, Profit über Integrität zu stellen.

Er hat einem Bericht der Washington Post zufolge für Facebooks "Integrity"-Team gearbeitet, das Nutzer der Plattformen vor schädlichen und illegalen Inhalten schützen soll. Ihm zufolge haben Facebooks Führungskräfte diese Bemühungen wiederholt unterlaufen, um das Wachstum der Plattform nicht zu gefährden oder die US-Regierung unter Donald Trump nicht zu verärgern. So habe es unter anderem eine "Weiße Liste" mit Medien gegeben, die von Facebooks internen Prüfverfahren ausgenommen wurden. Auf dieser Liste soll auch das rechtskonservative Portal Breitbart News gestanden haben, das Steve Bannon geleitet hat, bevor er Trumps Berater wurde.

In einem anderen Bericht über einen recht aktuellen Fall beruft sich die Washington Post auf drei nicht genannte Insider. Im Vorfeld des Nationalkongresses der in Vietnam regierenden Kommunistischen Partei habe Mark Zuckerberg persönlich veranlasst, dass die Zensur regierungskritischer Beiträge deutlich verschärft wurde. Das Unternehmen, das sonst die Fahne der Meinungsfreiheit hochhalte, habe sich aus Gründen des Profits zum Helfershelfer der vietnamesischen Zensur gemacht.