Frances Haugen: Facebook "nicht kompatibel mit Demokratie"

"Niemand versteht die zerstörende Kraft der Entscheidungen Facebooks", sagt Ex-Mitarbeiterin Haugen. Der Konzern stelle Profit über Sicherheit.

In Pocket speichern vorlesen Druckansicht 309 Kommentare lesen
Frances Haugen

Facebook-Whistleblowerin Frances Haugen bei ihrer Zeugenaussage vor einem Unterausschuss des US-Senats am 5. Oktober 2021

(Bild: Screenshot)

Lesezeit: 9 Min.
Inhaltsverzeichnis

"Angesichts der gegebenen Anreize hat Facebook das Beste gemacht, was sie tun konnten", sagte die Facebook-Whistleblowerin Frances Haugen am Dienstag bei einer Anhörung im US-Parlament, "unglücklicherweise sind diese Anreize nicht nachhaltig und inakzeptabel in unserer Gesellschaft." Die Voreingenommenheit der Algorithmen sei "ein großes Problem für unsere Demokratie", erklärte sie dort. Ohne Transparenz "werden wir kein System haben, das mit unserer Demokratie kompatibel ist."

Seit 2006 hat Haugen bei großen IT-Firmen gearbeitet: Google, Pinterest, Yelp und schließlich rund zwei Jahre bei Facebook, zuletzt in der Abteilung für Spionageabwehr. Aus Frustration darüber, dass Facebook praktisch an jeder Weggabelung den eigenen Profit über das Allgemeinwohl stelle, hat sie dort umfangreiche Dokumente gesammelt, die allen Facebook-Mitarbeitern zugänglich sind, und dem Wall Street Journal übergeben. Es folgte eine Serie von Enthüllungsberichten über Facebook, darunter über verheerende Auswirkungen Instagrams auf körperliche und geistige Gesundheit von Kindern.

Im Verbraucherschutz-Unterausschuss des US-Senats hat die Facebook-Whistleblowerin am Dienstag stundenlang Fragen der Senatoren beantwortet. Bis auf den Demokraten Ed Markey haben alle Mitglieder des Unterausschusses Geldspenden von Facebook angenommen, wie Forbes erhoben hat.

Dennoch wagte Haugen schwere Vorwürfe gegen Facebooks Management, drückte aber auch gewisses Verständnis für dessen Entscheidungen aus. Facebook brauche bei der Lösung der schwierigen Aufgaben Hilfe in Form von Aufsicht und regulatorischen Vorgaben.

Niemand habe vorgehabt, eine zerstörerische Plattform zu bauen, doch nun müsse Facebook den "moralischen Bankrott" zugeben. "Facebook kauft sich seinen Profit auf Kosten unserer Sicherheit", stellte Haugen fest. Der Datenkonzern forsche so intensiv wie kein anderes Soziales Netzwerk, halte negative Ergebnisse aber absichtlich versteckt.

Facebooks eigene Dokumente "beweisen, dass es die Ă–ffentlichkeit wiederholt darĂĽber in die Irre gefĂĽhrt hat, was die eigene Forschung ĂĽber Sicherheit fĂĽr Kinder offenlegt, ĂĽber die Wirksamkeit seiner KĂĽnstlichen Intelligenz, und ĂĽber seine Rolle bei der Verbreitung spaltender und extremistischer Mitteilungen."

Section 230

Section 230 schützt interaktive Onlinedienste, die von Nutzern generierte Inhalte verbreiten, unter bestimmten Voraussetzungen davor, für diese Inhalte verantwortlich gemacht zu werden. Schließlich ist es Facebook, Twitter und Co. unmöglich, jedes Posting eines Users vor Veröffentlichung auf Wahrheitsgehalt oder mögliche Rechtswidrigkeit zu überprüfen.

Es gibt Ausnahmen, etwa bei Copyrightverletzungen oder Verweisen auf Prostitution, die gelöscht werden müssen. Zudem daf der Betreiber durch seine Nutzungsbedingungen Nutzern weitere Vorgaben machen. Tritt er allerdings darüber hinaus als Redakteur auf, verliert er die Immunität. Das Gesetz soll keine Herausgeber schützen, die für sich selbst veröffentlichen, sondern Betreiber, die technische Infrastruktur für Dritte bereitstellen.

Nun werde Facebook versuchen sich mit Änderungen am US-Datenschutzrecht und einer Reform der Umstritten "Section 230" aus der Affäre zu ziehen, glaubt Haugen. Das aber "wird den Kern des Problems nicht angehen", warnte sie. "Niemand versteht die zerstörende Kraft der Entscheidungen Facebooks – außer Facebook," ist sie sich sicher. Solange sich die Anreize nicht änderten, werde sich das Unternehmen nicht ändern, und weiterhin Entscheidungen treffen, die gegen das Allgemeinwohl gerichtet sind.

Als besonders übel erachtet die ehemalige Facebook-Mitarbeitern das "Engagement Based Ranking". Das sind jene Algorithmen, die auf Basis von Kommentaren, Likes und Weiterverbreitungen entscheiden, wer bei Facebook und Instagram was vorgesetzt bekommt. Ob ein Kommentar freundlich, hasserfüllt oder Bullying sei, spiele für die Bewertung keine Rolle. "Facebook gestaltet unsere Wahrnehmung der Welt, indem es auswählt, was wir sehen", erklärte Haugen. Selbst Personen, die Facebook gar nicht nutzten, würden davon beeinträchtigt.

Erschwert werde das Problem dadurch, dass es sich um geheime Algorithmen handelt, die Facebook nicht offenlegt und die von keiner unabhängigen Stelle kontrolliert werden: "Nur Facebook weiß, wie es den Newsfeed für Sie personalisiert." Das sei für einen so mächtigen und extrem profitablen Konzern nicht länger zu dulden.