Frances Haugen: Facebook "nicht kompatibel mit Demokratie"
Seite 2: "Facebook behauptet Recht auf LĂĽgen"
Während Forscher bei anderen Datenkonzernen, darunter Google, die Suchergebnisse herunterladen und analysieren können, behauptet Facebook, wegen Datenschutz keine Daten herausgeben zu können. "Das ist unwahr", erklärte die Whistleblowerin. Schlimmer noch: Facebook verstecke die Daten nicht bloß, sondern antworte sogar auf direkte Fragen irreführend. In einem Gerichtsverfahren habe Facebook behauptet, das Recht zu haben, nicht die Wahrheit sagen zu müssen – unter Verweis auf Section 230.
Facebook kenne die Gefahren seines Engagement Based Ranking: Inhalte, die extreme Reaktionen hervorrufen, würden häufiger kommentiert, weiterverbreitet oder geliket. Daher wählten die Algorithmen extreme Inhalte aus. "Das ist nicht unbedingt zu Ihrem Vorteil", verdeutlichte Haugen, "Facebook weiß, dass andere Leute mehr Inhalte produzieren, wenn sie Likes, Kommentare und Reshares bekommen. Facebook bevorrangt Inhalte in Ihrem Feed, damit Sie kleine Dopamin-Belohnungen an Ihre Freunde verteilen, damit die mehr Inhalte produzieren." Facebook habe das durch eigene Experimente bestätigt.
Schwache KĂĽnstliche Intelligenz, Konzentration auf Englisch
(Bild:Â US Senat (gemeinfrei))
Der Konzern habe selbst eingestanden, dass das Engagement Based Ranking nur mit Sicherheitsmaßnahmen und Systemen zur Überwachung der Civic Integrity (etwa: Integrität staatsbürgerlicher Prozesse) sicher sei. Dafür setze Facebook Künstliche Intelligenz (KI) ein. Allerdings zeige Facebooks eigene Forschung, dass die KI nur zehn bis 20 Prozent von Hassrede oder Desinformation finde. Und ein Teil der User wird bewusst nicht geschützt, um beobachten zu können, was ihnen dann widerfährt.
Aus der eigenen Forschung wisse Facebook, dass insbesondere Witwen und Witwer, Geschiedene, jüngst in eine Stadt Gezogene und sonst einsame Menschen besonders anfällig für Desinformation seien: "Systeme, die Desinformation benachrangen sollen, funktionieren nicht mehr, wenn die Leute 2.000 Posts pro Tag anschauen."
Lesen Sie auch
AdObserver: US-Behörde liest Zuckerberg die Leviten​
Für die meisten Sprachen der Welt habe Facebook gar keine Systeme für Civic Integrity und Sicherheit installiert. Ergebnis: Facebook wird unverblümt für Völkermord genutzt, beispielsweise in Myanmar und Äthiopien. Von den sechs in dem afrikanischen Land verbreiteten Sprachen verstehen Facebooks Algorithmen nur zwei, wusste Haugen zu berichten: "Das sind nur die einleitenden Kapitel einer Geschichte, die dermaßen furchtbar ist, dass niemand ihr Ende lesen möchte."
Personalmangel
Facebook kranke zudem daran, zu wenig qualifizierte Mitarbeiterinnen und Mitarbeiter für die Bandbreite an Projekten, die es aus eigenen Stücken angeht, zu finden. Das führe in einen Teufelskreis: Projektteams hätten zu wenig Personal, was zu Skandalen führe, was wiederum die Anwerbung von weiteren Menschen erschwere.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Die Folge sei implizite Entmutigung besserer Erkennungssysteme. Haugens eigenes Team für Spionageabwehr habe lediglich ein Drittel der bereits bekannten Fälle bearbeiten können. "Wir wussten, dass wir mit einem einfachen Erkennungssystem viel mehr Fälle finden würden." Eingerichtet wurde solch ein System nie, weil niemand dagewesen wäre, die gefundenen Fälle zu bearbeiten. Auch bei der Suche nach Konten von Kindern unter 13 Jahren, die offiziell nicht mitmachen dürfen, könne sich Facebook deutlich mehr anstrengen.