Bericht fordert 30.000 eigene Content-Moderatoren von Facebook

Die meisten Inhaltsprüfer arbeiten nicht beim sozialen Netzwerk selbst. Forscher halten das aber für entscheidend und drängen auf weitere wichtige Änderungen.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Bericht fordert 30.000 eigene Content-Moderatoren von Facebook

(Bild: TY Lim/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Charlotte Jee

Stellen Sie sich vor, dass Facebook die Moderation seiner Website mit sofortiger Wirkung einstellt. Jeder könnte alles posten, was er wollte. Bisherige Erfahrungen deuten darauf hin, dass das soziale Netzwerk ziemlich schnell zu einer höllischen Umgebung würde, in dem es von Spam, Mobbing, Kriminalität, Enthauptungsvideos von Terroristen, Neonazi-Texten und Bildern von sexuellem Kindesmissbrauch nur so wimmelt. In diesem Szenario würden wahrscheinlich große Teile der Nutzer Facebook verlassen, gefolgt von den lukrativen Werbetreibenden.

Doch obwohl Moderation so wichtig ist, wird sie nicht entsprechend behandelt. Die überwiegende Mehrheit der 15.000 Menschen, die tagtäglich darüber entscheiden, was auf Facebook sein kann und was nicht, arbeitet nicht einmal für Facebook. Die gesamte Funktion der Inhaltsmoderation wird an Drittanbieter vergeben, die an mehr als 20 Standorten weltweit Leiharbeiter mit prekären Verträgen beschäftigen. Diese müssen täglich Hunderte von Posts überprüfen, von denen viele zutiefst traumatisierend sind. Fehler sind weit verbreitet, obwohl das Unternehmen KI-Tools für die Triage der Posts einsetzt, um zu bestimmen, welche Aufmerksamkeit brauchen. Facebook hat selbst eine Fehlerquote von zehn Prozent zugegeben. Das schließt Beiträge ein, die fälschlich als „Zu entfernen“ markiert wurden, obwohl sie bleiben sollten, oder umgekehrt. Angesichts der Tatsache, dass Rezensenten drei Millionen Posts pro Tag schaffen müssen, entspricht das 300.000 Fehlern pro Tag.

Wenn wir die Moderation verbessern wollen, muss Facebook Content-Moderatoren in das Unternehmen holen, sie zu vollwertigen Mitarbeitern machen und ihre Anzahl verdoppeln, argumentiert ein neuer Bericht des Stern Center for Business and Human Rights der New York University. „Die Moderation von Inhalten ist nicht mit anderen ausgelagerten Funktionen wie Kochen oder Reinigen vergleichbar“, sagt der Autor Paul Barrett, stellvertretender Direktor des Zentrums. „Es ist eine zentrale Funktion des Geschäfts von sozialen Medien, und das macht es etwas seltsam, dass es so behandelt wird, als wäre es ein peripheres Problem oder das Problem eines anderen.“

Warum aber behandeln Facebook-Verantwortliche die Moderation von Inhalten so sträflich? Es kommt zumindest teilweise auf die Kosten an, sagt Barrett. Seine Empfehlungen wären für das Unternehmen sehr kostspielig und lägen höchstwahrscheinlich in zweistelliger Millionenhöhe – wenngleich der Konzern jedes Jahr Milliarden von Dollar Gewinn macht. Aber es gibt einen zweiten, komplexeren Grund. „Die Aktivität der Inhaltsmoderation passt einfach nicht in das Selbstbild von Silicon Valley. Bestimmte Arten von Aktivitäten werden sehr geschätzt und verklärt, etwa die Produktinnovation, cleveres Marketing, Engineering. Content-Moderation passt da nicht ins Bild“, sagt Barrett.

Dabei sei es an der Zeit, dass Facebook die Moderation als zentralen Teil seines Geschäfts betrachtet. Würde es seinen Status auf diese Weise erhöhen, ließen sich katastrophale Fehlern wie in Myanmar vermeiden – wo Mitglieder des myanmarischen Militärs Facebook nutzten, um 2016 und 2017 Völkermord an der meist muslimischen Rohingya-Minderheit anzuregen –, die Rechenschaftspflicht erhöhen und Mitarbeiter besser vor Schäden ihrer geistigen Gesundheit schützen.

Der Bericht enthält insgesamt acht Empfehlungen für Facebook:

  • Stoppen Sie das Outsourcing der Inhaltsmoderation und erhöhen Sie die Moderatorenzahl am Arbeitsplatz.
  • Verdoppeln Sie die Anzahl der Moderatoren, um die Qualität der InhaltsĂĽberprĂĽfung zu verbessern.
  • Stellen Sie jemanden ein, der den Inhalt und die FaktenprĂĽfung ĂĽberwacht und direkt an den GeschäftsfĂĽhrer (CEO) oder den Leiter des operativen Geschäfts (COO) berichtet.
  • Weiten Sie die Moderation auch in gefährdeten Ländern in Asien, Afrika und anderswo aus.
  • Bieten Sie allen Moderatoren eine erstklassige medizinische Versorgung vor Ort, einschlieĂźlich des Zugangs zu Psychiatern.
  • Sponsern Sie Forschung zu den Gesundheitsrisiken der Moderation von Inhalten, insbesondere posttraumatischem Stress.
  • Testen Sie eng abgestimmte staatliche Regulationen fĂĽr schädliche Inhalte.

Erweitern Sie die FaktenprĂĽfung erheblich, um falsche Informationen zu entlarven.

Die Vorschläge sind, gelinde gesagt, ehrgeizig. Auf Anfrage wollte Facebook nicht kommentieren, ob es in Betracht ziehen würde, die Vorschläge umzusetzen. Ein Sprecher sagte jedoch, der aktuelle Ansatz des Unternehmens bedeute, dass „wir den Fokus unserer Belegschaft schnell nach Bedarf anpassen können“, und fügte hinzu, dass „wir die Möglichkeit haben, sicherzustellen, dass wir über die richtigen Sprachkenntnisse verfügen – und schnell in verschiedenen Zeitzonen einstellen können –, wenn neuer Bedarf dafür entsteht oder wenn eine Situation auf der ganzen Welt dies rechtfertigt.“

Barrett glaubt jedoch, dass ein kürzlich durchgeführtes Experiment als Reaktion auf die Coronavirus-Krise zeigt, dass Veränderungen möglich sind. Weil viele seiner ausgelagerten Content-Moderatoren nicht ins Büro arbeiten gehen konnten, kündigte Facebook an, dass es diese Verantwortung für die Überprüfung bestimmter sensibler Inhaltskategorien auf interne Mitarbeiter verlagern würde.

(vsz)