Facebook: Interne Regeln für Inhaltslöschung öffentlich

Der britische "Guardian" hat Anleitungen veröffentlicht, mit denen die Prüfer von Facebook lernen sollen, welche Inhalte auf der Plattform akzeptiert werden und welche nicht. Sie geben Einblicke in bislang gut geschützte Interna des US-Konzerns.

In Pocket speichern vorlesen Druckansicht 168 Kommentare lesen
Facebook: Interne Regeln für Inhaltslöschung öffentlich
Lesezeit: 3 Min.

Nachdem vermehrt über Facebooks Umgang mit von Nutzern hochgeladenen Inhalten diskutiert wird, gibt es nun neue Einblicke in die internen Regeln des US-Unternehmens. Der Guardian hat Dokumente veröffentlicht, mit denen die externen Angestellten des Konzerns geschult werden, die für den Umgang mit Inhalten zuständig sind, die gegen die Nutzungsbedingungen verstoßen könnten. Daraus geht zum Beispiel hervor, was Facebook für Kindesmisshandlung hält und welche Darstellungen davon gelöscht werden sollen. "Beweise" für Kindesmisshandlung können demnach von Nutzern geteilt werden, etwa damit die Opfer identifiziert und gerettet werden können. Würden Bilder aber mit sadistischen Intentionen verbreitet oder die Inhalte bejubelt, müsse das Material gelöscht werden.

Aus anderen Dokumenten geht hervor, dass Facebook keine Fotos oder Videos erlaubt, in denen Menschen oder Tiere sterben oder verletzt werden, "wenn darin auch Sadismus ausgedrückt werde". Der könne in begleitenden Kommentaren geäußert werden. Wichtig sei hier, welche Meinung der Facebook-Nutzer, der den Inhalt teilt, dazu ausdrückt und ob er die Gewalt bejubelt. Es gehe nicht darum, was in dem Video zu sehen ist. Demnach können sogar Videos geteilt werden, in denen Gewalt gegen Menschen oder Tiere bejubelt wird, solange der teilende Facebook-Nutzer das nicht sadistisch kommentiert.

In einem anderen Dokument legt Facebook "glaubwürdige Gewaltandrohungen" sehr restriktiv aus: Löschen müssten die Prüfer nur Inhalte, die gemeldet wurden und die wirkliche Gewalt nach sich ziehen könnten. Denn "Menschen drücken Verachtung und Meinungsverschiedenheiten oft dadurch aus, dass sie leichtfertig und in nicht ernst gemeinter Weise Gewalt androhen oder herbeiwünschen". Schreibe also jemand "Ich werde das Facebook-Büro in Dublin zerstören", sei das spezifisch genug, um gelöscht zu werden. "Ich hoffe, jemand bringt dich um", könne dagegen stehenbleiben. Auch: "Wenn du nicht aufhörst herumzuzicken, muss ich deine Zunge herauschneiden", wird als Beispiel genannt, das stehenbleiben solle.

Die Dokumente geben einen Einblick in den intransparenten internen Umgang bei Facebook mit potenziell anstößigen Inhalten. Der gerät immer wieder in den Fokus, wenn das Unternehmen etwa bestimmte Bilder löscht oder Hassbotschaften stehen lässt. Als weltweit größtem sozialen Netzwerk trägt Facebook hier eine große Verantwortung und angesichts der enormen Reichweite des Netzes ist Facebooks Umgang mit den Inhalten inzwischen in mehreren Ländern ein Politikum geworden. Mit dem Netzwerkdurchsetzungsgesetz etwa will die Bundesregierung eine verstärkte Löschung etwa von Aufrufen zur Gewalt durchsetzen, während Bürgerrechtler an anderer Stelle die Meinungsfreiheit beschwören. Hinzu kommt das Schicksal der Prüfer selbst, die oft unter schlechten Arbeitsbedingungen unzählige abstoßende Inhalte ansehen und bewerten müssen. (mho)