Facebooks Oversight Board erlaubt Goebbels-Zitat und nackte Brüste

Seite 2: Kritik an muslimischer Doppelmoral

Inhaltsverzeichnis

Ende Oktober hat Facebook einen Moslem-kritischen Beitrag gesperrt. Ein User in Myanmar hatte Muslime dafür kritisiert, als Reaktion auf Karikaturen in Frankreich Menschen umzubringen, während sie die Misshandlung uigurischer Muslime in der Volksrepublik China hinnehmen.

Der tote syrische Junge Alan Kurdi. (Wandmalerei von Justus Becker und Oguz Sen am Frankfurter Osthafen)

(Bild: Frank C. Müller CC BY-SA 4.0)

Allerdings zeigt das Posting auch das berühmte Bild der an einem türkischen Strand angeschwemmten Leiche Alan Kurdis, einem im Mittelmeer ertrunkenen drei Jahre alten Knaben. Der Facebook-User dürfte seiner geringen Anteilnahme an dem Tod des Kleinkindes Ausdruck verliehen haben, unter anderem weil das Kind womöglich zu einem Extremisten herangewachsen wäre.

Facebook begründete die Löschung mit seinem Verbot von Hassrede. Das Oversight Board ließ den Text neu aus dem Birmanischen übersetzen und ist zu dem Schluss gekommen, dass die konkret gebrauchten Begriffe weder abwertend noch auf Gewalt gerichtet sind (2020-002-FB-UA). Zwar könne der Beitrag als pejorativ und anstößig gegenüber Muslimen angesehen werden, doch "hat er keinen Hass befürwortet noch absichtlich zu unmittelbarem Schaden angestiftet. Daher erachtet das Board die Löschung nicht notwendig, um die Rechte anderer zu schützen."

Einfacher stellen sich die beiden übrigen Fälle dar: Ein User in Brasilien hatte auf Instagram eine Reihe von Fotos gepostet, die Brustkrebssymptome zeigen. Das war Teil einer Kampagne zur Erkennung der Krankheit. Auf einigen Fotos waren naturbedingt Nippel zu sehen. Ein automatisches System löschte das Posting, auch eine Beschwerde des Users half nichts.

Erst als das Oversight Board beschloss, den Fall näher zu untersuchen, bekannte Facebook seinen Irrtum, stellte den Beitrag wieder her, und begehrte vergebens die Einstellung des Verfahrens. "Die fälschliche Entfernung des Beitrags zeigt einen Mangel an Kontrolle (der automatischen Löschung) durch Menschen", hält das Oversight Board fest, "Facebooks automatische Systeme versagen bei der Erkennung des Wortes "Brustkrebs", die im Bild auf Portugiesisch zu sehen waren." (2020-004-IG-UA)

Die Löschung sei falsch und ein Verstoß gegen Facebooks eigene Richtlinien gewesen. "Da Facebooks Regeln männliche und weibliche Nippel anders behandeln, ist der Einsatz fehlerhafter Automatisierung zur Durchsetzung dieser Regeln ein disproportionaler Eingriff in das Recht von Frauen auf freie Rede." Regeldurchsetzung, die ohne adäquate Kontrolle durch Menschen alleine auf Automatismen beruht, beeinträchtige ebenfalls unzulässig die freie Rede.

Die einzige bestätigte Zensurentscheidung betrifft Russland: Während des Krieges um Bergkarabach hatte ein User einen herabwürdigenden Begriff für Bürger eines der beteiligten Länder gebraucht. "Angesichts der entmenschlichenden Weise der Beleidigung und der Gefahr, dass solche Beleidigungen in physische Gewalt ausarten können, war es Facebook in diesem Fall gestattet, die Sicherheit und Würde von Menschen über die (freie Rede) des Users zu stellen." (2020-003-FB-UA)

(ds)