Facebook vereinfacht Verhaltensregeln

Facebook hat seine "Gemeinschaftsstandards" verständlicher aufbereitet. Sie sollen nun mehr Klarheit darüber schaffen, welche Inhalte im sozialen Netzwerk erlaubt sind und welche nicht.

In Pocket speichern vorlesen Druckansicht 52 Kommentare lesen
Facebook vereinfacht Verhaltensregeln

(Bild: Facebook)

Lesezeit: 2 Min.

Facebook-Mitglieder dürfen nicht alles im sozialen Netzwerk veröffentlichen: Unerwünscht sind etwa "sexuell explizite" Inhalte. Das führte in der Vergangenheit auch schon mal dazu, dass Fotos stillender Mütter gesperrt wurden. Wegen solcher und ähnlicher Entscheidungen war Facebook immer wieder kritisiert worden. Kritiker bemängelten außerdem, dass die Regeln zu undurchsichtig seien.

Entblößte Pobacken: nein, stillende Mütter: ja – was bei Facebook erlaubt ist, regeln die Gemeinschaftsstandards.

Nun hat das Unternehmen seine "Gemeinschaftsstandards" verständlicher formuliert und übersichtlich strukturiert. Eine Website erklärt in verschiedenen Bereichen die Verhaltensregeln, aufgeteilt in vier Kategorien wie "Deine Person schützen" und "Respektvollen Umgang fördern". Hinzugekommen sind dort Abschnitte über Inhalte terroristischer Organisationen und über sexuelle Ausbeutung. Geändert haben sich die Regeln jedoch nicht, betonte Facebook-Managerin Monika Bickert: Man wolle "den Nutzern nur mehr Klarheit darüber verschaffen, wo und warum wir Grenzen einziehen".

Auch zur Nacktheit gibt Facebook Aufschluss: "Wir entfernen Fotos von Personen, auf denen Genitalien oder vollständig entblößte Pobacken zu sehen sind. Außerdem beschränken wir Bilder mit weiblichen Brüsten, wenn darauf Brustwarzen zu sehen sind." Fotos von Frauen, die ihr Baby stillen, sind seit letztem Jahr ausdrücklich erlaubt.

Einheitliche Regeln zu schaffen und sie umzusetzen, ist für Facebook keine leichte Aufgabe. Schließlich hat die Plattform knapp 1,4 Milliarden Mitglieder, die täglich unzählige Einträge veröffentlichen. Die vielen Fotos und andere Inhalte "werden grundsätzlich von Menschen geprüft", sagte Bickert. Die Mitarbeiter sehen nur die nötigsten Informationen, um eine Entscheidung zu treffen. Sie handeln aber erst, wenn ein Nutzer einen Beitrag meldet. Zusätzlich ist auch eine Software aktiv, die in "einigen Bereichen" nach bedenklichen Inhalten sucht, um so Kinder zu schützen. (mit Material der dpa.) / (dbe)