Facebook-Beiträge löschen: Wann muss ich selbst aktiv werden?

Auf Facebook & Co. finden täglich Rechtsverstöße statt. Oft verletzen Nutzer mit ihren Postings die Rechte anderer – und häufig nicht mal bewusst. Wer haftet bei solchen Verstößen? Was für Pflichten habe ich als Nutzer? Und welche Rolle spielt das NetzDG dabei?

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
Facebook

(Bild: dpa, Jens Büttner/Symbolbild)

Lesezeit: 10 Min.
Von
  • Achim Barczok
  • Joerg Heidrich
Inhaltsverzeichnis

Viele Nutzer sozialer Medien verletzen bewusst oder unbewusst die Rechte von anderen. Da reicht es schon, ein Bild von jemanden zu posten, der nicht damit einverstanden ist. Oder im Hintergrund eines Videos läuft urheberrechtlich geschützte Musik.

Rechtswidrig ist aber auch, wenn in einem Kommentar so extreme Beleidungen stehen, dass sie strafrechtlich relevant sind. Oder jemand ruft zu Gewalt gegen eine bestimmte Bevölkerungsgruppe auf, Stichwort Volksverhetzung.

Rechtswidrige Inhalte bei eigenen Postings auszuschließen beziehungsweise in den Kommentaren anderer auf der eigenen Facebook-Seite zu erkennen, ist jedoch in vielen Fällen schwierig. Dazu kommt: Mit dem Netzwerkdurchsetzungsgesetz (NetzDG) hat sich seit dem 1. Oktober 2017 auch die Rechtslage geändert. Welche Pflichten durch dieses Gesetz Facebook beim Umgang mit rechtswidrigen Inhalten hat, lesen Sie am Ende des Artikels.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Wenn rechtswidrige Inhalte auf Facebook veröffentlicht werden, stellt sich oft die Frage, wer dafür belangt wird. Die Plattform selbst? Der Verfasser? Der Gründer einer Gruppe oder Seiten-Betreiber? Im Umgang mit den sozialen Netzwerken herrscht immer noch an vielen Stellen Rechtsunsicherheit.

Generell gilt: Wer etwas in den sozialen Medien postet, haftet selbst dafür und ist uneingeschränkt verantwortlich für alle Rechtsverletzungen, die über seinen persönlichen Account begangen werden. Das gilt auch dann, wenn sich Dritte Zugang zum eigenen Account verschaffen und dann unter diesem Namen Dinge im Netz posten – wenn man sich zum Beispiel im Internetcafé in Facebook einloggt und aus Versehen danach nicht abmeldet. Jeder Nutzer hat die Pflicht, seine Zugangsdaten geheim zu halten. Wenn diese Pflicht vernachlässigt wird haftet der Nutzer selbst dafür, was über seinen Account verbreitet wird.

Nicht ganz so einfach ist es bei Accounts, die von Unternehmen betrieben werden, denn hier posten Mitarbeiter Beiträge im Auftrag der Firma. Wenn dabei Rechte Dritter verletzt werden, haftet in der Regel das Unternehmen, nicht aber der Mitarbeiter. Dies gilt beispielsweise bei Verstößen gegen das Urheberrecht, Markenrecht oder für rechtswidrige Äußerungen über Mitbewerber und deren Produkte.
Achtung: Anders ist es bei strafrechtlich relevanten Postings wie Beleidigungen oder Volksverhetzung. In solchen Fällen haftet der Verfasser des Beitrags, sprich der Mitarbeiter.

Auf seiner Facebook-Seite provoziert Focus Online mit reißerischen Headlines Kommentare.

Die Frage nach der Verantwortung von Betreibern einzelner Facebook-Seiten ist noch ungeklärt. Auch für Facebook-Angebote großer Verlage oder kleinen Nischenpublikationen, deren Überschriften gezielt provokativ sind und zu heftigen Diskussionen am Rande der Strafbarkeit anregen sollen, ist die Verantwortungsfrage noch offen.

Bisher gibt es kaum Urteile, bei denen die Seiten-Betreiber für die zivil- und strafrechtlich relevanten Inhalte ihrer Nutzer haften mussten. Eine Haftung wird erst ab Kenntnis der Rechtsverletzung bestätigt: Bekommt der Seiten-Betreiber eine E-Mail mit einem Hinweis auf einen Verstoß muss er reagieren. Es kann bereits angenommen werden, dass ein Betreiber in Kenntnis von einem vermeintlichen Verstoß ist, wenn der Beitrag von ihm kommentiert oder „geliked“ wird. Dann muss der Seiten-Betreiber eventuell selbst für den Rechtsverstoß haften.

Ein Beispiel ist der Fall eines Fans, der auf der Facebook-Seite eines bekannten Sängers unerlaubt ein Bild postete. Daraufhin bat der Fotograf des Bildes den Sänger per Mail, das Foto von der Seite zu entfernen. Dieser reagierte nicht und es folgte eine anwaltliche Abmahnung, die ebenfalls ignoriert wurde. Erst nach einem gerichtlichen Urteil löschte der Sänger das Bild von seiner Seite.

Facebook macht es seinen Nutzern sehr leicht, Gruppen zu gründen. Was dabei oft vergessen wird: Wer eine Gruppe eröffnet, ist automatisch auch Administrator und muss die Gruppe fortan pflegen. Idealerweise sorgen Administratoren und Moderatoren von Facebook-Gruppen für Ordnung und passen auf, dass keine rechtswidrigen Inhalte gepostet werden.

Sobald die eigene Gruppe eingerichtet ist, fordert Facebook in der Timeline unablässig zu deren Pflege auf.

Als Administrator empfiehlt es sich also, die Kontrolle darüber zu behalten, wer der Gruppe beitritt. Dementsprechend sollten die Optionen so geändert werden, dass neue Mitglieder vom Admin erst bestätigt werden müssen. In den Voreinstellungen von Facebook darf jedes Mitglied Facebook-Nutzer in eine geschlossene Gruppe lassen.

Als Gründer einer Gruppe beziehungsweise als Administrator haben Sie volle Befehlsgewalt: Sie dürfen Einstellungen ändern und darüber auch erzwingen, dass Sie jedes Mitglied-Posting von Hand freischalten. Zudem können Sie Beiträge und jedes Mitglied sperren oder komplett entfernen – auch den Gruppengründer. Diese Macht bedeutet aber auch große Verantwortung. Moderatoren haben etwas weniger Rechte. Sie dürfen Beiträge und einfache Mitglieder entfernen, ablehnen oder bestätigen. Der Zugriff auf Gruppeneinstellungen bleibt ihnen aber verwehrt.

Unter „Gruppen verwalten“ erhalten alle Admins ein Protokoll darüber, welcher Admin wann und wie in der Gruppe seine Rechte ausgeübt hat.

Gruppen-Gründern stehe es frei, Administratorrechte zu vergeben oder zu entziehen, wie auch die Gruppe ganz zu löschen. Denn bei Facebook-Gruppen handelt es sich nicht um eine Gesellschaft bürgerlichen Rechts, einen Verein oder ähnliches – und daher auch nicht um ein Rechtsgebilde. Die Mitglieder einer solchen Gruppe haben sich also ohne Rechtsbindungswillen zusammengeschlossen. Jeder kann jederzeit aus so einer Facebook-Gruppe ein- und austreten oder selbst eine ähnliche Gruppe anmelden. Daher sind solche Gruppen lediglich ein „Kaffeeklatsch“ oder „Kneipentreffen“ im Internet – ohne Rechte und Pflichten der Beteiligten.

Gruppen-Admins sollten in der Verwaltung regelmäßig checken, ob Mitglieder potenzielle rechtswidrige Postings zur Überprüfung gemeldet haben.

Auch die Frage, ob Gründer oder Administratoren von Facebook-Gruppen für die von Mitgliedern veröffentlichten Inhalte haften, ist juristisch noch ungeklärt.

Zwar gibt es noch keine Urteile diesbezüglich, dennoch ist es nicht auszuschließen, dass auch Gruppen-Gründer und -Admins für Rechtsverstöße ihrer Mitglieder einstehen müssen. Im Sinne des Paragraf 10 des Telemediengesetztes (TMG) sollten potenzielle Rechtsverstöße innerhalb von Gruppen unverzüglich gelöscht oder gesperrt werden. Insbesondere dann, wenn die Administratoren Kenntnis von einem möglichen Verstoß haben.

Die Gruppen-Administratoren tragen also eine hohe Verantwortung, sie müssen sich Beiträge ansehen und deren Inhalte nach eventuellen Rechtsverletzungen beurteilen. Wer also Betreiber einer Gruppe ist, sollte alle Hinweise bezüglich potenzieller Rechtsverletzungen zeitnah prüfen und reagieren. Löscht man solche Beiträge ist man auf der sicheren Seite, denn lässt man ihn stehen, haftet man gegebenenfalls selbst dafür wie für einen eigenen Beitrag.

Um zu verhindern, als Admin für potenziell rechtswidrige Beiträge zu haften, kann es deswegen schnell zu Overblocking kommen. Sprich: Jeder Beitrag, der Probleme aufwerfen könnte, wird gelöscht. Die Rechtsprechung liefert keine Orientierungshilfe dazu, ob Admins Postings nach eigenem Ermessen löschen, Mitglieder sperren oder dauerhaft entfernen dürfen oder sogar müssen. Wenn Administratoren Beiträge oder Mitglieder entfernen beziehungsweise sperren, müssen sie dies mit einem nachweisbaren Fehlverhalten begründen können. Ansonsten könnte das betroffene Mitglied eine Klage einreichen, was jedoch in der Regel nicht passiert.

Facebook-Gruppen gewinnen immer mehr an Bedeutung für die öffentliche Diskussion, dennoch gibt es erstaunlich wenige Urteile zur Rechtsstellung der Betreiber solcher Gruppen. Die Entscheidungen sehen zwar rechtliche Verpflichtungen vor, räumen den Admins aber kaum Rechte ein. Welche Bedeutung den in Facebook-Gruppen festgelegten Regeln zukommt, ist unklar. Man kann zwar klare Regeln für eine Gruppe formulieren und sie zum Nachlesen in der Gruppenbeschreibung festhalten, jedoch wären diese nicht rechtswirksam.

Hierfür müsste der Nutzer vor dem Beitritt in die Gruppe die Regeln erst aktiv bestätigen. Eine solche Option sieht Facebook jedoch nicht vor. Folglich können sich Admins im Streitfall lediglich auf die allgemeinen Nutzungsbedingungen von Facebook berufen, die bei Vertragsschluss, also der Erstanmeldung, wirksam werden. Besonders bei Facebook & Co. ist es also ein Problem, dass beim Beitritt einer Gruppe kein separater Vertragsschluss entsteht und somit Gruppenregeln für die Mitglieder eben nicht rechtsverbindlich sind.

Am 1. Oktober 2017 ist das Gesetz zur Verbesserung der Rechtsdurchsetzung in Sozialen Netzwerken, kurz: Netzwerkdurchsetzungsgesetz (NetzDG), in Kraft getreten, welches die juristische Anforderungen an sozialen Netzwerk-Plattformen präzisiert. Genauer genommen geht es darum, wie Facebook & Co. fürauf strafbare Inhalte reagieren müssen, die auf ihren Angeboten vorhanden ist. Das NetzDG gilt für Social-Media-Plattformen mit mehr als zwei Millionen registrierten Nutzern, somit also auch für Facebook. Seit dem 01. Januar 2018 ist auch die 3-monatige Umsetzungsfrist des NetzDG abgelaufen, damit ist das Gesetz nun voll wirksam in Kraft getreten..

Ist dieser Beitrag rechtswidriges Hassposting und muss gelöscht werden? Oder ist es doch nur Spaß?

Prüfer von Facebook mussten auch nach bisheriger Rechtslage schon auf Hinweise reagieren und ggf. rechtswidrige Inhalte sperren oder löschen. Hier geht das NetzDG allerdings noch weiter und setzt eine zeitliche Löschfrist. Facebook ist dazu verpflichtet, "offensichtlich rechtswidrige Inhalte" binnen 24 Stunden zu löschen, für weniger eindeutige Fälle ist eine Woche Zeit. Zwar droht dem Netzwerk keine Strafe für einzelne, versehentlich falsch bewertete Inhalte. Kommt es jedoch über einen längeren Zeitraum seinen Pflichten aus dem NetzDG nur mangelhaft nach, stellt dies unter Umständen ein „systemische Versagen“ dar, bei dem Bußgelder in Millionenhöhe drohen.

Um strafbare Beiträge nach dem NetzDG zu identifizieren, muss letztlich jedes einzelne Posting innerhalb kürzester Zeit begutachtet werden. Was offensichtlich rechtswidrige Inhalte sind, ist aber nicht eindeutig festgelegt und macht die Praxis des Gesetzes schwierig. In der Praxis zeigt sich schon nach wenigen Wochen, dass die Umsetzung schwierig ist und dazu führt, dass auch Beiträge gesperrt werden, die offensichtlich Satire oder Ironie enthalten.

Im NetzDG als rechtswidrige Inhalte festgehalten sind beispielsweise Aufforderungen zu Straftaten, Volksverhetzung, die Verwendung von Kennzeichen verfassungswidriger Organisationen, Gewaltdarstellungen, üble Nachrede, Beleidigungen, Bedrohungen und die Verletzung des höchstpersönlichen Lebensbereiches durch Bildaufnahmen. Um auf Beiträge mit derartigen Inhalten aufmerksam machen zu können, hat Facebook seine Meldemechanismen geändert.

Facebook nimmt in seinem Meldesystem nicht explizit auf das NetzDG Bezug, bietet dem Nutzer aber auch "Hate Speech" als Beschwerdegrund an.

Ebenfalls im NetzDG festgehalten ist, dass Facebook & Co. einen Ansprechpartner für Anfragen der Strafverfolgungsbehörden benennen müssen, der verpflichtet ist, innerhalb von 48 Stunden zu antworten.

(miab)