Faktenprüfer im Zwiespalt
Wann Forenverantwortliche bei Fake News und Hetze einschreiten müssen
Fake News, Hasskommentare, Verschwörungsmythen: In Onlineforen findet nicht nur Meinungsaustausch statt, es geschehen auch massenhaft Grenzüberschreitungen. Wer für ein solches Forum verantwortlich ist, hat es da schwer. Wir zeigen, wann Admins löschen oder sperren müssen.
Betreiber großer Social-Media-Angebote und Meinungsnetzwerke setzen ganze Teams mit juristischer Expertise ein, um bei rechtswidrigen Beiträgen gegebenenfalls einzugreifen. Einerseits sollen ihre Plattformen kein Paradies für Straftäter sein, andererseits gilt es, die Meinungsfreiheit zu achten.
Einzelkämpfer, die sich etwa als Blogbetreiber oder ehrenamtliche Moderatoren um Kommentarforen kümmern, sitzen in derselben Bredouille. Nur haben sie normalerweise weder die Ressourcen noch den rechtlichen Überblick, um den Betrieb in den bisweilen hitzigen virtuellen Diskussionsrunden lückenlos zu beobachten und zu Tilgendes von zu Duldendem zu unterscheiden. Was muss man rechtlich gesehen durchgehen lassen, was löschen oder sperren?
Kein Spaß: Fake News
Falschmeldungen, die geeignet sind, Leser zu manipulieren, können üble Auswirkungen haben. Das zeigt ein Fall, in dem der Redaktionsleiter des „Rheinneckarblogs“ einen Fake-Beitrag über einen „massiven Terroranschlag“ in Mannheim mit 136 Toten und 237 Verletzten veröffentlichte [1]. Unter anderem hieß es dort: „Rund 50 Angreifer haben mit Macheten [...] verschiedene Feste in der Stadt gestürmt. Sie griffen gleichzeitig in Zweier-Trupps an 25 Stellen an und sorgten für ein Blutbad apokalyptischen Ausmaßes.“ Aufgrund der unsicheren Lage sollten die Bürger zu Hause bleiben, weil die Täter noch unterwegs seien. Erst hinter einer Bezahlschranke erfuhr man, dass die Geschichte frei erfunden war. Viele Leser waren verängstigt und machten sich Sorgen um Angehörige.
Das Amtsgericht (AG) Mannheim verurteilte den Redaktionsleiter wegen Störung des öffentlichen Friedens gemäß § 126 Abs. 2 des Strafgesetzbuchs (StGB) in Verbindung mit Absatz 1 desselben Paragrafen. Er sollte eine Geldstrafe im Umfang seines Einkommens für 120 Tage zahlen, was in diesem Fall einem Betrag von 12.000 Euro entsprach [2]. Er habe vorgetäuscht, dass der erfundene Terroranschlag noch nicht beendet sei und die Terroristen noch weitere Menschen töten oder verletzen würden. Seine Berufung beim Landgericht (LG) Mannheim blieb weitgehend erfolglos; lediglich der Tagessatz für die Geldstrafe wurde herabgesetzt [3].
In einem anderen Fall hatte der rechtspopulistische Schweizer Politiker Ignaz Bearth auf Facebook ein Posting mit einem falschen Zitat aus der Süddeutschen Zeitung (SZ) verbreitet. Er behauptete, die Grünen-Politikerin Renate Künast habe gesagt: „Der traumatisierte junge Flüchtling hat zwar getötet, man muss ihm aber jetzt trotzdem helfen“ – bezogen auf den Täter, der die Studentin Maria Ladenburger vergewaltigt und dann ermordet hatte. Dieses Posting lasen mehrere Tausend Nutzer, teilten es und schleuderten eigene erboste und menschenverachtende Kommentare in Richtung Künast. Das Berliner AG Tiergarten verurteilte Bearth wegen übler Nachrede gegen Personen des politischen Lebens gemäß § 188 Abs. 1 StGB in Verbindung mit § 186 desselben Gesetzes zu 90 Tagessätzen, was bei ihm 2700 Euro entsprach [4].
Löschen oder nicht?
Vor diesem Hintergrund fragen sich etwa Betreiber von Foren oder Blogs, inwieweit sie verpflichtet sind, bei Kommentaren ihrer Nutzer die Fakten zu checken.
Eine solche Pflicht könnte sich aus dem Netzwerkdurchsetzungsgesetz (NetzDG) ergeben: Dessen § 3 Abs. 2 Nr. 2 verpflichtet Betreiber sozialer Netzwerke, offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden zu löschen, nachdem ihnen diese Inhalte gemeldet wurden. Nach § 3 Abs. 2 Nr. 3 NetzDG sind darüber hinaus auch solche rechtswidrigen Inhalte, deren Rechtswidrigkeit nicht „offensichtlich“ ist, unverzüglich – also normalerweise innerhalb von sieben Tagen nach Eingang einer Beschwerde – zu entfernen oder zumindest unzugänglich zu machen.
Aber sind Fake News immer rechtswidrig und damit zu löschen? § 1 Abs. 3 NetzDG führt Straftatbestände auf, die die betreffenden Inhalte erfüllen müssen. Dazu gehören etwa Beleidigung, Störung des öffentlichen Friedens durch Androhung von Straftaten, üble Nachrede oder Volksverhetzung. Plattformbetreiber sind von dieser Löschpflicht nach §1 Abs. 2 NetzDG dann befreit, wenn ihr Netzwerk im Inland weniger als zwei Millionen registrierte Nutzer hat. Das wird bei den meisten Blogs und privaten Diskussionsseiten der Fall sein.
Es gibt allerdings noch das Telemediengesetz (TMG), das Diensteanbietern Verpflichtungen auferlegt; auch Betreiber von Kommentarforen und Blogs fallen darunter. Nach § 10 TMG brauchen sie fremde Beiträge auf ihren Plattformen zwar nicht von sich aus auf rechtswidrige Inhalte zu untersuchen. Sie müssen aber „unverzüglich“ reagieren, sobald sie von solchen Inhalten erfahren. Wie lange sie genau dafür Zeit haben, sagt das TMG nicht – es hängt von den Umständen des Einzelfalls ab. Das bedeutet Rechtsunsicherheit für die Betroffenen. Zudem stellt sich auch bei diesem Gesetz die Frage, wann Fake News als rechtswidrige Informationen in seinem Sinne gelten. Das ist beispielsweise dann der Fall, wenn der Verfasser durch die Verbreitung von Falschnachrichten eine üble Nachrede gemäß § 186 StGB oder eine Verleumdung gemäß § 187 StGB begangen hat.
Gruppenhetze
Viele Falschmeldungen zielen nicht auf Einzelpersonen ab, sondern darauf, Stimmung gegen Bevölkerungsgruppen zu machen. Als rechtswidrige Taten im Sinne des TMG gelten sie etwa dann, wenn sie den öffentlichen Frieden durch die Androhung von Straftaten stören (§ 126 StGB) – dann müssen sie auch geeignet sein, das zu tun. Eine Äußerung erfüllt unter folgenden Bedingungen den Tatbestand der Volksverhetzung (130 StGB): Sie muss „gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe, gegen Teile der Bevölkerung oder gegen einen Einzelnen wegen dessen Zugehörigkeit zu einer vorbezeichneten Gruppe gerichtet“ sein. Zugleich muss sie „gegen diese zum Hass aufstacheln“ beziehungsweise „zu Gewalt- oder Willkürmaßnahmen auffordern“. Bei Falschnachrichten, die lediglich eine Desinformation bezwecken, gehen Gerichte nur selten davon aus.
Anders war das in einem Fall, in dem ein Blogbetreiber bewusst wahrheitswidrig behauptet hatte, Flüchtlinge hätten fünf Mädchen zwischen acht und zehn Jahren brutal entführt und vergewaltigt, sodass diese schwere Verletzungen erlitten hätten. Das AG Duisburg verurteilte ihn wegen Volksverhetzung zu einer Freiheitsstrafe von neun Monaten, die es zur Bewährung aussetzte [5]. Begründung: Er habe zum Hass gegen in Deutschland lebende Flüchtlinge angestachelt.
Für Blogger und Foren-Admins liefert unterm Strich auch das TMG keine grundsätzliche Pflicht, fremde Beiträge mit Fake News zu löschen. Andererseits können sie nur schwer feststellen, wann eine solche Pflicht für sie ausnahmsweise besteht. Wer auf der anderen Seite zu restriktiv löscht, setzt sich dem Vorwurf aus, die in Artikel 5 Abs. 1 des Grundgesetzes (GG) garantierte Meinungsfreiheit der Beitragsverfasser zu missachten.
Es bleibt unsicher
Der europäische Gesetzgeber hat gegen um sich greifende Rechtsverletzungen auf Onlineplattformen den Digital Services Act (DSA) in Stellung gebracht. Dieser ist als Verordnung (EU) 2022/2065 bereits am 16. November 2022 in Kraft getreten und wird frühestens ab 17. Februar 2024 wirksam [6, 7]. Der DSA verbietet Fake News nicht ausdrücklich, allerdings sehen Experten diese durchaus von den Bestimmungen mit erfasst [8]. Außer der Pflicht, rechtswidrige Inhalte zu bekämpfen, führt der DSA nämlich ein verpflichtendes Risikomanagement zur Minderung erheblicher systemischer Risiken ein. Aus Art. 34 Abs. 1 ergebe sich, dass Fake News jedenfalls dann darunter fallen, wenn sie sich in folgender Hinsicht nachteilig auswirken: für die gesellschaftliche Debatte, in Bezug auf geschlechtsspezifische Gewalt, für den Schutz der öffentlichen Gesundheit und von Minderjährigen oder für das körperliche und geistige Wohlbefinden einer Person.
Verantwortliche müssen hiernach bei rechtswidrigen Inhalten „zügig“ tätig werden, sobald sie von ihnen erfahren haben. Sie müssen den Zugang zu diesen Inhalten sperren oder diese entfernen. Die Verpflichtung, alle systemischen Risiken zu ermitteln, zu analysieren und zu bewerten, gilt nach Art. 34 Abs. 1 der Verordnung allerdings wieder nur für Betreiber „sehr großer“ Onlineplattformen. Es geht nach Art. 33 Abs. 1 um Angebote, die in einem Durchschnittsmonat mindestens 45 Millionen aktive Nutzer in der Union haben. Im Kampf gegen Fake News hat die EU ansonsten bereits einen freiwilligen Pakt gegen Desinformation [9] initiiert, der vor allem die Werbefinanzierung von Falschinformationen austrocknen soll. Auch dieser betrifft nur große Akteure. Telegram hat den Kodex gar nicht erst unterzeichnet. Twitter zog seine Selbstverpflichtung im Frühjahr dieses Jahres zurück. (psz@ct.de)