Edit Policy: Trumps Verbannung von Social Media – Kritiker verkennen Gesetze

Seite 2: Bundesregierung verstrickt sich in Widersprüche

Inhaltsverzeichnis

Trotz dieses gesetzgeberischen Handlungsbedarfs ist die Kritik von Kanzlerin Merkel an Twitter und Facebook verwunderlich. Sie hat zwar Recht, dass die Entscheidung über die Sperrung von Trumps Accounts nicht durch den Gesetzgeber, sondern durch Beschlüsse „der Unternehmungsführung von Social Media-Plattformen“ getroffen wurde, wie Regierungssprecher Seibert es formuliert. Genau zu solchen privatwirtschaftlichen Entscheidungen sind die Unternehmen aber auch in Deutschland nach dem NetzDG verpflichtet. Nach diesem Regelwerk können Plattformen mit Bußgeldern belegt werden, wenn sie es systematisch nicht schaffen, Inhalte binnen 24 Stunden zu sperren, die offensichtlich gegen bestimmte strafrechtliche Normen verstoßen. Dafür können sich die Plattformen auch nicht auf eine staatliche Einschätzung stützen, welche Aussagen offensichtlich rechtswidrig sind und welche nicht. Sie müssen diese Entscheidung selbst treffen.

Hätten Twitter und Facebook die Aussagen von Trump, die immer wieder von Nutzer:innen gemeldet wurden, nach den Kriterien des NetzDG beurteilt, wären sie mit hoher Wahrscheinlichkeit ebenfalls früher oder später zu dem Schluss gekommen, dass diese gegen Gesetze verstoßen – zumindest in Hinblick auf Aufrufe zu Gewalt. Einfacher wäre diese Entscheidung dadurch nicht gewesen. Das zeigt sich an dem Umstand, dass selbst das deutsche Bundesamt für Justiz, das mit der Durchsetzung des NetzDG gegenüber den Plattformen betraut ist, sich mit Entscheidungen über die Sperrung von Aussagen politischer Führungsfiguren äußerst schwertut.

Eine Beschwerde nach dem NetzDG gegen einen Tweet von Irans politischem Oberhaupt Chamenei, in dem dieser Israel als „bösartiges Krebsgeschwür“ bezeichnet hatte, das „ausgerottet“ werden müsse, wies das Bundesamt für Justiz mit der fadenscheinigen Begründung zurück, die Aussage stelle keine Volksverhetzung dar, weil sie sich nicht gegen einen Teil der in Deutschland lebenden Bevölkerung richte. In Deutschland lebende Israelis werden sich über diese Einschätzung wundern.

Es liegt die Vermutung nahe, dass das Bundesamt für Justiz, genau wie die Unternehmensführungen von Twitter und Facebook, vor der Sperrung von politischen Entscheidungsträger:innen zurückschrecken, weil sie politische Kontroversen vermeiden wollen. Das Problem der Sperrung rechtswidriger Inhalte (und des Schutzes legaler Inhalte vor widerrechtlichen Sperrungen) ist also nicht dadurch gelöst, dass man ein Gesetz zur Plattformregulierung verabschiedet. Für die Bewertung im Einzelfall, welche Aussagen tatsächlich strafbar sind, fehlt privaten Plattformen sowohl die juristische Expertise als auch die gebotene Neutralität, die Gerichte an den Tag legen.

Der aktuelle spektakuläre Einzelfall, bei dem Menschen in hohen Verantwortungspositionen bei den betroffenen Unternehmen eine sehr vorsichtige, vielleicht sogar zu zögerliche Entscheidung getroffen haben, dem scheidenden US-Präsidenten nicht länger eine Plattform für seine Aufrufe zu Gewalt und Missachtung eines demokratischen Wahlergebnisses zu bieten, verschleiert die wahren Probleme für die Meinungsfreiheit auf Plattformen. Man kann durchaus kritisieren, dass die Sperrung zu spät kam, nachdem Trump immer wieder durch Wahlmanipulation, die Androhung von Kriegsverbrechen und Aufrufe zu Gewalt aufgefallen war, dass erst mehrere Menschen bei dem Angriff auf das Kapitol ums Leben kommen mussten, ehe die Plattformen Trump die Tür zeigten. Ein rechtlicher Rahmen wie das NetzDG hätte diese Entscheidung jedoch kaum erleichtert, wie der Fall Chamenei zeigt.

Viel problematischer sind die alltäglichen Moderationsentscheidungen auf sozialen Medien, die von Algorithmen getroffen werden und bei denen es weder eine Erklärung über die Beweggründe der Sperrung noch einen effektiven Beschwerdemechanismus gibt. Hierfür einen rechtlichen Rahmen zu schaffen ist dringlicher denn je. Der Digital Services Act ist ein erster Schritt in die richtige Richtung Transparenz über Moderationsentscheidungen zu schaffen, aber er stellt die Praxis der Plattformen, vollautomatisiert zu sperren, nicht infrage. Zwar verpflichtet der Entwurf die Unternehmen nicht zum Einsatz von Uploadfiltern, Plattformen drohen aber trotzdem zu solchen Instrumenten zu greifen, um die Kosten für die Moderation von Inhalten niedrig zu halten. Das Europaparlament sollte sich deshalb für eine deutlichere Einschränkung der automatisierten Sperrungen von Inhalten einsetzen, um die Meinungsfreiheit im Netz effektiv zu schützen.

Die Texte der Kolumne "Edit Policy" stehen unter der Lizenz CC BY 4.0.

(mho)