Digital Services Act: Trusted Flagger und die Meinungsfreiheit

Der DSA wird derzeit heftig diskutiert. Es gibt Vorwürfe, er schränke die Meinungsvielfalt ein. Was tatsächlich dran ist.

In Pocket speichern vorlesen Druckansicht 98 Kommentare lesen
Europäisches Parlament

(Bild: Shutterstock)

Stand:
Lesezeit: 7 Min.
Inhaltsverzeichnis

Der Digital Services Act erhitzt derzeit manche Gemüter – das liegt auch an Missverständnissen und Fehlinterpretationen des Gesetzestextes oder der deutschen Begleitgesetzgebung. Einiges davon wird in voller Absicht verbreitet, um das Gesetz als Zensurmaßnahme zu brandmarken, obwohl es teilweise sogar das Gegenteil ist.

Ja – aber nicht durch den DSA. Die Meinungsfreiheit und auch die sogenannte Meinungsäußerungsfreiheit sind ein hohes und sowohl nach deutschem Grundgesetz als auch der europäischen Grundrechtecharta besonders schützenswertes Gut. Das liegt am hohen Stellenwert für den demokratischen Diskurs. Aber sie ist nicht schrankenlos: Sie findet ihre Schranken etwa im Beleidigen, Verleumden oder der Gewaltandrohung gegenüber Anderen. Sie kann auch durch andere Rechte eingeschränkt sein – zu nennen ist hier etwa das Urheberrecht, wenn Sharepics mit fremdem Material erstellt werden.

Die Meinungsfreiheit ist vor allem ein Grundrecht gegenüber dem Staat. Da die meisten Angebote im Netz aber nicht von staatlichen Stellen stammen, geht es hier um die mittelbare Wirkung dieses Grundrechts auch gegenüber privaten Akteuren. Der Digital Services Act bindet private Betreiber doppelt: Einmal, indem er keine Vorabmoderation von Nutzerinhalten erfordert. Dafür werden die Anbieter erst einmal von der Inhaltehaftung befreit, die sie sonst treffen würde. Bedingung: Möglichkeiten, dass ihnen mutmaßlich illegale Inhalte zur Kenntnis gebracht werden können ("Notice-and-Action"). Die zweite Bindung im DSA: Einfach löschen ist nicht erlaubt. Jede Moderationsentscheidung muss auch die Meinungsfreiheit angemessen berücksichtigen. Also etwa sonst Strafbares, was im Ausnahmefall wie etwa bei Satire erlaubt bleibt, trotzdem zulassen. Auch willkürliche Löschgründe in den Geschäftsbedingungen sind unter dem DSA unzulässig (Artikel 14).

Das Gesetz folgt dabei dem Prinzip: Mit Größe kommt Verantwortung – Plattformen mit mehr als 45 Millionen Nutzern in der EU unterfallen mehr Vorschriften als kleinere Angebote.

Rechtswidrige Inhalte sind auch auf Hostingdiensten verboten. Der DSA verlangt von allen Hostingdiensten mit nutzergenerierten Inhalten, dass diese sich mit Inhalten auseinandersetzen, die ihnen auf Grundlage der jeweils geltenden Gesetze als mutmaßlich illegal zur Kenntnis gebracht werden. Dafür müssen sie leicht erreichbare Meldewege zur Verfügung stellen.

Eine Verpflichtung, allein aufgrund der Meldung zu löschen oder zu sperren, trifft Anbieter nicht. Sie müssen eine eigene Entscheidung fällen, ob ein Inhalt tatsächlich gegen Gesetze verstößt. Im Regelfall prüfen sie dabei gleich mit, ob vielleicht ein Verstoß gegen die Nutzungsbedingungen des Anbieters vorliegt. So kann es sein, dass Inhalte nicht illegal sind, aber eine Plattform, ein Forenbetreiber oder ein Hoster die Inhalte trotzdem sperrt oder entfernt – mit Verweis auf die eigenen Geschäftsbedingungen, den Vertrag mit dem Nutzer.

Manche Anbieter stehen im Verdacht, diese Entscheidungen möglichst so abzuarbeiten, dass ihnen kein Aufwand entsteht. Wenn sie davon ausgehen, dass ein Nutzer ohnehin nicht reagiert, sperren sie schnell. Allerdings ist das Sperren eigentlich legaler Inhalte unter Umständen dann ein Verstoß gegen den zwischen Anbieter und Nutzer bestehenden Vertrag.

Jeder User geht eine Vertragsbeziehung mit dem jeweiligen Anbieter ein. Der DSA verbessert sogar ausdrücklich die Rechtsstellung der Nutzer: Willkürliche Sperrungen sind ausdrücklich verboten. Und überraschende Klauseln in Geschäftsbedingungen, auf deren Basis ebenfalls gesperrt werden könnte, sind im Verbraucherrecht seit jeher untersagt. Das würde etwa absurde Klauseln wie ein allgemeines Verbot des Postens von Katzenbildern oder Meinungsäußerungen umfassen. Nutzer großer Plattformen haben unter dem DSA sogar das ausdrückliche Recht, gegen eine Sperrung oder Löschung Beschwerde einzulegen. Und sie dürfen eine Begründung verlangen.

Der DSA sieht für Streitfälle auch die Möglichkeit vor, eine Art Schlichtungsstelle anzurufen. Auch die müssen von der Bundesnetzagentur anerkannt werden, eine solche gibt es in Deutschland bereits. Allerdings arbeitet sie nur mit ausgewählten Plattformen zusammen. Ihre Entscheidungen sind nicht rechtsverbindlich und nehmen dem Betroffenen auch nicht die Möglichkeit, trotzdem vor Gericht zu gehen. Zivilrechtlich kann gegen vermeintlich unberechtigte Löschungen auch sonst vor Gericht vorgegangen werden.

Bei den besonders großen Onlineplattformen, den sogenannten VLOPs, betrachtet die EU-Kommission auch ein potenzielles Overblocking als "systemisches Risiko" – genau wie Ignoranz gegenüber illegalen Inhalten.

Außerdem hat, von Kritikern kaum bemerkt, die EU eine weitere Hürde eingezogen: Nationale Strafvorschriften müssen im Einklang mit dem EU-Recht sein. Sprich: Wenn die Ampel etwa morgen die Beleidigung von Lichtwechselzeichenanlagen ins Strafgesetzbuch aufzunehmen beschließen würde, wäre das ein materieller Verstoß gegen Europarecht. Anbieter dürften die Strafvorschrift und Durchsetzungsversuche ignorieren, müssten sich aber auf juristische Auseinandersetzungen einstellen.

Trusted Flagger, im Rechtsdeutsch "vertrauenswürdige Hinweisgeberorganisationen", gelten als besonders qualifizierte Organisationen, die vorher eine entsprechende Prüfung bei den nationalen DSA-Aufsichtsbehörden wie der Bundesnetzagentur in Deutschland durchlaufen haben. Sie müssen nachweisen, dass sie gewissenhaft prüfen, bevor sie Meldungen an Plattformbetreiber weitergeben. Fallen sie negativ auf, wird der Status wieder aberkannt.

Trusted Flagger erfüllen eine wichtige Funktion, für Nutzer, die nicht wissen, wie der Prozess funktioniert, aber auch aus Sicht der Plattformen: Sie erstellen Meldungen professioneller -- denn sie wissen, wie die funktionieren, was die Plattformen für eine Entscheidung benötigen und können vorab klären, wenn Meldungen aussichtslos sind.

Die Folge einer Meldung an den Anbieter durch einen "vertrauenswürdigen Hinweisgeber": Der Plattform-Anbieter ist dazu verpflichtet, Meldungen möglichst schnell zu prüfen. So steht es im Gesetz, und die Meldungen sind auch gegenüber dem sonstigen Meldeaufkommen vorzuziehen. Trusted Flagger wie die erste unter DSA anerkannte Stelle in Deutschland sind zudem keine Neuerfindung, sondern etwa im Bereich Jugendschutz langjährig geübte Praxis, etwa bei YouTube.

Tatsächlich sind Trusted Flagger nur ein weiterer der vielen Mechanismen, um die Meldung von potenziell illegalen Inhalten zu ermöglichen. Andere Rechtsrahmen werden viel intensiver angewandt – etwa die Jugendmedienschutz-Befugnisse der Landesmedienanstalten oder die sogenannte Terrorist Content-Online-Verordnung. Bei dieser schicken Strafverfolgungsbehörden, in Deutschland das BKA, Meldungen oder konkrete Löschaufforderungen mit kurzer Bearbeitungsfrist an die Betreiber.

Tatsächlich passiert bei den meisten Meldungen nur eines: die Moderationsentscheidung durch den Plattformbetreiber. In Artikel 18 DSA ist ausdrücklich geregelt, wann die Ermittlungsbehörden von diesen benachrichtigt werden müssen: Beim Verdacht auf eine "Straftat, die eine Gefahr für das Leben oder die Sicherheit einer Person oder von Personen darstellt." Alle anderen strafbaren Inhalte kommen nur dann dort an, wenn sie durch Nutzer, Betreiber, Trusted Flagger oder andere Akteure dort zur Kenntnis gebracht werden. Sprich: Verbotene Volksverhetzung auf Tiktok, Youtube, X oder Instagram führt nicht dazu, dass der Betreiber es mit Nutzerkennung oder anderen Daten dem BKA melden müsste, auch wenn er eine Meldung als zutreffend erachtet.

(emw)