Meta und X in der EU – das regelt der DSA

Der Digital Services Act (DSA) regelt nicht, was illegal ist. Er verlangt Mechanismen gegen illegale Inhalte. Faktenchecker mĂĽssen das nicht sein.

vorlesen Druckansicht 1 Kommentar lesen
Digital,Contents,Concept.,Social,Networking,Service.,Streaming,Video.,Global,Communication

(Bild: metamorworks / Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Während Meta in den USA Faktenchecker abschafft, gilt das zunächst nicht für die EU. In Deutschland arbeiten Faktenchecker von Correctiv und der dpa weiter für den Konzern. Auf Anfrage von heise online, ob Änderungen auch hier geplant sind, verwies Meta darauf, dass es zunächst keine solchen Pläne gäbe. Grundsätzlich könnte Meta sich aber auch hier der Kontrolleure "entledigen", wie es Zuckerberg ausdrückt. Dann müsste er jedoch andere Wege finden, sicherzustellen, dass er den DSA einhält.

Elon Musk trägt bereits zu einem gewissen Grad Streit mit der EU aus. Die droht X mit Strafe. Dabei geht es allerdings weniger um die Frage nach Meinungsfreiheit und Moderation, sondern mehr um fehlende Transparenzpflichten, Zugänge und Dark Patterns. Denn auch solche Themen regelt der DSA.

In dem Gesetz wird nicht geregelt, welche Inhalte illegal sind. Das wird in anderen Vorgaben festgehalten, auf nationaler oder EU-Ebene. Der DSA bestimmt hingegen, wie mit diesen illegalen Inhalten umgegangen werden muss, sobald man Kenntnis von ihnen erlangt hat. "Er enthält einen EU-weiten Rahmen zur Aufdeckung, Kennzeichnung und Entfernung illegaler Inhalte sowie Risikobewertungspflichten."

Videos by heise

Dazu gehört auch, dass sehr große Plattformen (Very Large Online Platforms, VLOPs und Very Large Online Search Engines, VLOSEs) wie Meta und X Risiken identifizieren müssen. Solche illegalen Inhalte, Desinformation und Risiken für Minderjährige müssen dann wiederum systematisch bekämpft werden. Wie die Anbieter das machen, ist ihnen überlassen. Faktenchecker sind nur eine Möglichkeit. Gleichwohl können auch automatisierte Filter ausreichen, um die Risiken im Sinne des DSA zu minimieren. Um das zu belegen, bedarf es entsprechender Berichte, die dann der EU vorgelegt werden müssen. Grundsätzlich wäre es also möglich, dass Meta auch in Deutschland die Zusammenarbeit mit den Faktenprüfern beendet.

Die Durchsetzung des DSA wird von der EU-Kommission überwacht, es gibt aber auch nationale Koordinatoren – in Deutschland ist das die Bundesnetzagentur. Es laufen übrigens gegen fast alle großen Plattformen bereits Verfahren – von LinkedIn bis Google über Apple und Alibaba bis Amazon und Booking. Diese beschränken sich bisher jedoch auf Anfragen und den Austausch. Bevor es zu Strafen kommt, können die Anbieter sich verteidigen und Änderungen an den Diensten vornehmen.

Zu den Pflichten, denen die Anbieter großer Plattformen nachkommen müssen, gehört auch, dass Nutzerinnen und Nutzern faire und transparente Wege für Beschwerden offen stehen. Beispielsweise hat jeder Mensch das Recht, offiziell eine Entscheidung anzufechten, wenn beispielsweise sein Konto gesperrt wurde. Plattformen dürfen nicht willkürlich sperren.

Auch dürfen keine Inhalte, also Beiträge, einfach so gelöscht werden. Der DSA verlangt festgelegte Kriterien für das Löschen von Beiträgen, die transparent kommuniziert gehören. Auch das sogenannte Shadow-Banning ist nur erlaubt, wenn der betroffene Nutzer davon informiert wird – und Einspruch einlegen kann. Das bedeutet, Personen, die weniger Sichtbarkeit bekommen, also von den Algorithmen ausgeschlossen werden, müssen erfahren, warum ihnen das passiert.

Sowohl für gesperrte Konten als auch abgewertete Beiträge und Personen sind übrigens keine Faktenchecker zuständig, sondern andere Mechanismen. Dazu gehören etwa Meldungen anderer Nutzer und automatisierte Filtersysteme. Eine Form von Meldungen bei X sind die Community-Notes. Dabei können Nutzer unter den Beiträgen anderer Personen Meinungen, Bewertungen oder Einordnungen zum Inhalt schreiben. Auch Meta plant, eine solche Funktion einzuführen.

Zudem ist bekannt geworden, dass die internen Regeln für automatisierte Moderation in den USA geändert wurden. Es sind zahlreiche Aussagen, die zuvor verboten oder unerwünscht waren, nun erlaubt. Das betrifft etwa Themenkomplexe zu LGBTQA+, Juden und Minderheiten. In den USA ist Meinungsfreiheit ein weiter ausgelegter Begriff als etwa hierzulande, wo sie etwa schneller an Tatbestände wie Beleidigung stößt. Was innerhalb des gesetzlichen Rahmens zusätzlich erlaubt oder verboten ist, bestimmt der Plattformbetreiber.

Der DSA sieht außerdem eine Reihe von Vorschriften vor, die die Integrität der Wahlen betreffen. Große Plattformen müssen ihre Empfehlungssysteme anpassen, politische Werbung kennzeichnen und auch hier systemische Risiken bewerten und ihnen begegnen.

(emw)