re:publica: DSA "kein Zauberstab" – Aufsicht läuft sich warm

Der Digital Services Act zeigt inzwischen spürbar Wirkung. In Berlin zog jetzt ein Verantwortlicher bei der EU eine erste Zwischenbilanz.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Digital,Contents,Concept.,Social,Networking,Service.,Streaming,Video.,Global,Communication

(Bild: metamorworks / Shutterstock.com)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Der Digital Services Act entfaltet langsam seine Wirkung. Die EU-Verordnung, die seit Mitte Februar für alle Anbieter in der EU gilt, schreibt die grundsätzlichen Regeln für den Umgang von Plattformanbietern, Hostern und Providern mit Inhalten vor. Auch Regelungen zu Onlinemarktplätzen sind enthalten. Aber wie steht es nach den ersten Monaten um die Durchsetzung?

Die ersten Monate des DSA waren von gleich mehreren Ereignissen geprägt – kaum für die größten Anbieter in Kraft, tobte über einige Plattformen bereits ein Sturm aus Hasspostings und Gewaltinhalten im Kontext des Überfalls der Hamas auf Israel und der nachfolgenden militärischen Reaktion Israels im Gazastreifen.

Der Referatsleiter bei der zuständigen Generaldirektion Connect Prabhat Agarwal zog ein positives Zwischenfazit und erläuterte bei der re:publica, wie der DSA funktioniert – und was er nicht ist: Eine Gesetzgebung für Einzelinhalte. Stattdessen reguliert der DSA den Umgang der Anbieter mit den von Kunden über ihre Systeme verbreiteten Inhalten auf abstrakterer Ebene.

Grundsätzlich wird unterschieden zwischen den normalen und den größten Anbietern, die monatlich mehr als 45 Millionen Nutzer haben. Die müssen besondere Pflichten einhalten – etwa was die Inhaltemoderation betrifft oder den Umgang mit sogenannten systemischen Risiken wie etwa Wahlmanipulationsversuchen. Vor der Europawahl ist das derzeit ein heißes Eisen zwischen den Anbietern und den Aufsichtsbehörden.

Für die größten Anbieter ist das die EU-Kommission selbst. Deren Intervention sorgte etwa dafür, dass Meta Facebook anlässlich der Europawahlen das Analysetool Crowdtangle am Montag doch wieder online stellte, das eigentlich bereits abgestellt war.

Seit wenigen Tagen ist nun aber nach einiger Verzögerung auch die deutsche Aufsicht arbeitsfähig, nachdem das Digitale-Dienste-Gesetz in Kraft trat und eine unabhängige Stelle dafür bei der Bundesnetzagentur eingerichtet wurde. Die nationalen Aufsichtsbehörden sind zwar in erster Linie für die kleineren Anbieter zuständig, arbeiten aber mit der EU-Kommission und weiteren zuständigen Behörden zusammen.

Damit die Durchsetzung überhaupt funktionieren kann, müssen die Unternehmen Auskünfte geben und auf Nachfragen reagieren. In der Regel funktioniere das, erläuterte der Referatsleiter für den DSA in Berlin. "Selbst die Pornoplattformen haben uns in der Regel vernünftige Dokumente geschickt", berichtete Agarwal. "Was wir sehen, ist, dass Plattformen oft wissen, welche Risiken es gibt – und auch, dass ihre Maßnahmen bislang nicht ausreichen."

Die Kompetenzen der Aufsichtsbehörden sind unter dem DSA sehr weitreichend – und reichen bis hin zu internen Datenbanken, Algorithmen und Schriftverkehr, Zeugenvernehmungen auch bei Dienstleistern und anderen potenziellen Auskunftspersonen. Der DSA schreibt vor, dass notfalls sogar über Zwangsmaßnahmen der Zugriff sichergestellt werden muss – im Extremfall könnte also etwa die irische Polizei auf dem Amtshilfeweg Server beschlagnahmen und den DSA-Aufsichtsbehörden übergeben.

Anders als bei anderen Regulierungsbereichen, wie etwa in der Bankenregulierung, seien die Angebote, die dem DSA unterliegen, allerdings sehr divers – weshalb auch die sogenannten Transparenzberichte sich stark unterscheiden würden. Neben den Social-Media-Plattformen wirkt der DSA nämlich auch auf ganz andere Angebote. So fallen etwa Onlinemarktplätze wie die großen Anbieter Amazon, Zalando oder Aliexpress darunter, auch Shein und Temu haben die kritischen Nutzerschwellen inzwischen überschritten und gelten als große Anbieter im Sinne des DSA. Neue Richtlinien sollen für mehr Einheitlichkeit sorgen.

Dabei geht es vor allem bei den großen Social-Media-Plattformen derzeit in erster Linie um die sogenannten systemischen Risiken, etwa wenn es um illegale Nutzerinhalte geht. Die Meldeverfahren würden denen des alten, deutschen Netzwerkdurchsetzungsgesetzes durchaus ähneln, allerdings ohne die 24-Stunden-Bearbeitungsfrist, erklärte Agarwal. Der DSA werde dabei auch bei den Firmen als internes Argument genutzt, wenn Unternehmen bislang keine Notwendigkeiten gesehen hätten, auf ihre zuständigen Teams zu hören. Denen seien die Probleme durchaus oft bewusst, so Agarwal, allerdings würde erst die Strafandrohung unter dem DSA die Priorität steigern. Dennoch sei der DSA kein Zauberstab – nicht alle Probleme seien mit ihm oder auf einen Schlag zu lösen.

Ausdrücklich nur als Ultima Ratio stehe mit dem DSA aber auch eine richterliche Sperranordnung zur Verfügung, wenn alle anderen Mittel nicht gewirkt hätten. Eine gesamte Plattform zu sperren, wie etwa in den USA zu TikTok diskutiert, wäre aber eine sehr weitgehende Maßnahme. Die US-Diskussion gehe dabei aber vor allem auch um Sicherheitsbedenken, was nicht Kern des DSA sei.

"Am Ende eines Verfahrens steht normalerweise ein Bußgeld", erläuterte Agarwal am Beispiel des Vorgehens der EU-Kommission gegen X, das frühere Twitter. Das steht wegen Problemen bei der Inhaltemoderation von illegalen Inhalten, wegen seines Vorgehens bei sogenannten Community-Notes, beim Datenzugang für Forscher und bei der Anzeigentransparenz im Fokus der Aufseher. X hatte trotz Beanstandung durch die Kommission etwa die Zahl der Inhaltemoderatoren mit landessprachlichen Kenntnissen in der EU noch vor der Europawahl weiter reduziert.

"Wir alle sind überzeugt, dass die Sachen nicht gut funktionieren", sagte Agarwal, das habe auch X eingesehen. Elon Musks X könne sich nun selbst zu Maßnahmen verpflichten, mit denen die Bedenken ausgeräumt werden könnten. Würden diese aber nicht eingehalten, könnten im nächsten Schritt dann massive Strafzahlungen folgen. Das Verfahren verlaufe derzeit konstruktiv, aber es sei deutlich, dass es große Probleme bei den systemischen Risiken gebe.

Als Beispiel dafür, wie der DSA wirken könne, führte Agarwal die Intervention der EU-Kommission als Aufsichtsbehörde bei TikTok-Lite an. Wenige Tage nach einer Aufforderung durch die EU-Kommission hatte TikTok die umstrittene, nur in Spanien und Frankreich eingeführte TikTok-Anwendung mit mutmaßlich starken Suchtfaktoren um eine Belohnungsfunktion reduziert. Der DSA bringe aber auch eine neue Nutzertransparenz mit, so Agarwal – etwa für die Betroffenen von Inhaltesperrungen. Auch hier sei noch einiges durch die Anbieter zu tun: Die müssten die Nutzer in solchen Fällen mit Informationen zur Sperrung und einem möglichen Widerspruch dagegen versorgen.

Derzeit werden Verfahren gegen TikTok, AliExpress, X und Meta geführt. Wie lange es wohl dauern werde, bis diese abgeschlossen würden, fragte Moderator Markus Beckedahl den Leiter des Referats für die DSA-Durchsetzung: "Ich glaube nicht, dass wir über fünf Jahre reden", sagt Agarwal und spielte damit auf die lange Verfahrensdauer etwa bei DSGVO-Verfahren an. "Thierry Breton ist eine sehr, sehr ungeduldige Person." Dennoch müssten die notwendigen Verfahrensschritte eingehalten werden.

Finanzieren müssen die Aufsicht übrigens die Firmen selbst: So wie bei der Bankenaufsicht müssen diese abhängig von Größe und Umsatz Gebühren entrichten. Für Analysen können die Aufsichtsbehörden wie die EU-Kommission auch externe Fachleute hinzuziehen, wenn nötig. Ein weiteres, wesentliches Element zur Durchsetzung sei aber auch, so Agarwal, dass Forscher sich bei ihren nationalen Regulierungsbehörden melden können, um Datenzugang bei den Unternehmen zu erhalten und eigene Forschungen auf internen Daten der Firmen durchzuführen. Forscher in Deutschland können dafür bei der Bundesnetzagentur in voraussichtlich einigen Wochen einen Antrag stellen.

Offen sei zudem die Frage, wie die Zivilgesellschaft gestärkt werden könnte, der eigentlich eine starke Rolle im DSA zugedacht ist. Etwa im Bereich der Pornoplattformen gebe es nur wenige Akteure, erläuterte der Kommissionsbeamte. Der DSA sieht unter anderem vor, dass zivilgesellschaftliche Akteure als sogenannte "Trusted Flagger" agieren können – also als vertrauenswürdige Hinweisgeber für die Plattformen, deren Meldungen priorisiert abgearbeitet werden. Allerdings gibt es dafür bis heute keinerlei Finanzierungsmodell und im DSA gibt es dazu auch keinerlei Vorgaben, sodass Akteure wie etwa die deutsche NGO Hate Aid mit dem Ausfüllen dieser Rolle einige Probleme sehen.

(mki)