Digital Services Act: EU-Kommission will Ampeln fürs Netz etablieren

Mit angedrohten Milliardenstrafen soll die Marktmacht von Internet-Giganten wie Facebook, Google und Amazon begrenzt werden. Illegale Inhalte sind zu löschen.

In Pocket speichern vorlesen Druckansicht 131 Kommentare lesen

Kommissionsvizepräsidentin Margrethe Vestager stellt in Brüssel den Digital Services Act vor.

(Bild: EU-Kommission/Aurore Martignoni)

Lesezeit: 8 Min.
Inhaltsverzeichnis

Die EU-Kommission hat am Mittwoch ihr lange erwartetes Gesetzespaket zum Einhegen der Macht von Online-Plattformen veröffentlicht. Mit zwei Verordnungen will die Kommission neue Regeln für Dienste im Internet und striktere Kartellbestimmungen aufstellen sowie Werbung im Netz transparenter machen. Ziel ist "eine sichere, vorhersehbare und vertrauenswürdige Online-Umgebung", in der die Grundrechte trotz tiefer Einschnitte "wirksam geschützt werden".

Die für Digitales zuständige Kommissionsvizepräsidentin Margrethe Vestager verglich das ambitionierte Vorhaben mit dem Aufstellen der allerersten Ampel in Cleveland 1914, um den zunehmenden Autoverkehr zu regeln. Inzwischen habe auch der Verkehr im Netz so zugenommen, "dass wir Ordnung ins Chaos bringen müssen". Plattformen treffe daher eine Sorgfaltspflicht. Sie müssten illegale Inhalte entfernen, den Nutzern aber auch erklären, warum gesperrt wurde, und ihnen eine Beschwerdemöglichkeit einräumen. Alle Beteiligten sollten zudem Informationen darüber erhalten, wie verwendete Algorithmen funktionieren.

Teil des Bündels ist der Digital Services Act (DSA), mit dem in einzelnen Bereichen ein Paradigmenwechsel bei der Verantwortlichkeit einhergehen soll. Plattformen müssen demnach nachweisen, dass sie keine "tatsächliche Kenntnis" über illegale Inhalte auf ihren Seiten haben oder "unverzüglich" gehandelt haben, um den Content zu entfernen oder den Zugang dazu zu blockieren. Sonst haften sie.

Behörden können Providern ohne Richtervorbehalt grenzüberschreitende Anordnungen schicken, um gegen bestimmte illegale Inhalte vorzugehen. Die Betroffenen müssen unverzüglich Rückmeldung geben über die zu welchem Zeitpunkt getroffenen Maßnahmen. Das heikle Thema der Upload-Filter erwähnen die Verfasser nicht. Für größere Anbieter könnten sich diese Instrumente aber als einziger Ausweg aus der Verantwortung erweisen.

Das Feld der genannten rechtswidrigen Inhalte ist weit. Darunter fallen etwa strafbare Hasskommentare, terroristische Inhalte, für die mit einer eigenen Verordnung Löschpflichten von einer Stunde gelten sollen, diskriminierende Inhalte, Darstellungen sexuellen Kindesmissbrauch, die nicht-einvernehmliche Weitergabe privater Bilder, Online-Stalking, der Verkauf gefälschter Produkte und die unautorisierte Nutzung urheberrechtlich geschützter Werke.

Um den Kampf gegen solche illegalen Inhalte zu unterstützen, müssen Hosting-Provider laut Artikel 14 effiziente "Notice and Action"-Mechanismen einrichten. Diese sollen es Einzelpersonen ermöglichen, als rechtswidrig eingestufte Kommentare oder Beiträge zu melden und dagegen vorzugehen. Dies erinnert stark an das Netzwerkdurchsetzungsgesetz.

Werbefinanzierte Plattformen müssen sicherstellen, dass die Nutzer für jede angezeigte Reklame klar, unmissverständlich und in Echtzeit erkennen können, dass es sich um Werbung handelt und wer dahintersteckt. Dazukommen sollen "aussagekräftige Informationen über die wichtigsten Parameter", die zur Bestimmung des Empfängers der Werbebotschaft verwendet werden. Auch das besonders umstrittene Microtargeting müsste so offengelegt werden.

Für Blogger und kleine journalistische Portale gelten hier Ausnahmen, für größere Plattformen in diesem und in anderen Bereichen schärfere Bestimmungen. Plattformen mit mehr als 45 Millionen aktiven Nutzern in der EU könnten etwa gezwungen werden, einen umfassenden Zugang zu aufbewahrten Daten zu gewähren, solange Geschäftsgeheimnisse nicht berührt werden. Sie sollen Archive einrichten, um Desinformation und illegale Werbeinhalte entdecken zu können.

Betreiber etwa sozialer Netzwerke müssen jährliche Risikobewertungen durchführen und untersuchen, wie sie mit verschiedenen systematischen Gefahren wie der Verbreitung illegaler Inhalte im Internet umgehen. Aufzuzählen sind verschiedene ergriffene Abhilfemaßnahmen etwa in Form des Stopps von Werbeauszahlungen für einschlägigen Content oder eine erweiterte Sichtbarkeit zuverlässiger Informationsquellen. Eine weitere Auflage: Provider "veröffentlichen mindestens einmal jährlich klare, leicht verständliche und ausführliche Berichte über die von ihnen in dem betreffenden Zeitraum durchgeführte Inhaltsmoderation". Darin sind auch algorithmische Entscheidungen und ihre menschliche Kontrolle anzuführen.

Die EU-Staaten sollen einen "Koordinator für digitale Dienste" ernennen, der die Durchsetzung der Verordnung überwacht. Die Kontrolleure könnten verlangen, dass Plattformen Schlüsseldaten an Forscher weitergeben, um deren einschlägige Aktivitäten zu untersuchen. Ein europäischer Ausschuss von Koordinatoren soll darauf achten, dass der DSA in der EU einheitlich angewandt wird.

Beibehalten will die Kommission das Verbot allgemeiner Überwachungspflichten aus der E-Commerce-Richtlinie. Dies sei "entscheidend für den erforderlichen fairen Ausgleich der Grundrechte in der Online-Welt". Dieser Ansatz begrenze "auch die Anreize zu Online-Überwachung" und habe "positive Auswirkungen auf den Schutz personenbezogener Daten und der Privatsphäre".

Mit Blick auf die unternehmerische Freiheit der Diensteanbieter würden die diesen entstehenden Kosten durch eine größere Harmonisierung des Binnenmarktes ausgeglichen, argumentiert die Kommission. Dazu kämen Maßnahmen, um die Belastung der Betreiber zu verringern. So würden etwa "wiederholte ungerechtfertigte Meldungen" verhindert und "vertrauenswürdige" institutionelle Hinweisgeber auf potenzielle illegale Inhalte durch Behörden vorab überprüft.