Digital Services Act: Wie die EU das Internet künftig regulieren wird

Seite 2: Was zählt zu den konkreten Auflagen?

Inhaltsverzeichnis

Vor allem Maßnahmen zur Bekämpfung illegaler Waren, Dienstleistungen und Inhalte im Internet. Dazu gehört ein Mechanismus, der es den Nutzern ermöglichen soll, entsprechenden Content einfach zu markieren und so zu melden. Plattformen können dabei mit "vertrauenswürdigen Markierern" ("trusted flaggers") zusammenarbeiten.

Behörden aller Art können künftig Host-Providern ohne Richtervorbehalt grenzüberschreitende Anordnungen schicken, um gegen illegale Inhalte wie strafbare Hasskommentare, Darstellungen sexuellen Kindesmissbrauchs oder die unautorisierte Nutzung urheberrechtlich geschützter Werke vorzugehen. Betroffene Plattformen müssen solche Angebote dann "ohne unangemessene Verzögerung" sperren oder blockieren und bei schweren Straftaten zudem der Polizei melden.

Die Bestimmungen beziehen sich auch auf schädliche Inhalte wie Desinformation. Darauf zielen vor allem Auflagen für Empfehlungssysteme ab, die Plattformen etwa in ihren News-Feeds verwenden. Mit dem DSA müssen sie die Funktionsweise der dafür genutzten Algorithmen in groben Zügen transparent machen.

Alle erfassten Online-Dienste müssen eine Kontaktstelle beziehungsweise einen Rechtsvertreter in der EU benennen. Das gilt auch für Messenger-Services wie Telegram, mit dessen Erreichbarkeit sich die deutsche Politik und Justiz derzeit schwertut. Niemand soll so in Europa auf dem Markt agieren können, ohne sich an europäisches Recht zu halten.

Dazu kommen unter anderem neue Pflichten zur Rückverfolgbarkeit gewerblicher Nutzer auf Online-Marktplätzen. Alle Händler müssen identifiziert werden, während die Anonymität der privaten Nutzer gewahrt bleiben soll. Online-Marktplätze müssen Datenbanken auch Dritter stichprobenartig auf illegale Produkte abfragen und "zumutbare Anstrengungen" unternehmen, um die Rückverfolgbarkeit der Händler sicherzustellen.

Nach dem deutlich weniger breit ausgerichteten NetzDG müssen Betreiber großer Plattformen für nutzergenerierte Inhalte offensichtlich strafbare Beiträge, die ihnen beispielsweise User melden, innerhalb von 24 Stunden löschen. Die Entscheidung über komplexe Fälle, bei denen die potenzielle Rechtswidrigkeit schwer zu bewerten ist, können Anbieter seit zwei Jahren aber auch zunächst an die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM) weiterleiten. Das dort angesiedelte Expertengremium muss sich vor allem mit Beleidigung und Agitation auseinandersetzen. Wenn die Vorschriften aus dem DSA spätestens Anfang 2024 greifen, haben sie in ähnlich gelagerten Bereichen direkt Vorrang gegenüber dem NetzDG.

Sehr große Plattformen und Suchmaschinen gelten als relevant für die öffentliche Meinungsbildung und so auch für die Demokratie. Artikel 26 verpflichtet sie daher zu jährlichen Bewertungen der Risiken, die auf ihr Design einschließlich ihrer algorithmischen Systeme und ihrer Funktionsweise sowie auf die Nutzung ihrer Dienstleistungen für Grundrechte, Menschenwürde, Datenschutz, Meinungs- und Medienvielfalt, Diskriminierungsverbot, Jugendschutz und Verbraucherschutz zurückgehen. Eventuelle negative Auswirkungen der Services für den öffentlichen Diskurs und Wahlen, für geschlechtsspezifische Gewalt sowie für das mentale und physische Wohlergehen der Nutzer müssen von den Betreibern analysiert werden. Artikel 27 verpflichtet sie, die identifizierten Gefahren auch zu beheben.

Die Kommission und Vertreter der Mitgliedstaaten sollen auch "Zugang" zu den Algorithmen sehr großer Online-Plattformen haben. Wie weit dieser gehen soll? Noch unklar. Veröffentlichen müssen werden Facebook & Co. ihre einschlägigen Programmroutinen wohl kaum, da sie hier immer wieder Geschäftsgeheimnisse ins Feld führten. Forscher und zivilgesellschaftliche Organisationen sollen aber Zugang zu Informationen wie Trainingsdaten bekommen, um eine unabhängige Kontrolle zu ermöglichen und zu verstehen, wie diese Mega-Plattformen funktionieren.

Im Fall von Krisen wie Kriegen und Pandemien, von denen eine Gefahr für die öffentliche Sicherheit oder die menschliche Gesundheit ausgeht, kann die Kommission sehr große Plattformen auffordern, dringende Bedrohungen auf ihren Portalen zu begrenzen. Diese spezifischen Maßnahmen sind auf drei Monate begrenzt.