FAQ: Das bedeuten DMA und DSA für uns

Das Gesetz über digitale Dienste (DSA) und das Gesetz über digitale Märkte (DMA) wollen einen sichereren digitalen Raum für alle Menschen in der EU schaffen.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen

(Bild: heise online)

Lesezeit: 11 Min.
Inhaltsverzeichnis

Mit der Digitale Dienste-Verordnung und der Verordnung über Digitale Märkte hat die EU 2022 zwei große Digitalregelwerke auf den Weg gebracht, die jetzt allmählich auch für die Nutzer ihre Wirkung entfalten. Was sich für sie damit alles ändern wird, haben wir hier zusammengefasst – soweit es bereits absehbar ist. Die FAQ wird stetig aktualisiert und um Details angereichert, denn noch werden nur Teile der beiden Gesetzeswerke angewandt. Fragen oder Anmerkungen nehmen wir entsprechend gerne entgegen.

Für wen gilt er?

Für die größten Plattformen und Suchmaschinen, die mehr als 45 Millionen Nutzer in der EU haben, gilt der DSA. Die Plattformen werden dann Very Large Online Platforms (VLOPs) und Very Large Online Search Engines (VLOSE) genannt. Der DSA wird seit September in weiten Teilen angewendet. Zuständig für die Durchsetzung bei den Onlineriesen ist die EU-Kommission.

Für kleinere Anbieter – kleinere Social Networks, Videoplattformen, Empfehlungsdienste oder Kommentarbereiche – gilt der DSA ab dem 17. Februar 2024. Bis dahin muss jedes europäische Mitgliedsland eine Behörde benennen, die federführend für die DSA-Durchsetzung zuständig ist. In Deutschland soll diese Stelle bei der Bundesnetzagentur angesiedelt werden. Das entsprechende Gesetz ist aber noch nicht fertig. Auch weitere Behörden sollen eine Rolle bei der Durchsetzung spielen - etwa die Landesmedienanstalten, die frühere Bundesprüfstelle für jugendgefährdende Schriften, die heute Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) heißt und der Bundesdatenschutzbeauftragte.

Der DSA betrifft aber nicht nur Plattformen: Alle sogenannten Vermittlungsdienste sind von ihm umfasst, vom Zugangsdiensteanbieter angefangen bis zum Betreiber eines größeren Onlineforums. Sie alle müssen künftig etwa Ansprechpartner und Kontaktdaten für Nutzer und Behörden benennen.

Verpflichtungen für Diensteanbieter

Alle Anbieter von Diensten mit Nutzerinhalten müssen Moderationsprozesse haben und nach ihrem nationalen Recht illegale Inhalte grundsätzlich entfernen. Das gilt nicht nur für soziale Netzwerke, sondern grundsätzlich für alle Angebote, wo Nutzer eigene Inhalte erstellen oder hinterlegen können – also etwa auch für YouTube-Kommentare, Wikipedia-Diskussionen oder Buchrezensionen. Es gibt auch keine definierte Mindestgröße eines Angebots. Jegliche Hosting-Anbieter müssen Inhalte prüfen können und Meldeprozesse entsprechend vorhalten, wenn sie nicht ihrerseits haftbar werden wollen. Bei besonders gravierenden Straftaten – etwa einer Gefahr für Leib und Leben – müssen die Anbieter die Behörden informieren.

Aktiv suchen müssen die Anbieter aber nicht. Anders als beim Netzwerkdurchsetzungsgesetz (NetzDG) für soziale Netzwerke, das mit dem Inkrafttreten des DSA praktisch bedeutungslos geworden ist, gibt es jedoch keinen Katalog von Straftaten, um die es bei der Prüfung geht. Entsprechend müssen alle möglicherweise illegalen Inhalte geprüft werden, wenn eine Meldung zu ihnen beim Betreiber eingeht. Ob Volksverhetzung, illegale Vervielfältigung, Beleidigung oder dem öffentlichen Aufruf zu einer Straftat: Alles muss von Betreibern geprüft werden, wenn eine Meldung dazu vorliegt. Sie müssen den Nutzern zudem mitteilen, dass ihre Inhalte oder ihre Konten gesperrt oder gelöscht werden – und warum.

Ansprechpartner für Streitfälle

Noch weiter gehen die Regelungen auf sogenannten Plattformen, also etwa in Sozialen Netzwerken: Sie müssen auch ein internes Verfahren zum Beschwerdemanagement vorhalten. Gegen einen Bescheid können sich die Betroffenen dann wehren: Sie können eine außergerichtliche Streitbeilegungsstelle anrufen, wenn ihre Beschwerde nicht bearbeitet oder eine Sperrung oder Löschung aus ihrer Sicht zu Unrecht erfolgt ist.

Allerdings fallen nicht alle Plattformbetreiber unter die Regelungen: Sogenannte Klein- und Kleinstunternehmen mit höchstens 49 Beschäftigten und weniger als 10 Millionen Euro Umsatz oder Bilanzsumme sind von diesen Pflichten ausgenommen.

Marktplätze müssen Betrug bekämpfen

Für Online-Marktplätze gilt: Anbieter sollen die Bekämpfung von Betrug und Produktfälschungen künftig erleichtern. Drittanbieter, die ihre Produkte auf Marktplätzen einstellen, müssen sich gegenüber dem Anbieter identifizieren, eine Telefonnummer, Zahlungskonten, Registereinträge und eine Konformitätserklärung für ihre Produkte abgeben. Einige der Daten, wie Name, Anschrift und Kontaktmöglichkeiten, müssen die Marktplatzbetreiber auch den Kunden zur Verfügung stellen. Die Betreiber müssen grundsätzlich prüfen, ob Anbieter ihren Informationspflichten nachkommen. Außerdem sollen sie stichprobenhaft prüfen, ob Anbieter doch illegale Inhalte anbieten – also etwa Produktfälschungen. Wenn ein Anbieter gegen diese Regeln verstößt, muss ihn der Marktplatzbetreiber sperren.

Änderungen von algorithmische Sortierungen und Feeds

Der DSA verlangt von Anbietern, dass die wichtigsten Parameter algorithmischer Empfehlungssysteme in für Menschen verständlicher Sprache offengelegt werden.

Besonders große Anbieter von Plattformen oder Suchmaschinen (VLOPs/VLOSE) müssen zudem eine nicht-personalisierte Variante der jeweiligen Darstellung anbieten – also etwa eine rein chronologische Timeline, Inhalte nur von Accounts, denen man auch folgt, oder eine rein preisbasierte Produkttrefferanzeige. Viele Anbieter haben bereits im Vorgriff auf den DSA hier für EU-Nutzer Veränderungen vorgenommen.

Weniger personalisierte Werbung

Werbung ist auf Plattformen komplett verboten, die sich ausschließlich an unter-18-Jährige wenden. Auch das Ausspielen von Werbung für Kinder basierend auf einer Auswertung von Daten ist ausdrücklich untersagt – also etwa das Targeting anhand von für Minderjährige typischen Merkmalen.

Das Profiling anhand besonders sensibler Daten nach Artikel 8 Absatz 1 DSGVO ist ebenfalls verboten: Rassische und ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen, Gewerkschaftszugehörigkeit genetische Daten, biometrische Daten zur eindeutigen Identifizierung einer natürlichen Person, Gesundheitsdaten oder Daten zum Sexualleben oder der sexuellen Orientierung sind damit für Werbetreibende in der EU tabu.

Irreführende Oberflächengestaltung und Dark Patterns

Mit dem DSA kommt auch ein ausdrückliches Verbot von irreführenden Oberflächengestaltungen: Typisch wären etwa graue Widersprechen-Schaltflächen und grüne Akzeptieren-Schaltflächen bei Einwilligungen zur Datenverarbeitung oder beim Abschluss von Verträgen. Aber auch andere Techniken, etwa Anzeigen, die wie Inhalte aussehen, können damit gemeint sein – was am Ende alles genau unter die "Dark Pattern"-Regelung fällt, werden die Gerichte erst noch klären müssen.

Systemische Risiken – oder Brandbeschleuniger Social Media

Die Anbieter besonders großer Plattformen müssen in Zukunft selbst einschätzen, ob bei ihnen sogenannte systemische Risiken vorliegen. Das meint etwa die Verbreitung von Desinformation: Führt etwa eine höhere Anzahl an Interaktionen mit einem Inhalt automatisch zu einem höheren Ranking und damit schnellerer Verbreitung auf einer Plattform, kann das ein Risikofaktor sein. Insbesondere im Umfeld von Wahlen – etwa im kommenden Jahr bei der Europawahl – will die EU-Kommission sehr genau darauf achten. Aber auch im Kontext von Krisen, die ihren Widerhall in Social Media finden – etwa nach dem Überfall der Terrororganisation Hamas auf Israel – spielt die Frage eine große Rolle, ob Social Media als Brandbeschleuniger für Konflikte funktioniert, sich neutral verhält oder aktiv auch Fehlinformationen unterbindet.

Weniger abstrakt sind Gesundheitsrisiken – die können damit ausdrücklich ebenfalls gemeint sein. Also etwa einige der berühmt-berüchtigten Challenges auf TikTok, aber auch allgemeinere Probleme wie etwa die Frage, ob beispielsweise auf Instagram Anorexie zum Standard für Jugendliche erhoben wird oder der Umgang mit Spielsucht. Hier müssen die Anbieter darlegen, wie sie mit solchen Risiken umgehen und welche Maßnahmen sie ergreifen, um sie einzuhegen. Reicht das der Aufsicht nicht, kann diese Nachbesserungen verlangen.

Pornografie als Sonderfall

Plattformen, über die pornografische Inhalte vertrieben werden, müssen mit dem DSA mit einigen besonderen Herausforderungen rechnen, die auch die Nutzer betreffen können. Zum einen betrifft das den Jugendschutz: Die nationalen Regelungen zum Jugendschutz auf Onlineplattformen werden – wo vorhanden – von den DSA-Regeln verdrängt. Was aber illegal ist, definiert weiterhin das nationale Recht. Gerade bei den größten Anbietern steht zudem noch eine Benennung als "Besonders große Plattform" im Raum – dann würden auch hier etwa Pflichten zu systemischen Risiken greifen, etwa bei RevengePorn oder ähnlichen Phänomenen.