EU-Kommission: So sollen Plattformen systemische Risiken bei Wahlen verringern​

Auf Basis des Digital Services Act (DSA) hat die Kommission Leitlinien für Google, Meta & Co. veröffentlicht, wie diese etwa Deepfakes erkennbar machen müssen.​

In Pocket speichern vorlesen Druckansicht 21 Kommentare lesen
Gebäude der EU-Kommission in Brüssel, 2016

Gebäude der EU-Kommission in Brüssel (2016)

(Bild: heise online)

Lesezeit: 3 Min.

Die EU-Kommission hat am Dienstag Empfehlungen für Maßnahmen herausgegeben, die sehr große Online-Plattformen und Suchmaschinen mit über 45 Millionen aktiven europäischen Nutzer ergreifen sollen, um systemische Online-Risiken rund um die Integrität von Wahlen zu reduzieren. Dazu gehören spezifische Leitlinien für die Europawahlen im Juni. Die Vorgaben basieren auf dem Digital Services Act (DSA), der eine entsprechende allgemeine Pflicht vorsieht. Neben der Risikominderung müssen die Betreiber demnach zugleich die Grundrechte wahren – einschließlich des Rechts auf freie Meinungsäußerung.

Ein Aspekt bezieht sich auf Gefahren im Zusammenhang mit Systemen generativer Künstlicher Intelligenz (KI) wie ChatGPT. Demnach müssen die betroffenen Plattformen "künstliche oder manipulierte Bilder, Audio- oder Videoinhalte, die vorhandenen Personen, Objekten, Orten, Entitäten oder Ereignissen merklich ähneln", eindeutig kennzeichnen oder auf andere auffällige Weise markieren. Dies gilt etwa auch für Aufnahmen, die fälschlicherweise recht authentisch den Anschein erwecken, eine bestimmte Person zu sein (Deepfakes).

Um die Richtlinien durchzusetzen, sollen Anbieter "ihre Prozesse und algorithmischen Systeme zur Inhaltsmoderation so anpassen, dass KI-generierte oder manipulierte Inhalte" beispielsweise über Wasserzeichen, Metadatenidentifikationen, kryptografische Methoden zum Nachweis der Herkunft und Authentizität von Inhalten erkennbar sind.

Während einer laufenden Wahl müssen die Betreiber Nutzern den Leitlinien zufolge zudem Zugang zu "zuverlässigen, aktuellen und verständlichen Informationen aus offiziellen Quellen über die Stimmabgabe und den Abstimmungsprozess". Dies soll helfen, potenzielle Schäden durch schwerwiegende Probleme wie manipulierte Bilder, Stimmen oder Deepfakes etwa von politischen Akteuren zu verringern. Anbieter sollen ferner gewährleisten, dass sie schnell auf Manipulationen ihres Dienstes reagieren können, die darauf abzielen, den Wahlprozess zu untergraben. Dies gilt auch für Versuche, "Desinformation und Informationsmanipulation zur Unterdrückung von Wählern einzusetzen".

Die Plattformen werden zudem angehalten, ihre internen Schutzmechanismen generell zu verstärken. So sollen sie etwa interne Teams mit angemessenen Ressourcen einrichten, die Analysen und Informationen über lokale kontextspezifische Risiken über die Nutzung ihrer Dienste verfügbar machen. Dazu kommt der Appell, Initiativen zur Medienkompetenz umzusetzen und ihre Empfehlungssysteme anzupassen. Nutzern soll es so möglich sein, die Anzeige von Inhalten, die die Integrität von Wahlprozessen gefährden, zu verringern.

Ferner rät die Kommission, politische Werbung im Vorgriff auf eine einschlägige Verordnung eindeutig als solche erkennbar zu machen. Auch sei die Kooperation mit Behörden, unabhängigen Sachverständigen und der Zivilgesellschaft "vor, während und nach der Wahl zu fördern". Während laufender Stimmabgaben soll ein Notfallmechanismus "zur Reaktion auf Zwischenfälle" aktivierbar sein.

Sehr große Online-Plattformen, die den angeratenen bewährten Verfahren nicht entsprechen, müssen gegenüber der Kommission nachweisen, dass ihre ergriffenen Maßnahmen zur Risikominderung gleichermaßen wirksam sind. Sonst drohen letztlich Sanktionen. Ende April will die Kommission einen "Stresstest mit den einschlägigen Interessenträgern" durchführen, um den eingerichteten Instrumente und Kooperationsmechanismen auf den Zahn zu fühlen.

(mack)