Europawahl 2024: Die große Angst vor Einflussnahme

Seite 2: Digital Service Act und KI

Inhaltsverzeichnis

Massenhafte Desinformation bis hin zur Wahlbeeinflussung bezeichnet die EU-Kommission als ein systemisches Risiko und sieht die Plattformen selbst in der Verantwortung, dagegen vorzugehen. Der jüngst voll wirksam gewordene Digital Services Act (DSA) verpflichtet die großen Anbieter, systemische Risiken ihrer eigenen Plattformen zu prüfen und angemessene Maßnahmen dagegen zu ergreifen. Auch deshalb sind die Plattformbetreiber – vorneweg Meta, Alphabet, X und Bytedance – von großer Relevanz für die Abwehr unzulässiger Eingriffe in die Europawahlen. Ende März stellte die EU-Kommission den Plattformbetreibern Richtlinien dazu zur Verfügung, wie diese mit möglichen Einmischungsversuchen und Angriffen umgehen sollten. Und die Kommission scheint entschlossen, diese Richtlinien auch durchzusetzen. Bereits am 30. April leitete sie in diesem Zusammenhang ein erstes Verfahren gegen Meta ein. Darin soll geprüft werden, ob der Betreiber von Facebook und Instagram möglicherweise gegen den DSA verstoßen hat.

Unter anderem fordert die Kommission von den Betreibern, Inhaltsmoderatoren mit Kenntnissen in den Landessprachen zu beschäftigen. Mindestens für den Zeitraum von einem Monat vor dem Wahltermin bis einen Monat danach sollen die Plattformen spezielle Teams für alle denkbaren Ereignisse und Maßnahmen aufrechterhalten. Was im deutschen und französischen Sprachraum kein Problem darstellt, ist gerade in den als besonders gefährdet geltenden baltischen Staaten Litauen, Estland und Lettland und für die dort gesprochenen Sprachen keineswegs garantiert.

Die Transparenzberichte der Plattformen zum Inkrafttreten des DSA belegen zudem, dass die Anbieter nur wenige bis gar keine sprachkundigen Mitarbeiter als Inhaltsmoderatoren beschäftigen. Hinzu kommt: Der DSA verpflichtet die Betreiber lediglich, Moderatoren in den Amtssprachen der EU zu beschäftigen – Russisch, Chinesisch, Arabisch, Vietnamesisch oder Türkisch gehören nicht dazu, obwohl alle diese Sprachen von relevanten und wahlberechtigten Minderheiten in der EU gesprochen werden.

Das EU DisinfoLab sammelt und bewertet Fakten zur politischen Desinformation in Europa. Für jedes wichtige Ereignis steckt ein Marker in der "Disinformation Landscape".

Der DSA enthält auch Vorgaben zur KI-Nutzung. Die Plattformen sollen KI-Anwendungen demnach besonders im Auge behalten und gegen Missbrauch vorgehen. Die meisten Deepfakes lassen sich zwar erkennen, aber die technische Entwicklung schreitet so schnell voran, dass immer mehr davon auftauchen und die schiere Menge eine Herausforderung für die Plattformbetreiber bedeutet.

Parteien und Politiker sind sich mitten im Wahlkampf noch nicht im Klaren, wie sie KI einsetzen können und wollen. Es gebe derzeit "keine konkrete Planung, KI-generiertes Bildmaterial im Wahlkampf einzusetzen", sagt beispielsweise Fabian Lambeck, Pressesprecher der Linkspartei, fügt allerdings hinzu: "Wir schließen dies aber auch nicht prinzipiell aus." "Wenn wir KI anwenden, würden wir dies kennzeichnen", teilt eine Sprecherin der CDU mit. Die Grünen haben bereits interne Richtlinien für die KI-Nutzung entwickelt, die Partei setzt KI-Tools für Datenanalysen zur Zielgruppenansprache ein. Die SPD arbeitet noch an Richtlinien zur KI-Nutzung. Ob es nicht eine Selbstverpflichtung der Parteien geben müsse? "Angesichts der Gefahren und Risiken, die mit dem Einsatz von KI verbunden sind, bräuchte es eine solche Vereinbarung", heißt es von der Linken. Und natürlich wollen sich alle Parteien, die auf Anfragen geantwortet haben, an die Vorgaben der KI-Verordnung halten – wenngleich sie bis zur Europawahl zwar vorraussichtlich in Kraft gesetzt, aber wegen der enthaltenen Umsetzungfristen erst 2025 wirksam wird.