Europawahl 2024: Die große Angst vor Einflussnahme

Die anstehende Europawahl, die in Deutschland am 9. Juni stattfinden wird, steht angesichts der weltpolitischen Lage unter besonderen Vorzeichen.

vorlesen Druckansicht 7 Kommentare lesen
, KI Midjourney  Collage c’t

(Bild: KI Midjourney | Collage c’t)

Lesezeit: 10 Min.
Inhaltsverzeichnis

Seit Monaten bereiten sich die europäischen Institutionen, allen voran das Europaparlament, nationale Wahlleitungen, Cybersicherheitsbehörden und Nachrichtendienste, auf das Großereignis Europawahl 2024 vor. Viele Einzelmaßnahmen sollen verhindern, dass die Wahl manipuliert wird. Experten befürchten Bedrohungsszenarien ganz unterschiedlicher Art.

Jeder EU-Mitgliedstaat führt die Wahlen zum europäischen Parlament in Eigenregie durch, und zwar nach seinen nationalen Wahlgesetzen, mit nationaler Umsetzung und nationalen Kandidaten. Streng genommen gibt es also gar nicht die eine Wahl, sondern 27 einzelne Wahlvorgänge. Diese Komplexität schützt die Europawahl in gewisser Weise, denn sie erschwert einen erfolgreichen Angriff auf technischem Weg. Dennoch warnt die Europäische Netzwerk- und Informationssicherheitsbehörde ENISA vor möglichen Angriffen.

Europawahl 2024

Bereits im November 2023 führten die Cybersicherheitsbehörden daher zusammen mit EU-Kommission und dem Europaparlament ein Planspiel durch, um mögliche Gefährdungen zu identifizieren. Im März stellte ENISA den Wahlbehörden und den Cybersicherheitsbehörden der EU-Staaten ein umfangreiches Kompendium mit Schutzmaßnahmen zur Verfügung. Darin heißt es: "Ein Vorfall in irgendeiner Phase des Wahlvorgangs irgendwo in der EU könnte Spill-Over-Effekte haben und die Legitimität der Wahlergebnisse insgesamt betreffen." Denn auch wenn Europa in viele Wahlkreise und nationale Wahlsysteme aufgeteilt ist, geht es am Ende um ein gemeinsames Parlament, dessen Mitglieder wichtige Entscheidungen für alle EU-Bürger treffen.

Auf der Website der Bundeswahlleiterin finden Wähler Informationen rund um Desinformationen zur Europawahl.

Videos by heise

Hinlänglich bekannte Störmanöver sind beispielsweise Phishing-Angriffe gegen einzelne Kandidaten oder politische Parteien sowie Versuche, bei elektronischen Abstimmungsverfahren die Wahlinfrastruktur zu kompromittieren. Unter Experten gilt es mittlerweile allerdings als wahrscheinlicher, dass ausländische Mächte die Wahl indirekt zu manipulieren versuchen, indem sie den Wählerwillen unzulässig beeinflussen.

Deshalb stehen die in den jeweiligen Mitgliedstaaten populären Plattformen im Fokus der Sicherheitsbemühungen. Deren Nutzung unterscheidet sich je nach Staat und Nutzergruppe erheblich. In Deutschland dürfen bei der Europawahl 2024 erstmals Jugendliche ab 16 Jahren mit abstimmen. Daher haben Sicherheitsbehörden die unter jungen Leuten populäre Kurzvideoplattform TikTok des chinesischen Anbieters Bytedance besonders im Blick. Wie für alle Plattformen gilt auch für TikTok, dass sich aufgrund der Dynamik in den sozialen Netzen Unwahrheiten und Gerüchte rasend schnell verbreiten. Sie sind dann kaum mehr einzufangen.

Insbesondere Russland und China stehen immer wieder im Verdacht, auf unterschiedliche Arten Einfluss auf das politische Gefüge anderer Länder auszuüben. Beide betreiben Medien für das Ausland, die journalistischen Standards nicht entsprechen. Russland hat in der Vergangenheit nachweislich versucht, über Fake-Accounts falsche Inhalte zu verbreiten. Dabei machten sich russische Akteure die Logik der Social-Media-Plattformen zunutze, dass besonders interaktionsstarke Inhalte an Sichtbarkeit gewinnen. Genau solche Verstärkungstechniken seien Teil der Herangehensweise von bösartigen Akteuren, erklärt Lutz Güllner, Leiter einer mit Desinformation befassten Stelle beim Europäischen Auswärtigen Dienst.

Die meisten Politiker scheinen angesichts der Social-Media-Verbreitungslogik weitgehend ratlos. Je schriller die Inhalte, desto schneller finden sie in den algorithmengetriebenen Umgebungen ihr Publikum. Seriöse politische Aussagen samt aller erklärungsbedürftigen Details wirken im Vergleich langweilig und anstrengend. Sie passen schlecht zur Entertainment-Logik eines 30-Sekunden-Videos. Die meisten Politiker zögern daher, auf beliebte Plattform zu gehen. Gerade die Debatten rund um TikTok und dessen Eigentümer Bytedance sorgen in vielen Parteien für Diskussionen. Während deren Mitglieder noch die Gefahr diskutieren, sich zum Gehilfen einer politisch problematischen Entwicklung zu machen, nutzt die AfD jede Gelegenheit, möglichst ohne Widerspruch ihre Parolen in die Welt zu jagen – auf TikTok, X, Facebook oder via Telegram.

Das Projekt "Forum gegen Fakes – Gemeinsam für eine starke Demokratie" will eine Debatte zum Umgang mit Desinformation anstoßen. Ein Bürgerrat hat dazu Vorschläge entwickelt, über die jeder abstimmen kann.

Der AfD-Spitzenkandidat für die Europawahl, Maximilian Krah, zeigt sich beispielsweise ausgesprochen China-freundlich. Er nutzt TikTok seit langem intensiv zur Selbstdarstellung. Im Vorfeld der Europawahl richteten kürzlich auch Mitglieder der Grünen oder die FDP-Spitzenkandidatin Marie-Agnes Strack-Zimmermann TikTok-Accounts ein. In der Abwägung sei es richtig, dass andere Parteien nachziehen, sagt der Politikberater Johannes Hillje: "Ansonsten droht aus der Generation TikTok die Generation AfD zu werden." 65 Prozent der 14- bis 29-Jährigen konsumieren täglich von ausgeklügelten Algorithmen verteilte News aus dem Internet, so eine Studie im Auftrag der Landesmedienanstalten aus dem Jahr 2022. Inzwischen dürfte der Anteil noch zugenommen haben.

Massenhafte Desinformation bis hin zur Wahlbeeinflussung bezeichnet die EU-Kommission als ein systemisches Risiko und sieht die Plattformen selbst in der Verantwortung, dagegen vorzugehen. Der jüngst voll wirksam gewordene Digital Services Act (DSA) verpflichtet die großen Anbieter, systemische Risiken ihrer eigenen Plattformen zu prüfen und angemessene Maßnahmen dagegen zu ergreifen. Auch deshalb sind die Plattformbetreiber – vorneweg Meta, Alphabet, X und Bytedance – von großer Relevanz für die Abwehr unzulässiger Eingriffe in die Europawahlen. Ende März stellte die EU-Kommission den Plattformbetreibern Richtlinien dazu zur Verfügung, wie diese mit möglichen Einmischungsversuchen und Angriffen umgehen sollten. Und die Kommission scheint entschlossen, diese Richtlinien auch durchzusetzen. Bereits am 30. April leitete sie in diesem Zusammenhang ein erstes Verfahren gegen Meta ein. Darin soll geprüft werden, ob der Betreiber von Facebook und Instagram möglicherweise gegen den DSA verstoßen hat.

Unter anderem fordert die Kommission von den Betreibern, Inhaltsmoderatoren mit Kenntnissen in den Landessprachen zu beschäftigen. Mindestens für den Zeitraum von einem Monat vor dem Wahltermin bis einen Monat danach sollen die Plattformen spezielle Teams für alle denkbaren Ereignisse und Maßnahmen aufrechterhalten. Was im deutschen und französischen Sprachraum kein Problem darstellt, ist gerade in den als besonders gefährdet geltenden baltischen Staaten Litauen, Estland und Lettland und für die dort gesprochenen Sprachen keineswegs garantiert.

Die Transparenzberichte der Plattformen zum Inkrafttreten des DSA belegen zudem, dass die Anbieter nur wenige bis gar keine sprachkundigen Mitarbeiter als Inhaltsmoderatoren beschäftigen. Hinzu kommt: Der DSA verpflichtet die Betreiber lediglich, Moderatoren in den Amtssprachen der EU zu beschäftigen – Russisch, Chinesisch, Arabisch, Vietnamesisch oder Türkisch gehören nicht dazu, obwohl alle diese Sprachen von relevanten und wahlberechtigten Minderheiten in der EU gesprochen werden.

Das EU DisinfoLab sammelt und bewertet Fakten zur politischen Desinformation in Europa. Für jedes wichtige Ereignis steckt ein Marker in der "Disinformation Landscape".

Der DSA enthält auch Vorgaben zur KI-Nutzung. Die Plattformen sollen KI-Anwendungen demnach besonders im Auge behalten und gegen Missbrauch vorgehen. Die meisten Deepfakes lassen sich zwar erkennen, aber die technische Entwicklung schreitet so schnell voran, dass immer mehr davon auftauchen und die schiere Menge eine Herausforderung für die Plattformbetreiber bedeutet.

Parteien und Politiker sind sich mitten im Wahlkampf noch nicht im Klaren, wie sie KI einsetzen können und wollen. Es gebe derzeit "keine konkrete Planung, KI-generiertes Bildmaterial im Wahlkampf einzusetzen", sagt beispielsweise Fabian Lambeck, Pressesprecher der Linkspartei, fügt allerdings hinzu: "Wir schließen dies aber auch nicht prinzipiell aus." "Wenn wir KI anwenden, würden wir dies kennzeichnen", teilt eine Sprecherin der CDU mit. Die Grünen haben bereits interne Richtlinien für die KI-Nutzung entwickelt, die Partei setzt KI-Tools für Datenanalysen zur Zielgruppenansprache ein. Die SPD arbeitet noch an Richtlinien zur KI-Nutzung. Ob es nicht eine Selbstverpflichtung der Parteien geben müsse? "Angesichts der Gefahren und Risiken, die mit dem Einsatz von KI verbunden sind, bräuchte es eine solche Vereinbarung", heißt es von der Linken. Und natürlich wollen sich alle Parteien, die auf Anfragen geantwortet haben, an die Vorgaben der KI-Verordnung halten – wenngleich sie bis zur Europawahl zwar vorraussichtlich in Kraft gesetzt, aber wegen der enthaltenen Umsetzungfristen erst 2025 wirksam wird.

Vermutlich wird der DSA zur bevorstehenden Europawahl in Deutschland noch nicht viel Wirkung haben. Monatelang stritt die Bundesregierung über das Digitale-Dienste-Gesetz, erst Ende April beschloss der Bundesrat schließlich das Begleitgesetz zum DSA. Mit dem wird eine unabhängige Stelle bei der Bundesnetzagentur geschaffen, die für Deutschland die DSA-Aufsicht koordinieren soll. Dort laufen seit Monaten Vorbereitungen für die deutsche DSA-Durchsetzung: 99 Mitarbeiter sollen sich künftig um die digitalen Dienste kümmern, zehn von ihnen waren schon vor Inkrafttreten in einen sogenannten Aufbaustab abgestellt.

Ein Digitale-Dienste-Koordinator wird die zentrale Anlaufstelle für Beschwerden sein, die sich auf den Digital Services Act berufen; er wird künftig auch für "glaubwürdige Hinweisgeber" ("Trusted Flagger") zuständig sein. So bezeichnet das Gesetz ein System aus Stellen, die mit besonderer Priorität problematische Inhalte an die Plattformen melden können. Genau die sollen eigentlich eine tragende Säule bei der Durchsetzung des DSA bilden, auch zur Europawahl.

Ein Fake-Video der Nachrichtenwebsite "Russia Today" zeigt europäische Staatsoberhäupter, darunter Olaf Scholz, wie sie verzweifelt und erfolglos nach Sanktionsmaßnahmen gegen Russland suchen.

(Bild: Quelle: Russia Today)

HateAid ist eine gemeinnützige Organisation, die sich schon länger für Menschenrechte im digitalen Raum einsetzt und sich auf YouTube gegen digitale Gewalt und ihre Folgen engagiert. "Mit Blick auf die Europawahl ist die Verzögerung im deutschen Prozess bedenklich", sagt Josephine Ballon von HateAid. Zu vieles sei noch unklar, sie zweifelt daran, dass der DSA in Deutschland seine Wirkung rechtzeitig entfaltet. Es sei auch noch vollkommen offen, ob das System bei den danach folgenden Landtagswahlen funktionieren werde. "Jetzt tut man so, als ob Trusted Flagger als Institution da wären – und die das Internet aufräumen", sagt Ballon. Dabei bekämen die meisten für ihre Arbeit keinerlei finanzielle Förderung. "Wenn man sich darauf verlässt, dass illegale Inhalte den Plattformen auf jeden Fall zur Kenntnis gebracht und dann entfernt werden, ist das schon gewagt."

Im Kontext der Europawahl erlebt der Digital Services Act mit allen seinen Werkzeugen eine Feuertaufe unter schwierigsten Bedingungen. Immerhin könnten die Erkenntnisse aus dieser unmittelbar für weitere Wahlen in diesem Jahr nützlich sein, versichern alle, die sich mit dem Thema befassen. Auch die Plattformen werden aus den Wahlen in der EU und denen in Indien lernen und diese Erfahrungen hoffentlich bei den bevorstehenden Wahlen in den USA nutzen können. (dwi)