Enisa warnt: Angriffe auf Wahlen mit KI

Im Vorfeld der EU-Wahlen mahnt die Enisa angesichts von ChatGPT und Deepfakes, digitale Infrastrukturen und die Integrität von Informationen besser abzusichern.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: Daniel Jedzura/Shutterstock.com)

Lesezeit: 3 Min.

Die EU-Cybersicherheitsbehörde Enisa zeigt sich mit Blick auf die anstehenden EU-Wahlen besorgt über mögliche Manipulationskampagnen, die durch neue Entwicklungen im Bereich Künstlicher Intelligenz (KI) befeuert werden. Der Einsatz von Chatbots mit generativer KI wie ChatGPT, Microsoft Bing oder Google Bard verändere "die Art und Weise, wie wir arbeiten, leben und spielen", schreibt die Institution in ihrem am Donnerstag veröffentlichten Bericht über die Bedrohungslandschaft 2023. Auch die Cybersicherheit sei betroffen, da mit KI erzeugte, scheinbar perfekte Deepfakes für "realistische und gezielte Social-Engineering-Angriffe" genutzt werden können.

"Das Vertrauen in den EU-Wahlprozess wird entscheidend von unserer Fähigkeit abhängen, uns auf cybersichere Infrastrukturen sowie auf die Integrität und Verfügbarkeit von Informationen zu verlassen", betonte daher Enisa-Direktor Juhan Lepassaar anlässlich der Veröffentlichung der Analyse. "Jetzt liegt es an uns, sicherzustellen, dass wir die notwendigen Maßnahmen ergreifen, um dieses sensible, aber wesentliche Ziel für unsere Demokratien zu erreichen."

Anfang des Jahres ist dem Report zufolge etwa ein "Team Jorge" in Israel aufgeflogen, das behauptet habe, im Auftrag von Geheimdiensten, politischen Kampagnen und Privatunternehmen über 30 Wahlen durch Hacking und automatisierte Desinformation in sozialen Medien manipuliert zu haben. Den Ermittlungen zufolge habe die Gruppe mehr als 30.000 gefälschte Social-Media-Profile und IT-Angriffe genutzt, um in Telegram- und Gmail-Konten einzudringen.

Mitglieder von Regierungen, Medienvertreter und die allgemeine Öffentlichkeit müssten sich bewusst machen, dass die Übernahme von Accounts für wichtige Infrastrukturen die Verbreitung von Desinformation erleichtere, hebt die Enisa hervor. Seit der Veröffentlichung von ChatGPT vor rund einem Jahr seien "Innovationen beim Social Engineering" hauptsächlich durch KI getrieben. Neu seien der Einsatz von KI zur Erstellung überzeugenderer Phishing-E-Mails, die legitimen Quellen sehr nahe kommen, Deepfakes, die hauptsächlich zum Klonen von Stimmen verwendet werden, und KI-gesteuertes Data Mining.

IT-Sicherheitsforscher beobachteten allein von Januar bis Februar 2023 einen Anstieg neuartiger Social-Engineering-Angriffe um 135 Prozent, heißt es in dem Bericht. Alles deute darauf hin, "dass generative KI Bedrohungsakteuren die Möglichkeit bietet, anspruchsvolle und gezielte Attacken schnell und in großem Umfang durchzuführen". Eine der prominentesten Anwendungen dürften Vishing-Angriffe (Voice Phishing) mit dem KI-basiertem Klonen von Stimmen werden.

Organisation sollen der Enisa zufolge daher sicherstellen, dass anfällige IT-Infrastrukturen von vornherein auf forensische Untersuchungen ausgerichtet sind. Es gelte etwa, Logdateien vollständig, zuverlässig, genau und konsistent zu sammeln. Die Autoren werfen auch einen Blick auf weitere Bedrohungen wie Ransomware und andere Schadprogramme, Malvertising, Datenabgriffe oder DDoS-Angriffe.

Insgesamt verzeichnete die Behörde im Berichtszeitraum von Juli 2022 bis Juni 2023 etwa 2580 Vorfälle im Bereich Cybersicherheit in den Mitgliedsstaaten. Dazu kommen noch 220 hinzu, die sich speziell auf zwei oder mehr EU-Länder bezogen. Zu den Sektoren, die am stärksten betroffen waren, gehören öffentliche Verwaltungen (19 Prozent) und Gesundheit (8 Prozent).

(vbr)