IT-Sicherheitskongress: BSI warnt vor KI als Angriffswaffe

Künstliche Intelligenz kann laut dem neuen deutsch-französischen IT-Sicherheitslagebild genutzt werden, um etwa Alexa oder Siri zu manipulieren.

In Pocket speichern vorlesen Druckansicht 15 Kommentare lesen
Netzwerkkabel

(Bild: dpa, Felix Kästle)

Lesezeit: 4 Min.
Inhaltsverzeichnis

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) und die französische Agence nationale de la sécurité des systèmes d'information (ANSSI) haben am Dienstag zum Start des 16. Deutschen IT-Sicherheitskongresses in Bonn die zweite Ausgabe des deutsch-französischen Cyber-Sicherheitslagebilds vorgestellt. Die beiden Partnerbehörden beschäftigten sich darin schwerpunktmäßig mit den Auswirkungen von Künstlicher Intelligenz (KI) auf die IT-Sicherheit.

KI weist demnach neben Verteidigungsmöglichkeiten auch diverse, von Übeltätern ausnutzbare Schwachstellen auf. Zudem sei es möglich, die Technologie gezielt als "Waffe" für Cyberangriffe zu missbrauchen. Die Sicherheitsexperten warnen: Künstliche Intelligenz könne etwa genutzt werden, um Gesichtserkennungssysteme anzugreifen, Captcha-Aufgaben zu lösen oder Social Engineering und Seitenkanalangriffe gegen Kryptosysteme durchzuführen.

Methoden des Maschinenlernens würden etwa bereits oft als stark genug erachtet, "um eine natürliche Interaktion über Kanäle zur Bild- und Spracherkennung zu ermöglichen", bringen BSI und ANSSI ein Beispiel. Ein solcher Ansatz könne als vorherrschende Schnittstelle auch zur Fremdsteuerung von Computern oder Geräten im Internet der Dinge (IoT) im Bereich Hausautomatisierung eingerichtet werden.

Während in der Vergangenheit Software aufgrund von Stapelüberlaufen (Buffer Overflow) oder verborgener Funktionen ausnutzbar gewesen sei, wirken sich solche Schwächen laut dem Bericht allein auf der Informationsebene aus und seien so "schwerer zu erkennen und zu mildern". Beispielsweise bestehe der "Delphinangriff" im Senden von Sprachbefehlen mit Ultraschallwellen bei Frequenzen jenseits von 20 kHz für persönliche Assistenzsysteme wie Siri oder Alexa.

Solche Anweisungen könnten von IoT-Geräten wie Smart-TVs gesendet und von den Nutzern aufgrund der hohen Frequenzen nicht erkannt werden, heißt es weiter. Ähnliches sei für optische Geräte im Infrarotbereich denkbar. Wenn viele einzeln operable Systeme auf diese Weise zusammenarbeiteten, könnten unvorhergesehene Effekte wie "Voice Squatting" auftreten. Dabei handle es sich um phonetisch ähnliche Befehle, die von Drittanbietern hinzugefügt werden und originäre Sprachbefehle überdecken.

Derlei Schwachstellen sind laut dem Lagebild zwar nicht per se durch den Einsatz von Künstlicher Intelligenz begründet. Sie zeigten aber "die globale Vergrößerung der Angriffsfläche" auf, wenn KI "in die verteilte Steuerung von Informationssystemen integriert wird". Die Gefahr bestehe dabei vor allem im blinden Vertrauen in breite Verknüpfungen von Geräten.

Den Verfassern zufolge ergeben sich auch weitere Risiken bei der Nutzung von KI-Techniken für Anwendungsbereiche außerhalb der IT-Sicherheit. Eine wesentliche Bedrohung liegt nach Einschätzung von ANSSI und BSI in der gezielten Kompromittierung von Daten, auf denen ein KI-System ihre Fähigkeiten erlernt ("data poisoning"). Mit dieser Technik könne ein Angreifer etwa einem eingesetzten Rahmenwerk unerwünschte Fähigkeiten beibringen und darauf weitere Attacken aufbauen. Sichere Lieferketten für KI-Trainingsdaten seien daher essentiell.

"Social Engineering" sei generell als Angriffsvektor weit verbreitet, führen die Autoren aus. In Zukunft könnten KI-generierte Deep-Fake-Videos dabei aber eine größere Rolle spielen. Solche Kreationen stellen bekannte und unbekannte Personen dar, um Handlungen zu bezeugen, die nie stattgefunden haben. Dabei wird in aufgenommenen Szenen das Gesicht der Zielperson auf das eines anderen Akteurs projiziert. Dies könnte von Angreifern bei der Personenidentifizierung per Video oder zur Diskreditierung von Individuen ausgenutzt werden, ist dem Bericht zu entnehmen. Auch wenn später gezeigt werde, dass das Material manipuliert worden sei, könnten bereits öffentliche Prozesse wie Wahlen beeinflusst oder Lösegeld erpresst worden sein.

Entwarnung konnte BSI-Präsident Arne Schönbohm dagegen bislang rund um Befürchtungen geben, dass es in Deutschland zur Europawahl nennenswerte Cyberangriffe oder illegale digitale Beeinflussungsversuche geben könnte. "Bis jetzt ist alles im grünen Bereich", meinte er. "Wir haben zwar Hacker-Angriffe auf Parteien, politische Stiftungen und Abgeordnete registriert", erklärte Schönbohm. Doch diese Attacken hätten sich im "normalen Rahmen" bewegt. Das BSI bleibe jedoch in erhöhter Alarmbereitschaft, um mögliche weitere Angriffe schnell abwehren zu können.

Auf dem IT-Sicherheitskongress geht es am Dienstag und die beiden nächsten Tage auch um Themen wie die Sicherheit der Blockchain oder von kritischen Infrastrukturen sowie "die Erhöhung der Cyber-Resilienz Deutschlands". In über 50 Vortragen und zwei Paneldiskussionen stehen dabei Technologien wie 5G, KI oder Post-Quanten-Kryptografie ebenso im Fokus wie neue Trends für mehr Sicherheit im Internet der Dinge, Smart Home oder in Industriesteuerungsanlagen. Das BSI will dabei auch aufzeigen, wie Digitalisierung "Made in Germany" sicher funktionieren kann. (axk)