BSI: KI ermöglicht "nie dagewesene Qualität" für Phishing-Angriffe
Das Bundesamt für Sicherheit in der Informationstechnik warnt vor Sicherheits-Bedrohungen durch Künstliche Intelligenz. Noch aber sei vieles Zukunftsmusik.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) nimmt den Einfluss Künstlicher Intelligenz (KI) auf die Cybersicherheitslage sehr ernst, sieht aber noch keinen Grund für Alarmismus. "Bei unserer derzeitigen Bewertung der Auswirkungen von KI auf die Cyberbedrohungslandschaft gehen wir davon aus, dass es in naher Zukunft keine bedeutenden Durchbrüche bei der Entwicklung von KI, insbesondere von großen Sprachmodellen, geben wird", schätzt BSI-Präsidentin Claudia Plattner die Lage ein.
In einem Forschungspapier, das heise online exklusiv vorliegt, befasst sich das BSI einerseits mit bereits bekannten Bedrohungsszenarien, andererseits mit den zu erwartenden Entwicklungen auch durch KI. Zwar habe sich die ganz große Bedrohung noch nicht materialisiert, doch sei Entwicklung nicht zu unterschätzen.
Social Engineering und Code
Selbstlernende Sprachmodelle (LLM) entfalten den Bonner Cybersicherheitsexperten zufolge bereits heute einige Wirkung: "Neben allgemeinen Produktivitätsgewinnen für böswillige Akteure sehen wir derzeit eine böswillige Nutzung vor allem in zwei Bereichen: Social Engineering und Generierung von bösartigem Code."
Beim Social Engineering, bei dem technische Sicherheitsvorkehrungen über den menschlichen Kontakt mit Mitarbeitern oder Dienstleistern umgangen werden, ermögliche KI eine "nie dagewesene Qualität" etwa bei Phishing-Versuchen, warnt das BSI. "Herkömmliche Methoden zur Erkennung betrügerischer Nachrichten, wie z. B. die Prüfung auf Rechtschreibfehler und unkonventionellen Sprachgebrauch, reichen daher nicht mehr aus."
Leichte Entwarnung gibt das BSI bei der Frage, inwieweit Schadcode heute bereits vollautomatisiert erstellt wird. "LLMs können bereits einfache Malware schreiben, aber wir haben keine KI gefunden, die eigenständig in der Lage ist, fortgeschrittene, bisher unbekannte Malware zu schreiben", heißt es in der Lageeinschätzung durch die IT-Sicherheitsbehörde.
Dass eine KI komplizierte Methoden zur Verschleierung anwendet oder Zero-Day-Lücken selbstständig erkennt und ausnutzt, sei noch nicht Realität. Selbst die automatisierte Anpassung bereits existierender Malware sei bislang vor allem Gegenstand von Forschungsarbeiten.
"Nicht in naher Zukunft"
Das BSI hat ebenfalls geprüft, inwiefern KI-basierte Tools unmittelbar für Angriffe eingesetzt werden könnten. Hier sieht die Behörde Potenzial für eine bessere Systemverteidigung, wenn Pentesting automatisiert werden kann. Tools, die von der Zielauswahl bis zum Eindringen ins Zielsystem den Vorgang automatisieren würden, gibt es nach BSI-Kenntnis bisher nicht: "Agenten, die eigenständig beliebige Infrastrukturen kompromittieren, sind noch nicht verfügbar und werden es wahrscheinlich auch in naher Zukunft nicht sein."
Das BSI bilanziert: "Die Anwendung von KI als vollautomatisches Angriffswerkzeug ist ein Bereich, der intensiv erforscht wird. Wir erwarten weitere Projekte und Tools in diesem Bereich." Insbesondere LLMs und generative KI würden hier aus Sicht der Entwickler vielversprechende Ansätze bieten. Wann hier der Proof-of-Concept-Status überschritten werde, sei aber offen.
Allenfalls für Teilaspekte werde KI schon aktiv eingesetzt – etwa, um die Systemlandschaft und potenzielle Schwachstellen zu kartografieren. Allerdings werde auch KI-basiertes Herumschnüffeln von gut geschützten Systemen in der Regel entdeckt.
Sehr viel konkreter ist der KI-Einsatz allerdings bereits beim Umgehen altbekannter Sicherheitsmechanismen. So würden Modelle trainiert, die beim Brute-Force-Angriff auf passwortgeschützte Zugänge statt mit Wörterbüchern nun mit Realdaten aus geleakten Datenbanken operieren, was zu einer höheren Trefferwahrscheinlichkeit führe. Bei Captchas als Sicherheitsmethode wiederum sieht das BSI massive Probleme, denn die automatisierten Erkennungsmöglichkeiten seien massiv gestiegen.
Modell-Malware
Ein besonders perfider Angriffsvektor wiederum macht dem BSI durchaus Sorge: Malware, die in Modellen bereits integriert ist. Da immer mehr Organisationen und Unternehmen auf einen KI-Einsatz drängten, sei das ein ernst zu nehmendes Problem. "Es gibt bereits Fälle, in denen Malware in den Parametern neuronaler Netze verschlüsselt ist, wobei die Nutzbarkeit des Modells kaum verändert ist", heißt es von den Forschern. "Schädlicher Code kann auch in trainierten Modellen versteckt sein, die häufig auf bestimmten Plattformen verbreitet werden."
Eine generelle Schlussfolgerung daraus, was etwa Generative Adversarial Networks oder LLM für die Grundsätze der Entwicklung und des Betriebs bedeuten, trifft das BSI in seiner jetzigen Veröffentlichung nicht – etwa, ob Open Source-Produkte generell anfälliger oder weniger anfällig sind als Closed-Source-Produkte.
"Obwohl für die Analyse in der Regel der Quellcode benötigt wird, ist es in Kombination mit Reverse-Engineering-Tools bis zu einem gewissen Grad möglich, Methoden zur Erkennung von Schwachstellen bei Closed-Source-Anwendungen einzusetzen", beschreibt Deutschlands Cybersicherheitsbehörde die Problematik.
"Es gibt Projekte, die diesen Prozess mithilfe eines LLM automatisieren. Die Ergebnisse sind jedoch je nach Komplexität des Codes und der Verschleierungstechniken sehr unterschiedlich." Für die Sicherheit von Open Source sei es zudem von entscheidender Bedeutung, dass auch KI-basierte Tools zur Härtung der offenen Software genutzt würden.
Mit seinem jetzt vorliegenden Bericht schlägt das BSI auffallend weniger alarmistische Töne an als beispielsweise sein Pendant in Großbritannien. Das NCSC hatte noch im Januar gewarnt, dass KI schon kurzfristig massive Probleme bei der Cybersicherheit verursachen werde – insbesondere im Bereich von Ransomware. Ab 2025 aber würden die Probleme insgesamt massiv zunehmen. In der BSI-Einschätzung finden sich derartige Doomsday-Szenarien für die IT-Sicherheit nicht.
BSI-Präsidentin Plattner zieht dazu noch ein weiteres Fazit: Mit Blick auf den Fachkräftemangel sei es "maßgeblich, dass Wirtschaft, Wissenschaft und Politik ihre Kompetenzen bündeln – über Landes- und Ländergrenzen hinweg." Damit dürfte sie den ewigen Streit um die Zuständigkeit für IT-Sicherheit ansprechen: ob das BSI zur Zentralstelle für die IT-Sicherheit in Bund und Ländern werden soll.
(vbr)