Cybergangs nutzen KI: OpenAI und Microsoft identifizieren Missbrauch

Staatliche agierende Cybergangs haben versucht, OpenAIs und Microsofts KI-Dienst für ihre Zwecke zu nutzen. Mit wenig Erfolg.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Washington Post: Trump bestätigt Cyberangriff gegen Russland 2018
Lesezeit: 2 Min.

Auch Cybergangs sind sich dessen bewusst, dass Künstliche Intelligenz bei jeder Art von Arbeit unterstützen kann. Bekannte Akteure haben versucht, OpenAIs und Microsofts KI-Dienste zu nutzen, sind dabei aber immerhin aufgefallen. "Diese Akteure wollten im Allgemeinen OpenAI-Dienste nutzen, um Open-Source-Informationen abzufragen, zu übersetzen, Kodierungsfehler zu finden und grundlegende Kodierungsaufgaben durchzuführen", erklären die beiden KI-Partner-Unternehmen.

Bei den Cybergangs, deren Aktivitäten bekannt geworden sind, handelt es sich um staatlich organisierte und finanzierte Gruppen. Charcoal Typhoon und Salmon Typhoon haben einen chinesischen Hintergrund. Crimson Sandstorm ist eine Gruppe aus dem Iran. Emerald Sleet arbeitet für Nordkorea. Forest Blizzard hat einen Bezug zu Russland. Sie alle haben auf verschiedene Weisen die KI-Dienste genutzt. Zum Teil für die einfache Übersetzung von Inhalten, um Phishing-Mails zu verfassen, aber auch um Fehler im Code zu finden und um Technologien zu verstehen.

Laut OpenAI und Microsoft sind es gängige und altbekannte Gruppen und Aktivitäten. Entsprechend beschwichtigt OpenAI im Blogbeitrag denn auch: Man habe festgestellt, "dass GPT-4 nur begrenzte, zusätzliche Fähigkeiten für böswillige Cybersicherheitsaufgaben bietet, die über das hinausgehen, was bereits mit öffentlich verfügbaren, nicht KI-gestützten Tools erreicht werden kann." Chatbots sind demnach nicht wirklich hilfreich. Nichtsdestoweniger arbeite man konstant daran, Missbrauch zu entdecken und zu verhindern. Es gibt mehrere Teams in beiden Unternehmen, die sich um die Sicherheit der Anwendungen kümmern – beispielsweise um das Monitoring, aber auch über den Austausch mit weiteren Sicherheitsexperten.

Neben dem Missbrauch der KI-Tools hat es auch Angriffe gegeben. Microsoft schreibt im Blogbeitrag, es habe Prompt-Injections beziehungsweise derartige Versuche gegeben, also Versuche, große Sprachmodelle zu infizieren. Dabei wird mittels Prompts dem Chatbot ein Verhalten abgerungen, das so nicht vorgesehen ist oder sogar vom Anbieter unterbunden werden sollte. Auch im Quellenmaterial, das KI-Modelle nutzen, können sich solche Anweisungen verstecken, die dann im schlimmsten Fall einen anderen Nutzer ausspionieren.

Gleichzeitig, meint Microsoft, können die Errungenschaften rund um große Sprachmodelle auch dazu genutzt werden, Missbrauch schneller zu entdecken und die generelle Sicherheit zu erhöhen, beispielsweise durch den Copilot for Security. Ein Abonnement-Werkzeug, das auffälliges Verhalten entdecken kann.

(emw)