ChatGPT: Konten staatlicher Bedrohungsakteure geschlossen
Microsoft und OpenAI haben Konten mutmaĂźlicher staatlicher Bedrohungsakteure geschlossen, die ChatGPT fĂĽr kriminelle Zwecke nutzten.
In Zusammenarbeit mit Sicherheitsexperten von Microsoft Threat Intelligence hat OpenAI fünf Konten geschlossen, deren Besitzer als Bedrohungsakteure im Staatsdienst ausgemacht wurden. Die Konten wurden benutzt, um etwa mithilfe von ChatGPT "bösartige Cyberaktivitäten" vorzubereiten oder zumindest die Fähigkeiten zu verbessern. Verbindungen wurden den Bedrohungsakteuren mit China, Russland, Nordkorea und dem Iran nachgesagt. Das berichteten OpenAI und Microsoft Mitte der Woche jeweils in einem eigenen Blogbeitrag.
In den nun veröffentlichten Forschungsergebnisse sollen etwa die aufkommenden Bedrohungen im Zeitalter von KI dargestellt werden. Dabei konzentriere man sich auf identifizierte Aktivitäten, die mit bekannten Bedrohungsakteuren in Verbindung gebracht werden. Dazu zählen etwa Prompt-Injections, versuchter Missbrauch von großen Sprachmodellen (LLM) und Betrug. Laut der Analyse stimme das Verhalten der Bedrohungsakteure bezüglich der Nutzung der LLM mit Angreifern überein, die ebenfalls Künstliche Intelligenz als Werkzeug einsetzen.
Die Bedrohungsakteure
Im Detail soll es sich bei Bedrohungsakteuren um die mit China verbundenen "Charcoal Typhoon" und "Salmon Typhoon" handeln. Sie haben demzufolge OpenAI-Dienste etwa zur Recherche über Cybersecurity-Tools, zum Debuggen von Code, Generieren von Skripten und Inhalteerstellung für Phishing-Kampagnen sowie das Verstecken von Prozessen in Systemen genutzt. Der mit Russland in Verbindung gebrachte "Forest Blizzard" habe sich vor allem im Bereich der Satellitenkommunikation und Radartechnik beschäftigt, die sich laut Microsoft auf militärische Operationen in der Ukraine beziehen könnten.
"Emerald Sleet", mit Verbindungen zu Nordkorea, habe unter anderem nach Experten und Organisationen gesucht, die sich mit Verteidigung im asiatischen-pazifischen Raum befassen. "Crimson Sandstorm" (Iran) wollte demnach Malware-Erkennung umgehen und Spear-Phishing-Kampagnen-geeignete Inhalte erstellen, inklusive App- und Webentwicklung.
GPT-4 – begrenzte Fähigkeiten für böswillige Cybersicherheitsaufgaben
All die Aktivitäten stimmen laut OpenAI mit früheren Bewertungen überein, die in Zusammenarbeit mit externen Cybersicherheitsexperten durchgeführt wurden. Dabei habe man festgestellt, "dass GPT-4 nur begrenzte, zusätzliche Fähigkeiten für böswillige Cybersicherheitsaufgaben biete", die über die bereits öffentlich verfügbaren Informationen von Tools hinausgehen, die keine KI verwenden.
Ein Sprecher der chinesischen Botschaft in den USA verurteilte den Vorwurf als "grundlose Verleumdungen und Anschuldigungen gegen China". Gleichzeitig sprach er sich für den "sicheren, zuverlässigen und kontrollierbaren" Einsatz von KI-Technologie aus, um "das gemeinsame Wohlergehen der gesamten Menschheit zu fördern".
Russische, nordkoreanische und iranische diplomatische Vertreter antworteten nicht sofort auf Anfrage von Reuters.
Grundsätze für sichere KI-Dienste
Um auf mögliche Bedrohungen reagieren zu können und die Risiken durch die Nutzung eigener KI-Tools und APIs auch gegen böswillige und staatliche Akteure zu reduzieren, haben Microsoft und OpenAI Grundsätze eingeführt. Bei entsprechenden Erkenntnissen behalten sich die beiden KI-Partner vor, entsprechende Konten zu deaktivieren, Dienste zu beenden und Zugang zu Ressourcen einzuschränken. Zusätzlich soll eine Zusammenarbeit mit anderen KI-Diensteanbietern und anderen Akteuren, inklusive Austausch von Informationen und Hinweisen, erfolgen. Als weitere Maßnahmen nennen Microsoft und OpenAI die Verbesserung von Sicherheitsvorkehrungen und Transparenz, die mit den jetzt veröffentlichten Erkenntnissen deutlich gemacht werden soll.
In der Vergangenheit war es mit früheren Versionen von ChatGPT möglich, über spezielle Prompts die Sicherheitsvorkehrungen zu umgehen und Anleitungen und Baupläne etwa für chemische Waffen zu erhalten. Erst kürzlich haben Wissenschaftler verschiedener Universitäten und von OpenAI einen "Kill-Switch" für KI gefordert, um im Notfall eingreifen zu können.
(bme)