Hacker-Gruppen nutzen Googles KI Gemini für Aufklärung und Angriffsvorbereitung

Staatlich geförderte Hackergruppen missbrauchen Googles KI-gestützten Assistenten Gemini, um potenzielle Angriffsziele zu erforschen.

vorlesen Druckansicht 14 Kommentare lesen
A,Person's,Head,Covered,By,An,Ai-labeled,Dark,Cloud

(Bild: Shutterstock/Alexander Supertramp)

Lesezeit: 2 Min.
Inhaltsverzeichnis

Google zufolge nutzen mehrere staatlich geförderte Hackergruppen den KI-gestützten Assistenten Gemini, um ihre Produktivität zu steigern und mögliche Angriffsziele zu erforschen. Wie Bleeping Computer berichtet, hat Googles Threat Intelligence Group (GTIG) festgestellt, dass Hacker Gemini hauptsächlich einsetzen, um effizienter zu arbeiten, und nicht um neuartige KI-gestützte Cyberangriffe zu entwickeln, die traditionelle Abwehrmechanismen umgehen können.

Besonders aktiv waren laut Google APT-Gruppen aus dem Iran und China. Zu den häufigsten Anwendungsfällen zählten:

  • Unterstützung bei Programmieraufgaben für die Entwicklung von Tools und Skripten
  • Recherche zu öffentlich bekannten Sicherheitslücken
  • Übersetzungen und Erklärungen zu Technologien
  • Informationssuche über Zielorganisationen
  • Suche nach Methoden zur Umgehung von Erkennung, Rechteausweitung oder internen Erkundung in kompromittierten Netzwerken

Die Hacker setzten Gemini in verschiedenen Phasen des Angriffszyklus ein, wobei sich die Schwerpunkte je nach Herkunftsland unterschieden:

  • Iranische Akteure nutzten Gemini am intensivsten, unter anderem für Aufklärung, Phishing-Kampagnen und Einflussoperationen.
  • Chinesische Gruppen konzentrierten sich auf US-Militär und -Regierungsorganisationen, Schwachstellenforschung, Skripte für laterale Bewegung und Rechteausweitung sowie Aktivitäten nach einer Kompromittierung.
  • Nordkoreanische APTs unterstützten mit Gemini mehrere Phasen des Angriffszyklus, darunter Aufklärung, Malware-Entwicklung und Verschleierungstechniken. Ein Schwerpunkt lag auf Nordkoreas verdecktem IT-Arbeitsprogramm.
  • Russische Akteure engagierten sich nur minimal, vor allem für Skript-Unterstützung, Übersetzung und Payload-Erstellung. Möglicherweise bevorzugen sie in Russland entwickelte KI-Modelle oder meiden westliche Plattformen aus Gründen der operativen Sicherheit.

Videos by heise

Google beobachtete auch Versuche, öffentliche Jailbreaks gegen Gemini einzusetzen oder Prompts umzuformulieren, um die Sicherheitsmaßnahmen der Plattform zu umgehen. Diese Versuche blieben bisher erfolglos.

Ähnliches hatte OpenAI, Entwickler des populären Chatbots ChatGPT, bereits im Oktober 2024 gemeldet. Mit zunehmender Verbreitung von Generativen KI-Systemen wächst die Gefahr des Missbrauchs, insbesondere bei Modellen mit unzureichenden Schutzmaßnahmen. Sicherheitsforscher konnten bereits bei einigen weit verbreiteten Systemen wie DeepSeek R1 und Alibabas Qwen 2.5 leicht zu umgehende Beschränkungen aufzeigen.

(ims)