Kaspersky: Cyberkriminelle experimentieren mit KI

Nicht nur Softwareentwickler und KI-Enthusiasten diskutieren aktiv über die Nutzung generativer Sprachmodelle – auch Kriminelle tun dies.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen

(Bild: Gorodenkoff/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Andreas Knobloch

Laut der Sicherheitsfirma Kaspersky werden Cyberkriminelle immer geschickter darin, bösartige KI-Eingabeaufforderungen zu erstellen, um Informationen aus KI-Textgeneratoren wie ChatGPT herauszuholen. Im vergangenen Jahr wurden 249 solcher Aufforderungen online zum Verkauf angeboten. Das zeigt ein Bericht von Kaspersky mit dem frei übersetzten Titel: "Schattige Innovation: Wie Cyberkriminelle im Dark Web mit KI experimentieren".

Auch wenn große Sprachmodelle (LLMs) wie ChatGPT nicht annähernd in der Lage sind, vollständige Angriffsketten zu erstellen oder polymorphe Malware für Ransomware-Infektionen oder andere Cyberangriffe zu generieren, nimmt das Interesse von Betrügern am Einsatz von KI nach Angaben von Kaspersky zu. Das Unternehmen fand etwas mehr als 3.000 Beiträge in Telegram-Kanälen und Dark-Web-Foren, in denen diskutiert wird, wie ChatGPT und andere generative Spraxchmodelle für illegale Aktivitäten genutzt werden können.

"Selbst Aufgaben, die früher ein gewisses Maß an Fachwissen erforderten, können nun mit einer einzigen Eingabeaufforderung gelöst werden", heißt es in dem Bericht. "Dies senkt die Einstiegsschwelle in viele Bereiche dramatisch, auch in kriminelle Bereiche."

Aber es gibt nicht nur Kriminelle, die bösartige Eingabeaufforderungen erstellen, sondern diese auch an andere weiterverkaufen, die nicht über die nötigen Kenntnisse verfügen, um ihre eigenen Prompts zu erstellen. Kapersky berichtet zudem von einem wachsenden Markt für gestohlene ChatGPT-Anmeldedaten und gehackte Premium-Konten.

Während viele seriöse Entwickler KI nutzen, um die Leistung oder Effizienz ihrer Software zu verbessern, ziehen die Hersteller von Malware nach. Die Untersuchung von Kaspersky enthält einen Screenshot eines Posts, der für eine Software für Malware-Betreiber wirbt, die KI nicht nur zur Analyse und Verarbeitung von Informationen nutzt, sondern auch zum Schutz krimineller Aktivitäten, indem sie automatisch die Deckungsdomäne wechselt, sobald eine kompromittiert wurde. Allerdings verifiziert der Kaspersky-Bericht diese Behauptungen nicht. Es könnte sich bei der beworbenen Software für Malware-Bertreiber also auch selbst um einen Betrug handeln.

Seit dem Erfolg von ChatGPT der Microsoft-Tochter OpenAI wird viel über den Einsatz von KI zum Erstellen von Malware diskutiert. Noch habe man aber keine von KI geschriebene polymorphe Malware entdeckt, die ihren Code so verändern kann, dass er von Antiviren-Tools nicht erkannt wird, schreiben die Experten von Kaspersky, "aber sie könnte in Zukunft auftauchen".

Die Professionalität, mit der Täter im Bereich Cybercrime vorgehen, "ist beunruhigend", erklärte erst kürzlich auch Claudia Plattner, Präsidentin des Bundesamts für Sicherheit in der Informationstechnik (BSI) bei der Präsentation des BSI-Lageberichts zur IT-Sicherheit in Deutschland. Das BSI sieht eine "nie dagewesene Herausforderungen" für die Sicherheit. Insgesamt ergebe sich durch große KI-Sprachmodelle eine "systemische Bedrohungsveränderung", heißt es in dem Bericht.

(akn)