KI-gestützte mehrstufige Phishing- und Malware-Angriffe auf dem Vormarsch

Ein IT-Sicherheitsunternehmen sieht eine Zunahme an mehrstufigen Phishing- und Malware-Angriffen. Diese seien aufgrund KI-Nutzung bedrohlicher.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Ai(artificial,Intelligence),Concept. Bard, ChatGPT, KI, Chatbot

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 3 Min.
Von

IT-Forscher beobachten einen Anstieg von Cyberangriffen, die mehrstufig vorgehen und offenbar mit KI-Unterstützung arbeiten. Die Analysten schätzen, dass Künstliche Intelligenz die Fähigkeiten von Angreifern erheblich verbessert, die Raffinesse von weniger fortgeschrittenen Akteuren erhöht und die Geschwindigkeit von Angriffen durch Automatisierung steigert sowie das Vertrauen der Nutzer untergräbt.

Die Analysten von Darktrace schreiben, dass sie im April einen Anstieg von neuartigen Social-Engineering-Angriffen um 135 Prozent gegenüber dem Vergleichszeitraum von Januar bis Februar beobachtet hätten. Darunter verstehen sie E-Mail-Angriffe, die eine große sprachliche Abweichung von anderen Phishing-Mails aufweisen. Der Zeitraum passe zu der weitreichenden Verbreitung der ChatGPT-Nutzung und deute darauf hin, dass generative KI bösartigen Akteuren den Weg zu ausgefeilteren Angriffen bereite, sowohl bezüglich Geschwindigkeit als auch in der Skalierung.

Im Zeitraum von Mai bis Juli haben die IT-Forscher mehrstufige Angriffe beobachtet, bei denen bösartige E-Mails Empfänger ermutigten, einer Reihe von Schritten zu folgen, bevor sie eine Malware auslieferten oder sensible Informationen abgreifen wollten. Diese hätten um 59 Prozent zugenommen. Im Juli gab es 50.000 dieser Angriffe mehr als noch im Mai. Dies deute möglicherweise auf den Einsatz von Automatisierung. Die Geschwindigkeit der Angriffe steige wahrscheinlich durch die zunehmende Automatisierung und Nutzung von KI durch Angreifer.

Im gleichen Zeitraum hätten die Angriffe, die Vertrauensstellungen missbrauchen, geändert. Mails, die angeblich von VIPs stammten, seien um 11 Prozent zurückgegangen. Gleichzeitig nahmen die Versuche der Kontenübernahme um 52 Prozent zu. Um 19 Prozent hätten dabei Mails zugenommen, die vorgaben, von der IT-Abteilung zu stammen. Dies deute darauf hin, dass Angestellte besser darin geschult seien, auf sogenannten CEO-Betrug nicht hereinzufallen.

Zwar sei der Wechsel der Angriffstaktiken normal, sobald die bisher genutzten nicht mehr griffen, erläutern die IT-Forscher. Gererative KI und insbesondere Deepfakes hätten das Potenzial, den Angreifern einen Vorteil zu verschaffen. Zunehmende sprachliche Verbesserung und realistische gefälschte Stimmen seien einfacher zu nutzen, um Angestellte zu täuschen.

Die Zahlen basieren auf E-Mail-Klassifizierungen von mehr als 1000 Darktrace-E-Mail-Installationen im Januar und Februar sowie im Mai bis Juli 2023.

Seit Anfang des Jahres zeichnet sich ab, dass künstliche Intelligenz in Form von Chatbots wie ChatGPT weniger fortschrittlichen bösartigen Akteuren zu effektiveren kriminellen Angriffen verhelfen kann. ChatGPT schreibt nicht nur überzeugende Phishing-Mail-Texte, sondern programmiert passabel – auch Malware. Das mündet sogar in kriminelle Angeboten wie FraudGPT, einem KI-Chatbot, der Phishing-Mails schreibt, Cracking-Tools entwickelt und auch noch hilft, Opfer zu finden.

(dmk)