Cybercrime: Europol beleuchtet die "dunkle Seite" der Künstlichen Intelligenz

Kriminelle nutzen KI laut einer Europol-Studie etwa bereits für Deep Fakes, das Ermitteln von Passwörtern, zum Brechen von Captcha-Codes und Klonen von Stimmen.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen

(Bild: agsandrew/Shutterstock.com)

Lesezeit: 5 Min.
Inhaltsverzeichnis

Straftäter können Künstliche Intelligenz (KI) in Stellung bringen, um Cyberangriffe leichter durchzuführen und damit mehr Schaden anzurichten. Davor warnen Europol, das Interregionalen UN-Institut für Kriminalitäts- und Justizforschung (UNICRI) und die IT-Sicherheitsfirma Trend Micro in einer gemeinsamen Studie zum "böswilligen Einsatz" der Technik.

Mit KI dürften Verbrecher laut der Analyse künftig imstande sein, in kürzerer Zeit ihre "Gewinnchancen" zu maximieren, neue Opfer auszubeuten und "innovative kriminelle Geschäftsmodelle" zu entwickeln. Gleichzeitig verringere sich damit das Risiko für sie, erwischt zu werden. "KI-as-a-Service", also vorgefertigte IT-Lösungen von der Stange, könnten die "Eintrittsbarriere" senken: große Fähigkeiten und Kenntnisse im Umgang mit Künstlicher Intelligenz seien damit nicht mehr nötig.

Die Autoren kommen zu dem Schluss, dass Cyberkriminelle KI einerseits als Angriffsmittel nutzen werden. Sie könnten etwa Maschinenlernen einsetzen, um Passwörter automatisiert zu erraten und Schadsoftware noch effektiver zu machen. Zugleich dienten ihnen schlecht gesicherte KI-Anwendungen aber auch als lohnendes Ziel für Attacken.

Dem Phänomen Deep Fakes widmen die Forscher einen Sonderteil. Realistisch wirkende Medieninhalte wie Foto, Audio und Video, die mithilfe von KI geändert und verfälscht werden, stellen demnach derzeit die bekannteste Nutzung von KI als Instrument auch für kriminelle Täuschungsversuche dar. Es seien neue Kontroll- und Abwehrtechnologien erforderlich, um das Risiko von Desinformationskampagnen, Erpressung sowie Bedrohungen zu verringern, die auf KI-Datensätze abzielen.

KI könnte ferner eingesetzt werden, um überzeugende Social-Engineering-Angriffe in großem Stil zu unterstützen, ist der Untersuchung zu entnehmen. Schon jetzt gebe es Beispiele dafür, wie Phishing-Attacken so mit ausgefeilten Textversatzstücken in hoher semantischer Qualität erfolgreicher gemacht würden. Die Forscher warnen auch vor Malware, mit der massenweise Daten aus Dokumenten ausgelesen werden könnte ("Document Scraping").

Ferner seien "intelligente Assistenten" wie Amazon Alexa, Apple Siri oder Google Home prinzipiell angreifbar, heißt es. In Hackerforen machten zudem Nachrichten über KI-gesteuerte Bots die Runde, die speziell für den Handel mit Kryptowährungen bestimmt seien.

Gefährlicher werden dürften dem Bericht zufolge auch Angriffe mit Ransomware wie Emotet, bei denen die Opfer noch gezielter ausgewählt und Schutzmechanismen umgangen werden. Mit der Technik hätten Straftäter ferner die Mittel in der Hand, um Verfahren zur Bilderkennung und Stimmbiometrie zu umgehen.

Denkbar sei auch eine gezielte "Datenverschmutzung", konstatieren die Verfasser. Dafür könnten etwa "blinde Stellen" in Algorithmen identifiziert und ausgenutzt werden. So sei es möglich, etwa Anti-Viren-Software, Kameras und Sensoren autonomer Fahrzeuge und Gesichtserkennungssysteme zu stören. Auch der Google-Maps-Hack des Künstlers Simon Weckert, der mit 99 ausgemusterten Handys in einem Bollerwagen und deren übertragenen Standortdaten einen virtuellen Stau auf dem Kartendienst verursachte, hat es in den Report geschafft.

Traditionelle Hacking-Methoden ließen sich etwa mit neuronalen Netzwerken verstärken und die Spuren solcher Angriffe besser verbergen, schreiben die Experten. Sie verweisen dabei auf das Open-Source-Werkzeug DeepHack für automatisierte Penetrationstests und das vergleichbare System DeepExploit. IBM-Forscher hätten mit DeepLocker auch bereits ein Instrument präsentiert, das KI-Fähigkeiten direkt in Malware einbette und so von außen kaum mehr auszumachen sei. Dem komme zupass, dass Algorithmen von sich aus oft eine Blackbox seien.

Die drei Organisationen empfehlen verschiedene Gegenmaßnahmen. So sollte das Potenzial Künstlicher Intelligenz auch als Mittel zur Verbrechensbekämpfung stärker erschlossen werden, um die Cybersicherheits-Branche und die Polizei zukunftsfähig zu machen. Fortgesetzt werden sollte die Forschung im KI-Bereich, um Abwehrtechnologien zu entwickeln. Zudem sei es ratsam, von Anfang an auf sichere Rahmenwerke zum Design der Technik zu setzen und keine überzogene Erwartungen an deren Einsatz für Zwecke der IT-Sicherheit zu wecken.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

"KI verspricht der Welt mehr Effizienz, Automatisierung und Autonomie", konstatierte Edvardas Šileris, Leiter des Cyberkriminalitätszentrums von Europol. "In einer Zeit, in der die Öffentlichkeit zunehmend über den möglichen Missbrauch von KI besorgt ist", müssten aber auch die Bedrohungen transparent und unschädlich gemacht werden.

"Cyberkriminelle gehören schon immer zu den ersten Anwendern der neuesten Technologien", weiß Martin Rösler, Leiter des Teams für künftige Bedrohungen bei Trend Micro. "Das ist auch bei KI so." Neben vielen Vorteilen seien auch Gefahren durch die böswillige Nutzung der Technik allgegenwärtig, ergänzte Irakli Beridze, Leiter des Zentrums für KI und Robotik bei UNICRI. Mit der Studie wolle man "ein Licht auf die dunkle Seite der KI werfen und weitere Diskussionen zu diesem wichtigen Thema anregen".

(bme)