Bedrohungsbericht: Wie Cyberkriminelle Claude von Anthropic missbrauchen

In einem Bericht dokumentiert Anthropic anhand verschiedener Beispiele, wie Cyberkriminelle KI-Modelle für ihre Zwecke einsetzen. Doch gibt es Abhilfe?

vorlesen Druckansicht
Würfel mit Buchstaben buchstabieren "CYBERCRIME"; ein Finge dreht gerade einige Buchstaben um, um daraus "CYBERSECURITY" zu machen.

(Bild: Dmitry Demidovich/Shutterstock.com)

Lesezeit: 3 Min.
Inhaltsverzeichnis
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

KI-Firmen überraschen manchmal damit, wie schonungslos sie die Auswirkungen ihrer eigenen Produkte beschreiben. Wer den ausführlichen Bedrohungsbericht (Threat Intelligence Report August 2025) von Anthropic liest, bekommt gleich auf Seite 3 mehrere Erkenntnisse zu lesen, die geeignet sind, das Ansehen der KI als großen Fortschritt zu schmälern. "Agentische KI-Systeme werden zu Waffen umfunktioniert", heißt es dort. Und KI senke die Hürde zu komplexer Cyberkriminalität dramatisch, was dazu führe, dass Kriminelle sie mittlerweile für alles Mögliche einsetzen.

Was den Bericht des US-Unternehmens allerdings im Vergleich zu anderen Sicherheitsberichten von KI-Herausgebern besonders macht, ist, dass er nicht im Ungefähren bleibt. Die vom Anthropic-Sicherheitsteam beschriebenen Missbrauchsfälle seien keine Theorie oder Testergebnisse aus dem Labor, sondern Geschehnisse, die sich wirklich zugetragen haben.

Darin wird etwa der Fall nordkoreanischer IT-Arbeitskräfte beschrieben, die sich in den USA massenhaft für Jobs bewerben, die sie aus der Ferne erledigen können. Die Einnahmen seien mutmaßlich für die Waffenprogramme der Diktatur bestimmt. Was die Beobachtung noch pikanter macht: Diese Kräfte verfügen laut Anthropic oft gar nicht über die nötigen Fachkenntnisse. Stattdessen würden sie während der Bewerbung und zur Erledigung der Arbeit permanent die KI konsultieren und ihren Arbeitgebern bei namhaften Großunternehmen vorgaukeln, dass sie die Arbeit erledigen.

Videos by heise

In einem anderen Fall geht es um Vibe-Hacking. Ein Krimineller habe Claude Code dafür genutzt, automatisierte Datenerpressung zu verüben. 17 Organisationen aus Regierungen, Gesundheitswesen und Notdiensten seien betroffen gewesen. Der mutmaßliche Täter habe die KI von der Aufklärung, über die Malware-Entwicklung bis hin zu Lösegeldforderungen von bis zu 500.000 US-Dollar eingesetzt.

Großer Beliebtheit erfreut sich die KI auch bei Betrügern. Sie nutzen die KI etwa für Romance Scams. Die Opfer werden per Messenger kontaktiert. Sobald diese persönliche Informationen und Fotos von sich preisgeben, wird das KI-Modell damit gefüttert, um diese angepasst an die Person zu manipulieren. Andere Kriminelle nutzten Claude, um Ransomware zu entwickeln und weiterzuverkaufen.

Im Ergebnis sei festzustellen, dass Einzelpersonen mittels KI inzwischen dazu in der Lage sein, Schäden zu verursachen, für die es sonst großer Teams bedurfte. KI ersetze fehlendes Fachwissen, helfe bei maßgeschneiderten Erpressungsstrategien und werde dazu eingesetzt, in Echtzeit geeignete Maßnahmen zu finden, um Abwehrmaßnahmen zu umgehen. All dies führe zu neuen Herausforderungen in der Cyberabwehr, heißt es in dem Bericht.

Anthropic begegnete den Entdeckungen mit spezialisierten Erkennungssystemen, Accountsperrungen und der Zusammenarbeit mit Partnern, um der Kriminalität etwas entgegenzusetzen. Und es sei eben transparente Berichterstattung notwendig, womit sich der schonungslose Bericht erklärt. Für die Abwehr sei es nötig, branchenweit zusammenzuarbeiten. Anthropic hat bereits in anderen Kontexten den Schulterschluss mit Mitbewerbern gesucht, etwa beim MCP-Protokoll, mit dem eine einheitliche Schnittstelle zwischen KI-Modellen und Datenbeständen geschaffen wurde. Ob sich die Konkurrenz allerdings auch darauf einlässt, aufzuzeigen, dass in ihren KI-Modellen trotz aller Bemühungen dennoch massive Schlupflöcher für Kriminelle existieren, gilt es abzuwarten.

(mki)