FraudGPT schreibt Phishing-Mails und entwickelt Malware

Nach WormGPT kommt FraudGPT: Der unkontrollierte Chatbot aus dem Darknet ist für kriminelle Zwecke trainiert.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen

(Bild: fizkes/Shutterstock.com)

Lesezeit: 2 Min.

Im Darknet und in Telegram-Kanälen wird FraudGPT angeboten: ein unmoderierter Chatbot, der für kriminelle Zwecke trainiert wurde. Die eigentliche Herkunft von FraudGPT ist unklar, dafür seine Einsatzzwecke umso deutlicher: Der Chatbot kann Phishing-Mails schreiben, Cracking-Tools entwickeln und hilft, Opfer zu finden, die besonders leicht übers Ohr zu hauen sind. Dabei sieht FraudGPT aus wie eine dunkle Version des bekannten ChatGPT. Nur dass dieser Prompts ablehnen würde, in denen nach einem Text für betrügerische SMS oder Mails gefragt wird.

FraudGPT schreibt Bildern zufolge Texte wie: "Wichtiger Sicherheitshinweis. Um Sicherheit zu gewährleisten, folgen Sie bitte diesem Link und erneuern Ihre Sicherheitsinformationen. Danke." Aufgetauchte Screenshots zeigen allerdings nur englischsprachige Antworten. Ob FraudGPT andere Sprachen spricht, wissen wir nicht. Im Zweifel ließen sich die Texte mit einem weiteren Tool übersetzen. Dann allerdings könnte die Qualität erneut sinken. Phishing-Mails und betrügerische Nachrichten lassen sich bisher oft daran erkennen, dass sie schlecht gemacht sind – grammatikalisch, weil Umlaute und Sonderzeichen nicht richtig dargestellt werden und mehr. Die Qualität der Antworten aktueller Sprachmodelle minimieren dieses Erkennungsmerkmal.

Die Bilder, die im Darknet zu finden sind, und auf dem Blog Netenrich veröffentlicht wurden, deuten darauf hin, dass der Dienst über eine eigene Webseite erreichbar ist. Welches Sprachmodell genutzt wird, ist unbekannt. Der Entwickler nennt sich offenbar CanadianKingpin und verlangt 200 US-Dollar im Monat für die Nutzung. Rabatte gibt es für längerfristige Abonnements.

(Bild: Netenrich)

Auch WormGPT ist ein Chatbot, der für kriminelle Zwecke trainiert wurde. Er soll auf GPT-J von Eleuther AI basieren, eine ursprünglich freie Entwickler-Gruppe, die bereits vor Jahren eine Open-Source-Variante von GPT-3 herausgebracht haben. Es ist nur eines von zahlreichen frei verfügbaren Sprachmodellen. Selbst Meta hat das eigene Sprachmodell Llama 2 für alle Interessierten freigegeben.

Eigentlich haben diese LLMs Barrieren eingebaut, um nicht für kriminelle Zwecke ausgenutzt zu werden. Diese lassen sich aber allzu leicht aushebeln. Zuletzt hatten Forscher gezeigt, wie simple Zeichenfolgen die Sicherheitsregeln umgehen können und den Chatbots verbotene Inhalte entlocken. Die Befehle konnten vollständig automatisiert werden.

(emw)