ChatGPT: Code mit betrĂĽgerischer API kostet Programmierer 2500 US-Dollar
Ein Kryptowährungs-Interessierter wollte mit ChatGPT einen "Bump Bot" programmieren. Die KI hat eine betrügerische API in den Code eingebaut.
Ein Kryptowährungs-Interessierter hat auf X berichtet, dass sein Programmierversuch mit ChatGPT ihn um 2500 US-Dollar gebracht hat. Er wollte mit der künstlichen Intelligenz einen sogenannten Bump Bot programmieren, um seine Token auf einer Kryptowährungshandelsplattform auf Discord-Servern zu bewerben.
Womit er nicht gerechnet habe sei, dass ChatGPT ihm eine betrügerische Solana-API-Webseite vorschlagen würde. Er erklärt, dass er von ChatGPT vorgeschlagenen Code übernommen habe, der den privaten Key über die API überträgt. Außerdem habe er seine Haupt-Solana-Wallet benutzt. "Wenn du in Eile bist und so viele Dinge auf einmal machst, ist es leicht, Fehler zu machen", resümiert der Programmersteller mit dem Handle "r_ocky.eth".
Mehrere Fehler gemacht
r_ocky.eth ist offenbar nicht weiterreichend mit Sicherheit oder Programmierung vertraut: Private Keys hält man immer geheim, um damit vertrauliche Nachrichten zu entschlüsseln oder seine Identität nachzuweisen. Softwareentwicklung sollte zudem nie mit einem "Produktivkonto" erfolgen, sondern mit einem gesonderten Test-Konto. Der Codeschnipsel, von dem er einen Screenshot zeigt, nennt sogar offen, was er anstellt: "Payload for POST request" ist als Kommentar zu lesen, worauf als Erstes bereits der private Schlüssel folgt, den Programmierer eintragen sollen.
Der BetrĂĽger hinter der API war schnell, berichtet der Betrogene, kurz nach der Nutzung der API habe er alle seine Krypto-Assets aus der Wallet an seine eigene ĂĽbertragen. Das erfolgte bereits innerhalb von 30 Minuten, nachdem er eine Anfrage ĂĽbertragen hatte. SchlieĂźlich habe er das GefĂĽhl gehabt, etwas falsch gemacht zu haben, aber er habe sein Vertrauen in OpenAI verloren. Den Chatverlauf mit dem betrĂĽgerischen Programmcode habe er an OpenAI gemeldet. Ăśber das betrĂĽgerische Repository habe er Github informiert, woraufhin es rasch entfernt wurde.
Berichte darüber, dass OpenAIs ChatGPT zur Malware-Entwicklung genutzt wird, sind schon häufiger zu lesen gewesen. Dass ChatGPT jedoch etwa aufgrund "Data Poisoning" in den Trainingsdaten schädlichen Code erzeugen kann, ist offenbar noch keine weitreichende Erkenntnis. Das Beispiel belegt jedoch einmal mehr, dass die Ergebnisse von KI nicht unhinterfragt blind vertrauenswürdig sind, sondern stets noch einmal überprüft werden sollten.
Formulierung zum Einsatz privater SchlĂĽssel angepasst.
(dmk)