Betrugsmasche: Abzocke mit KI-generierter Stimme

In Nordamerika kam es zu Betrugsfällen, bei denen die Opfer die vermeintlichen Stimmen ihrer Angehörigen am Telefon hören. Diese wurden von einer KI generiert.

In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen
Colorful,Audio,Waveform,On,Virtual,Human,Background,,represent,Digital,Equalizer

(Bild: whiteMocca/Shutterstock.com)

Lesezeit: 4 Min.
Von

In Nordamerika greifen Kriminelle zu künstlicher Intelligenz: Mit KI-generierten Stimmen gehen sie auf Opfersuche für Variationen der als Enkeltrick bekannten Betrugsmasche. Dabei geben sich die Täter als Verwandte in Not aus, die dringend Geld benötigen, um weiteres dräuendes Ungemach abzuwenden.

Wie die Washington Post berichtet, bekam etwa ein älteres Paar aus Saskatchewan einen Anruf, bei dem der Anrufer wie ihr Enkel klang. Der vermeintliche Enkel behauptete, er sei im Gefängnis und benötige Bargeld für die Kaution. Das Paar hob bei seiner Bank das tägliche Maximum von 3.000 kanadischen Dollar ab und wollte in einer weiteren Bankfiliale noch mehr Geld holen. Dort habe ein Bankmitarbeiter das Paar in sein Büro geholt und erklärt, dass bereits ein anderer Kunde einen ähnlichen Anruf erhalten hat und dann feststellte, dass die unheimlich ähnliche Stimme gefälscht war. Der Anrufer sei wahrscheinlich nicht ihr Enkel gewesen.

Erst da wurde dem Paar klar, dass es einem Betrüger aufgesessen war. Sie seien da hineingezogen worden und waren überzeugt, mit ihrem Enkel zu reden. Die jetzt aufgetretenen Fälle könnten auf einen beunruhigenden Trend hindeuten. Insbesondere, da die Technik zum Klonen von Stimmen inzwischen einfach bedienbar und billig zu haben ist. Hochstapeleien, bei denen sich Betrüger als jemand anders ausgeben, würden auch in den USA zunehmen, berichtet die Washington Post.

Die Zeitung schreibt von einem weiteren Fall, bei dem die Eltern eines Mannes mehrere Tausend US-Dollar in einem Stimmen-Betrugsfall verloren haben. Die Opfer hatten einen Anruf von einem angeblichen Anwalt erhalten. Der erzählte, dass ihr Sohn einen US-Diplomaten bei einem Autounfall getötet habe. Jetzt säße er im Gefängnis und benötige Geld, um die Anwaltskosten zu decken. Der vermeintliche Anwalt holte den Sohn, genauer gesagt dessen KI-generierte Stimme, an das Telefon. Die Stimme sagte den Eltern dann, dass sie die Eltern liebe und schätze und das Geld brauche. Einige Stunden später habe der falsche Anwalt erneut angerufen und gesagt, dass ihr Sohn noch vor dem Gerichtstermin 21.000 kanadische Dollar benötige.

Die Eltern berichteten später, dass der Anruf ungewöhnlich erschien, sie jedoch das Gefühl nicht losgeworden seien, tatsächlich mit ihrem Sohn gesprochen zu haben. Für die Eltern habe die Stimme echt genug geklungen. Sie seien in ihrer Panik zu mehreren Banken geeilt, um Bargeld zu holen und übermittelten es dem falschen Anwalt mithilfe eines Bitcoin-Terminals. Als der echte Sohn später am Abend tatsächlich anrief, war die Verwirrung groß.

Wie die Betrüger an die Stimme des Sohnes kamen, ist zwar unklar, allerdings betreibt er einen Youtube-Kanal. Das Geld sei jedoch weg, keine Versicherung springe ein. Auch die Strafverfolgung gestaltet sich schwierig, da die Cyberkriminellen Telefone überall auf der Welt nutzen könnten, sodass allein schon das Herausfinden der zuständigen Strafverfolgungsstelle sich schwierig gestalte.

Die Washington Post schreibt, dass "Experten zufolge [..] die Bundesbehörden, die Strafverfolgungsbehörden und die Gerichte schlecht gerüstet [sind], um dem aufkeimenden Betrug Einhalt zu gebieten. Die meisten Opfer haben nur wenige Anhaltspunkte, um den Täter zu identifizieren, und für die Polizei ist es schwierig, Anrufe und Gelder von weltweit operierenden Betrügern zurückzuverfolgen. Außerdem gibt es kaum Präzedenzfälle, die es den Gerichten ermöglichen würden, die Unternehmen, die die Tools herstellen, für deren Verwendung zur Rechenschaft zu ziehen".

(dmk)