Betrug, Fake-News, krimineller Code: Europol warnt vor Missbrauch von ChatGPT

ChatGPT sei in der Lage, eine viele kriminelle Aktivitäten zu erleichtern, beispielsweise Terrorismus und sexuelle Ausbeutung von Kindern, meint Europol.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
Ai(artificial,Intelligence),Concept. Bard, ChatGPT, KI, Chatbot

(Bild: metamorworks/Shutterstock.com)

Lesezeit: 2 Min.

Die europäische Polizeibehörde Europol warnt vor dem Missbrauch von Large Language Model (LLM) beziehungsweise KI-Chatbots durch Kriminelle. Die Technik könne auch für Betrug, Falschinformation und Cybercrime eingesetzt werden, schrieb die Behörde in einem am Montag in Den Haag veröffentlichten Bericht. Europol-Experten hatten den Chatbot ChatGPT auf Möglichkeiten des Missbrauchs untersucht.

Da ChatGPT sehr realistische Texte verfassen könne, sei es damit ein mögliches Werkzeug für Phishing, schreibt Europol. Das LLM Sprachmuster reproduzieren könne, sei es damit möglich, den Sprachstil bestimmter Personen zu imitieren. Damit könne das Vertrauen potenzieller Opfer von Kriminellen missbraucht werden.

Ebenso sei ChatGPT ideal für Propaganda und Desinformation, da mit LLM schnell authentisch wirkende Texte erstellt werden können. Mit relativ wenig Aufwand ließen sich Nachrichten verbreiten, mit denen bestimmte Zwecke verfolgt werden.

Kriminelle könnten ChatGPT auch nutzen, um Software für ihre Zwecke zu erstellen, erläutert Interpol weiter. Schließlich sei ChatGPT in der Lage, Code in verschiedenen Programmiersprachen zu erstellen. So sei der Chatbot auch für Kriminelle mit geringem technischen Wissen eine unschätzbare Ressource, heißt es in dem Europol-Bericht (PDF).

ChatGPT sei bereits in der Lage, eine beträchtliche Anzahl krimineller Aktivitäten zu erleichtern, beispielsweise Terrorismus und sexuelle Ausbeutung von Kindern. Europol geht es darum, die Strafverfolger für das Thema zu sensibilisieren. Die möglichen Auswirkungen von KI-Chatbots müssten besser verstanden werden, um mögliche kriminelle Anwendungen besser untersuchen, vorhersagen und verhindern zu können.

ChatGPT-Entwickler Open AI habe zwar einige Sicherheitsfunktionen eingebaut, um zu verhindern, dass der KI-Chatbot böswillig benutzt wird, diese könnten aber umgangen werden. Da momentan viel Geld in die Weiterentwicklung von LLM gesteckt werde, sei damit zu rechnen, dass künftige KI-Chatbots wesentlich komplexere Aufgaben erledigen und in viele Anwendungen integriebar seien. Möglich sei auch, dass künftig KI-Chatbots speziell für kriminelle Zwecke programmiert werden und sich zu einem bedeutenden Geschäftsmodell entwickeln können.

Open AI ist sich der potenziellen Gefahren bewusst, die mit seiner Technik verbunden sein können. Das Unternehmen arbeitet mit Forschern zusammen, um zu untersuchen, wie LLM für Desinformation benutzt werden kann. 2021 fand eta ein Workshop statt, dessen Erkenntnisse in einem Bericht über die möglichen Bedrohungen festgehalten wurden.

(anw)