ChatGPT macht Mann zu Mörder: Noyb reicht Datenschutzbeschwerde ein
Ein Mann soll zwei Kinder ermordet haben, behauptet ChatGPT. Das stimmt nicht. Noyb legt eine Datenschutzbeschwerde vor.

Tippende Hände, darüber schweben Symbole und die Buchstaben AI.
(Bild: Shutterstock/Poca Wander Stock)
ChatGPT hat einen unbescholtenen Mann zu einem Mörder gemacht, zumindest behauptet der Chatbot, dass ein Mann aus Norwegen zwei seiner drei Kinder ermordet hat und auch versucht haben soll, sein drittes Kind zu töten. Der österreichische Datenschutzverein Noyb (None of your Business) hat eine Datenschutzbeschwerde bei der norwegischen Datatilsynet eingelegt. Es ist bereits die zweite Beschwerde des Vereins gegen OpenAI. "Wenn Halluzinationen nicht gestoppt werden, können Menschen leicht eine Rufschädigung erleiden."
Die DSGVO enthält einen Grundsatz zur Datenrichtigkeit. Man kann sich gegen Unwahrheiten über die eigene Person wehren und etwa eine Richtigstellung verlangen. OpenAI beruft sich jedoch darauf, dass es einen Hinweis gäbe, dass ChatGPT Fehler machen könne. Noyb sagt, dieser "winzige Hinweis" reiche nicht aus und könne das Gesetz nicht aushebeln. "Die gesetzlichen Verpflichtungen zur Datenrichtigkeit lassen sich aber nicht mit einem Haftungsausschluss umgehen."
Zudem gibt es eigentlich ein Auskunftsrecht, dem OpenAI jedoch auch nicht nachkommt. Betroffene haben ein Recht darauf, zu erfahren, welche Daten über sie gespeichert sind. Nun verraten die Anbieter von KI-Modellen in der Regel nicht, welche Trainingsdaten sie genutzt haben. Außerdem halluzinieren Chatbots bekanntlich. Das heißt, sie können jederzeit falsche Informationen über eine Person ausgeben, ohne dass diese gespeichert oder veränderbar wären. Technisch ist es nur möglich, dem Chatbot bestimmte Verknüpfungen, also Antworten oder Themen, zu untersagen. Daten lassen sich nicht nachträglich löschen.
ChatGPT vermischt Fakten mit Fiktion
Im Fall des Norwegers enthielt die Antwort auf die Frage, wer Arve Hjalmar Holmen ist, teilweise reale Fakten. Dazu gehörte etwa der richtige Heimatort sowie die richtige Anzahl, Geschlechter und Alter der Kinder. Was nicht stimmte, war der Part, in dem ChatGPT ihn zum Mörder von zwei seiner drei Kinder machte und schrieb, dass Holmen deshalb zu 21 Jahren Haft verurteilt worden sei. Wieso ChatGPT den Vater zu einem verurteilten Kindsmörder macht, bleibt dabei völlig unklar.
Es hat bereits ähnliche Fälle gegeben. So machte ChatGPT aus einem Journalisten, der lange Zeit Gerichtsreporter war, ebenfalls einen Straftäter. Dabei vermischte der Chatbot die Person mit den Fällen, über die er schrieb. Es gab also immerhin einen Zusammenhang. Holmen sorgt sich laut einer Pressemitteilung von Noyb: "Menschen denken, dass es keinen Rauch ohne Feuer gibt. Die Tatsache, dass jemand diese Inhalte lesen und für wahr halten könnte, macht mir am meisten Angst."
Lesen Sie auch
Arzt siegt vor Gericht: Meta muss deutlich stärker gegen Deepfakes vorgehen
KI-Labyrinth soll unerwĂĽnschte Bots abwehren
Gmail: Neues KI-Tool verändert Mail-Suche im Postfach
KI-Inhalte mĂĽssen in China ab September gekennzeichnet werden
KI-Update kompakt: Claude, OpenAIs Stimmen, Nvidias Investitionen, Atlas
Noyb hat bereits 2024 zu einem verhältnismäßig kleinen Fall eine Beschwerde gegen OpenAI eingereicht. Da ging es um die Korrektur eines Geburtsdatums einer Person. OpenAI erklärte, man könne solche Daten nicht korrigieren, sondern nur bestimmte Prompts sperren. Fragt man inzwischen ChatGPT nach Arve Hjalmar Holmen, antwortet der Chatbot nicht mehr mit der Gruselgeschichte. Laut Noyb liegt das am Zugriff des Chatbots auf das Internet und der damit aktuellen Suche nach Informationen zu dem Namen. In den Trainingsdaten der aktuellen Modelle vermutet Noyb aber noch immer die Daten, die zu der falschen Aussage geführt haben.
(emw)