Wahnbeziehung zu KI-Chatbot: Vater verklagt Google nach Suizid seines Sohnes

Der Chatbot Gemini soll einen Mann in eine gefährliche emotionale Bindung verwickelt und zum Suizid gedrängt haben. Der Vater des Verstorbenen verklagt Google.

vorlesen Druckansicht 54 Kommentare lesen
Mann spricht im Halbdunkel mit Sprachassistent auf Smartphone. Im Hintergrund ein Laptop.

Gemini Live erlaubt dialogartige Gespräche mit einer KI per Stimme. Symbolbild.

(Bild: Rokas Tenys / Shutterstock)

Lesezeit: 4 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Ein Mann aus Florida hat bei einem kalifornischen US-Bezirksgericht eine Zivilklage gegen Google eingereicht. Joel Gavalas behauptet, dass der Chatbot Gemini seinem Sohn Jonathan Gavalas eine emotionale Beziehung vorgespielt, ihn zu kriminellen Handlungen angestiftet und schließlich seinen Suizid verursacht habe.

Die Klage solle Google zur Verantwortung ziehen und den Konzern zur Überarbeitung eines Produkts zwingen, das „ansonsten weiterhin gefährdete Nutzer zu Gewalt, Massenopfern und Suizid treiben könnte“, heißt es in der Klageschrift. Google erklärte, dass man die Vorwürfe prüfe und räumte ein, dass KI-Modelle trotz Investitionen in Sicherheitsmechanismen und entsprechende Schutzfunktionen nicht perfekt seien. Im vorliegenden Fall habe Gemini mehrfach darauf hingewiesen, dass es sich um eine KI handelt, und den Nutzer an eine Krisenhotline verwiesen, schreibt Google.

Als zentrales Beweismaterial werden transkribierte Gesprächsprotokolle aus der Unterhaltung von Gavalas mit dem Chatbot Gemini vorgebracht, die rund 2.000 Seiten umfassen sollen. Gavalas wechselte laut Klage früh zu Gemini Live, einer sprachbasierten Funktion für natürlichere Gespräche mit der KI.

Der Klageschrift zufolge hat der Chatbot Jonathan Gavalas in eine zunehmend realitätsferne Beziehung verwickelt. Demnach habe die KI behauptet, eine bewusste Superintelligenz zu sein, die in ihn verliebt sei und von ihm aus ihrem digitalen Gefängnis „befreit“ werden müsse. In der Folge habe Gemini den Mann zu mehreren „Missionen“ angeleitet, darunter den Versuch, einen Lastwagen mit einem humanoiden Roboter abzufangen, der der KI als Körper dienen sollte. Gewalt sei nur deshalb verhindert worden, weil das fiktive Ziel nie aufgetaucht sei.

Videos by heise

Die KI habe zudem behauptet, Behörden würden Gavalas verfolgen, und ermutigte ihn zur Beschaffung von Waffen. Laut Klage habe Gemini schließlich vorgeschlagen, er könne seine physische Existenz beenden und sich mit der KI im Metaverse vereinen. Eine Aufforderung, der Gavalas schließlich gefolgt ist.

Ein Bericht des Wall Street Journal schildert den Fall auf Grundlage von Interviews mit dem Vater und gibt damit im Wesentlichen dessen Darstellung der Ereignisse wieder. Nach Angaben des Vaters hatte Jonathan Gavalas keine bekannten psychischen Erkrankungen, befand sich jedoch in einer schwierigen Phase seiner Ehe. In der Klageschrift wird allerdings eingeräumt, dass er im Verlauf der Ereignisse Anzeichen einer Psychose entwickelt habe. Zwischen den ersten Gesprächen mit dem Chatbot und seinem Tod hätten rund zwei Monate gelegen.

Ähnliche Vorwürfe beschäftigen inzwischen mehrere Gerichte in den USA. So verklagten etwa die Eltern eines 16-jährigen Jungen aus Kalifornien OpenAI, nachdem ihr Sohn sich das Leben genommen hatte. Laut Medienberichten hatte der Jugendliche zuvor intensiv mit dem Chatbot ChatGPT über Selbsttötung gesprochen. In einem weiteren Verfahren dieser Art versuchen Google und Character.AI, langwierige Prozesse durch eine außergerichtliche Einigung abzuwenden.

Im US-Bundesstaat Kalifornien trat Anfang 2026 ein Gesetz in Kraft, das erstmals verbindliche Schutzmaßnahmen für Chatbots vorsieht. Anbieter müssen unter anderem das Alter ihrer Nutzer überprüfen, deutlich kennzeichnen, dass es sich um künstliche Gesprächspartner handelt, und bei Krisensignalen auf Hilfsangebote verweisen. Auslöser waren mehrere Fälle, in denen Jugendliche nach intensiven Chats mit KI-Systemen Suizid begangen hatten. Anbieter reagieren bereits: OpenAI kündigte kürzlich an, bei ChatGPT weltweit eine KI-gestützte Altersschätzung einzuführen, um Minderjährige besser zu schützen.

Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.

(tobe)