Suizid nach KI-Chats: US-Gericht lässt Verfahren gegen Google & Co. vorerst zu
In den USA kann der Fall eines Jugendlichen, der sich nach KI-Chats das Leben genommen hat, weitergehen. KI-Texte seien nicht von der Redefreiheit gedeckt.
Character.ai bewirbt KI, die sich "echt anfühlt"
(Bild: Character.ai)
Im US-Bundesstaat Florida hat ein Bundesrichter das Argument einer KI-Firma zurückgewiesen, dass Äußerungen ihrer Chatbots vom 1. Zusatzartikel der US-Verfassung als freie Meinungsäußerung geschützt seien. Das berichtet die Nachrichtenagentur AP und erklärt, dass es in dem Fall um den Suizid eines 14-Jährigen geht, dessen Mutter behauptet, dass der Junge vorher von einer KI in eine "emotional und sexuell missbräuchliche Beziehung" gezogen worden sei. Der Chatbot stammte demnach von Character.ai. Die Firma wurde von ehemaligen Google-Ingenieuren gegründet. Der Suchmaschinenkonzern hat die Technik lizenziert und gehört ebenfalls zu den Angeklagten in dem Fall.
Generierte Texte "zu diesem Zeitpunkt" keine geschützte Rede
Wie AP zusammenfasst, hat die Mutter des Verstorbenen erklärt, dass sich dieser in den letzten Monaten seines Lebens immer stärker isoliert und sexualisierte Konversationen mit einem Chatbot von Character.ai geführt habe, der vorgab, die Figur Daenerys Targaryen aus der Fernsehserie Game of Thrones zu sein. Schließlich habe der Textgenerator ihm erklärt, dass er ihn liebe und aufgefordert, "so schnell wie möglich zu mir nach Hause zu kommen". Daraufhin habe der Teenager gefragt: "Was würdest du sagen, wenn ich jetzt gleich heimkomme?". "Bitte tue es, mein süßer König", habe der Chatbot dann noch geantwortet, woraufhin sich der Junge erschossen habe.
Videos by heise
Während die Anwälte der Mutter den Verantwortlichen vorwerfen, ein hochgradig süchtig machendes und gefährliches Produkt erschaffen zu haben, das speziell an Kinder gerichtet sei, widerspricht die für die Chatbots verantwortliche KI-Firma Character Technologies. Man sorge sich sehr um die Sicherheit der Nutzer und Nutzerinnen, habe die versichert. Vor Gericht hat die Firma argumentiert, dass die Äußerungen der Chatbots als Meinungsfreiheit weitgehenden Schutz genießen würden. Das hat die zuständige Richterin nun zurückgewiesen und erklärt, dass sie "zu diesem Zeitpunkt" nicht bereit sei, den Output der Chatbots als Rede zu definieren, zitiert AP.
Gleichzeitig hat sie demnach aber auch anerkannt, dass die Nutzer und Nutzerinnen des Diensts deren Texte als "Rede" aufnehmen können. Ermöglicht hat die Richterin jetzt, dass der Rechtsstreit vor Gericht weiter verfolgt werden kann. Auch Google darf demnach weiterhin angeklagt werden. Der Konzern kooperiert eng mit Character.ai und hat erklärt, mit der Entscheidung nicht einverstanden zu sein. Es handle sich um zwei getrennte Unternehmen und die Chatbots seien nicht von Google entwickelt worden. Laut dem Bericht wird der Fall in den USA mit großer Aufmerksamkeit verfolgt, auch weil es sich um den nächsten handelt, in dem ein Aspekt zur Rechtmäßigkeit von KI-Technik grundlegend geprüft wird.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(mho)