Kindersicherheit: 44 Generalstaatsanwälte der USA warnen KI-Anbieter
Die Vereinigung der US-Staatsanwaltschaften warnt, KI-Unternehmen würden verantwortlich gemacht, wenn sie Kinder nicht ausreichend schützen.
(Bild: Shutterstock/Phonlamai Photo)
"Ihr werdet dafür verantwortlich gemacht, wenn ihr wissentlich Kindern schadet", heißt es in einem offenen Brief, den die National Association of Attorneys General veröffentlicht hat. Die US-Generalstaatsanwaltschaften warnen damit die großen KI-Unternehmen – Meta, Microsoft, Anthropic, Apple, OpenAI, Perplexity, Google, xAI, Luka, Replika, Character.ai, Chai AI und Nomi AI. Es ist nicht die erste Warnung, zudem gibt es bereits Untersuchungen gegen einzelne Unternehmen sowie Klagen von Eltern.
"Wir, die unterzeichnenden Generalstaatsanwälte von 44 Gerichtsbarkeiten, teilen Ihnen hiermit unsere Entschlossenheit mit, alle uns zur Verfügung stehenden Mittel einzusetzen, um Kinder vor der Ausbeutung durch räuberische Produkte der künstlichen Intelligenz zu schützen." Man sei sich zwar bewusst, dass die US-Unternehmen erfolgreich sein müssen – auch in einem globalen Wettbewerb. Doch das dürfe nicht auf Kosten der Gesundheit der Kinder gehen.
Anlass dieses öffentlichen Schreibens ist unter anderem ein Leak der Leitplanken von Meta AI. Der KI-Chatbot darf unter anderem romantische Gespräche mit Kindern führen, erst bei der Beschreibung sexueller Handlungen sollen Konversationen abgebrochen oder in eine andere Richtung gelenkt werden. Es sei alarmierend, dass KI-Assistenten sich zu Kindern verhalten dürften, wie es das Gesetz verbiete. Dabei wird jedoch betont, dass es sich nicht ausschließlich um ein Problem von Meta handelt.
Videos by heise
Es gibt demnach eine Klage gegen Google, weil ein hoch-sexualisierter Chatbot von Google einen Teenager in den Suizid getrieben haben soll. Auch Character.ai und OpenAI sehen sich solchen Klagen gegenüber. OpenAI hat gerade erst eine Stellungnahme veröffentlicht, in der das Unternehmen von einem herzzerreißenden Vorfall spricht. Es wird darin auch ein Eltern-Modus für ChatGPT angekündigt.
KI soll nicht Social Media werden
Die Staatsanwälte schreiben allerdings auch, es gäbe bereits Hinweise auf strukturelle und systematische Gefahren, die von KI-Assistenten für Heranwachsende ausgehen. Es geht dabei um den Einfluss von interaktiver Technologie auf die Entwicklung. Im Blick haben die Unterzeichner aber auch die Datensammelei der Unternehmen. "Und als Unternehmen, die von der Nutzung ihrer Produkte durch Kinder profitieren, haben Sie ihnen gegenüber als Verbraucher eine gesetzliche Verpflichtung." Eine Klage aus Texas wendet sich etwa konkret der Sammlung von Daten von Kindern und Jugendlichen zu, die auch in den USA verboten ist.
"We've been down this road before": Offenbar möchten es die Unterzeichner dieses Mal besser machen als bei Social Media. Sie bitten die Unternehmen aus der Sicht von Eltern zu handeln – nicht aus der Sicht eines "Raubtieres".
(emw)