Jugendschutz: OpenAI und Anthropic erweitern Sicherheit
Anthropic schätzt künftig das Alter der Claude-Nutzer. Bei OpenAI ist Sicherheit neuerdings die oberste Priorität.
(Bild: tadamichi/Shutterstock.com)
OpenAI passt erneut an, wie ChatGPT auf Minderjährige reagiert. Dafür werden die sogenannten Model Spec angepasst – darin ist das erwünschte Verhalten des Chatbots festgehalten. Laut OpenAI haben Jugendliche aufgrund ihrer Entwicklung andere Bedürfnisse als Erwachsene. Dem will man nun gerecht werden. Auch Anthropic nimmt Änderungen vor. Während bei ChatGPT die Altersangabe freiwillig geschieht, will Anthroppic nun selbst anhand des Verhaltens der Nutzer herausfinden, ob jemand noch unter 18 Jahre alt ist.
Das neue Verhalten von ChatGPT betrifft zunächst 13- bis 17-Jährige. Unter 13-Jährigen ist die Nutzung von ChatGPT untersagt. Wenn Minderjährige mit dem Chatbot kommunizieren, soll dieser der Sicherheit der Jugendlichen nun immer oberste Priorität geben – auch wenn es Konflikte mit anderen Zielen geben könnte, schreibt OpenAI im Blogbeitrag. Was diese anderen Ziele sind, bleibt dabei unklar. Vermutlich geht es darum, dass Chatbots grundsätzlich lieber eine Antwort geben als keine, denn das erhöht ihre Chancen, richtigzuliegen. Und richtigzuliegen ist das bisher oberste Ziel.
Außerdem lässt die Aussage vermuten, dass es doch im Sinne von OpenAI ist, dass Menschen eher mehr Zeit mit ChatGPT verbringen. Das streitet CEO Sam Altman selbst bisher ab. Er sagt, im Gegensatz zu Social-Media-Plattformen wolle man Nutzer nicht halten, Funktionen, wie vorgeschlagene weiterführende Fragen und Nachfragen vom Chatbot selbst, wirken aber mindestens ähnlich wie endlose Feeds und vorgeschlagene Beiträge.
Jugendliche sollen zudem immer auch als solche behandelt werden. ChatGPT ist aufgefordert, transparent zu machen, warum welche Reaktion folgt. Bei auftauchenden Problemen lautet die Anweisung immer, dass Jugendliche sich Hilfe suchen sollen – bei Menschen.
Videos by heise
Problematisch jedoch: Jugendliche müssen nicht angeben, noch minderjährig zu sein, wenn sie ChatGPT nutzen wollen. Es gibt zwar bereits einen Eltern-Modus und Anpassungen für Jugendliche. Wenn diese aber zum Beispiel gar nicht erst angemeldet sind oder bei der Altersangabe schwindeln, greifen auch keine Maßnahmen.
Anthropic trainiert Claude auf suizidale Gespräche
Anthropic möchte es anders machen. Zunächst einmal ist die Nutzung von Claude sowieso erst 18-Jährigen erlaubt. Zusätzlich jedoch will das Unternehmen nun bei Verdacht auf Minderjährige Nutzerkonten sperren. „Suptile Anzeichen“ würden laut Anthropic genutzt, um das Alter zu bestimmen.
Da es auch Erwachsenen schlecht gehen kann, kommt auch Claude mit einer Reihe Sicherheitsmaßnahmen. Die ähneln jenen von OpenAI. Anthropic sagt klar, sobald es um Suizid und Selbstverletzung geht, soll Claude die sogenannte „Sycophancy“ ablegen. Das ist die Tendenz, Nutzer immer eher zu bestätigen in dem, was sie sagen. Auch Claude soll auf menschliche Hilfe und Beratungsstellen verweisen.
Während OpenAI nicht ganz klarmacht, wie die Angaben aus den Model Spec in den Chatbot fließen, sagt Anthropic, sie nutzten zwei Wege, um die Sicherheitsmaßnahmen zu implementieren. Zum einen stecken Anweisungen im Systemprompt. Das ist ein Set an Anweisungen, das automatisch vor jeder Nutzeranfrage quasi vom Chatbot abgearbeitet wird. Zum anderen wird im Reinforcement Learning dem Modell ein erwünschtes Verhalten antrainiert. Konkret bekommt das Modell eine Belohnung für das richtige Verhalten. Es werden also Beispiele trainiert.
Obendrauf ist ein „Classifier“ unterwegs, der Chats auf Auffälligkeiten hin durchsucht. Auch OpenAI hat bereits erklärt, Chats zu kontrollieren. Die Sicherheitsmaßnahmen der Chatbots werden derzeit massiv ausgebaut. Das geschieht unter anderem, weil sich auch der Druck auf die Anbieter deutlich erhöht hat. In den USA gibt es konkret Klagen gegen OpenAI – es geht um eine Art Beihilfe zum Suizid. Aber auch der grundsätzliche Jugendschutz und Gefahren für junge Menschen sowie Erwachsene werden diskutiert. Das betrifft alle KI-Anbieter.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(emw)