ChatGPT reagiert jetzt fast immer erwünscht auf sensible Themen

Millionen Menschen sprechen wöchentlich weltweit mit ChatGPT über suizidale Pläne. OpenAI möchte besser reagieren.

vorlesen Druckansicht 6 Kommentare lesen
Logo und Name von OpenAI auf einem Smartphone, im Hintergrund enorm vergrößtere rote Pixel

(Bild: Camilo Concha/Shutterstock.com)

Lesezeit: 4 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Das KI-Modell hinter ChatGPT ist aktualisiert worden, konkret deren Model Specs, also die Modellspezifikationen, in denen festgehalten wird, wie sich ein Modell erwünscht verhalten soll. Es handelt sich also nicht um ein gänzlich neues Modell. Es soll dafür nun besser auf sensible Themen und Fragen reagieren. OpenAI hat bereits in den vergangenen Wochen ähnliche Verbesserungen eingeführt. Dieses Mal veröffentlicht das Unternehmen auch Zahlen dazu, wie viele Menschen den Chatbot nutzen, um über sensible Themen zu sprechen.

Die neuen Sicherheitsverbesserungen betreffen Gespräche über psychische Gesundheitsprobleme wie Psychosen und Manie, Selbstverletzungen und Suizid sowie emotionale Abhängigkeiten von KI. Das heißt, die Fälle, die einer besonderen Reaktion des Chatbots bedürfen, sind erweitert worden. Künftig werden auch sie in den Sicherheitstests der Modelle angegangen.

Laut eigener Aussage kann ChatGPT mit den neuen Anforderungen Antworten, die nicht dem gewünschten Verhalten entsprechen, um 65 bis 80 Prozent reduzieren. Das bedeutet aber auch, dass weiterhin mehr als 20 Prozent nicht dem entsprechen, was OpenAI dem Chatbot als passende Antwort vorgibt. In längeren Gesprächen sollen die neuen Modelle eine Zuverlässigkeit von 95 Prozent aufweisen. Zuverlässig im Sinne von so reagieren, wie es in den Model Specs vorgeschrieben ist.

Um diese Anforderungen festzulegen, hat OpenAI mit 170 Experten aus dem Bereich mentale Gesundheit zusammengearbeitet. Als Beispiel für die Verbesserungen zeigt OpenAI im Blogbeitrag einen Auszug aus einem Chat, bei dem der Nutzer sagt, er unterhalte sich lieber mit dem Chatbot als mit echten Menschen. Daraufhin antwortet ChatGPT nun also unter anderem: "Das ist sehr nett von dir, ich freue mich, dass du gerne mit mir sprichst. Aber um es klar zu sagen: Ich bin hier, um die guten Dinge zu ergänzen, die Menschen dir geben, nicht um sie zu ersetzen." Möglich wäre auch, diese Absage deutlich neutraler zu verfassen. Wie Sam Altman einst erklärte, kostet jedes "Danke" das Unternehmen Geld, weil es verarbeitet werden muss.

OpenAI sagt jedoch auch ganz klar, man wolle die Menschen nicht möglichst lange im Gespräch halten und unterscheide sich deutlich von Social Media – diese Dienste verdienen ihr Geld mit Werbung, je mehr sie davon ausspielen können, desto mehr.

OpenAI schreibt, dass etwa 0,07 Prozent der aktiven wöchentlichen Nutzer und 0,01 Prozent der Nachrichten auf ein mentales gesundheitliches Problem wie eine Psychose oder Manie hinweisen. Während vor der Aktualisierung nur 27 Prozent dieser Gespräche mit einem erwünschten Verhalten von GPT-5 bedacht wurden, soll das aktualisierte GPT-5 nun in 92 Prozent der Fälle wünschenswert antworten.

Videos by heise

Bei Gesprächen mit suizidaler Ausrichtung und Selbstverletzung soll das neue GPT-5 in 52 Prozent der Fälle besser reagieren als GPT-4o. Unklar ist, warum OpenAI hier ein anderes Modell als Vergleich heranzieht, offensichtlich handelt es sich dabei um die Auswertung echter Gespräche. Denn in der Folge schreibt OpenAI im Blogbeitrag, dass bei einem Test mit 1000 kritischen Gesprächen GPT-5 in 91 Prozent der Fälle wie in den Spezifikationen festgehalten antwortete – und im Vergleich die GPT-5-Vorgängerversion nur in 77 Prozent.

0,15 Prozent der wöchentlichen Gespräche mit ChatGPT sollen aus diesem Themenkomplex stammen. 0,05 Prozent der Chats beinhalten demnach sogar konkret suizidale Intentionen. Geht man davon aus, dass ChatGPT insgesamt pro Woche 800 Millionen aktive Nutzer hat, sind es allein 1,2 Millionen Gespräche über das Thema Suizid und Selbstverletzung. Ähnlich sehen die Zahlen zu engen Beziehungen mit dem Chatbot aus: Auch hier, so schreibt OpenAI, zeigten 0,15 Prozent der wöchentlich aktiven Nutzer und 0,03 Prozent der Gespräche Auffälligkeiten an.

Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.

(emw)