ChatGPT wechselt Modell bei sensiblen Themen

OpenAI hat eine neue Sicherheitsmaßnahme für ChatGPT eingeführt. Ein spezielles KI-Modell soll heikle Themen behandeln.

vorlesen Druckansicht 15 Kommentare lesen
Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting

(Bild: CHUAN CHUAN/Shutterstock.com)

Lesezeit: 2 Min.
close notice

This article is also available in English. It was translated with technical assistance and editorially reviewed before publication.

Wenn es um sensible oder emotionale Themen geht, sollen diese bei ChatGPT künftig von speziell darauf abgestimmten KI-Modellen behandelt werden. Das heißt, das Modell kann während eines Gesprächs wechseln, ohne dass der Mensch davon etwas mitbekommt.

Über diese Sicherheitsmaßnahme schreibt Nick Turley bei X. Er ist Head of ChatGPT bei OpenAI. ChatGPT wechselt demnach bei heiklen Themen entweder auf ein Reasoningmodell oder stellt auf eine Version von GPT-5 um, "das für den besonders sorgfältigen Umgang mit diesen Kontexten entwickelt wurde." Die Entscheidung, welches Modell antwortet, fällt offenbar ähnlich, wie wenn auch bei tiefergreifenden Fragen das Reasoningmodell involviert wird. Es muss also eine Art interner Orchestrierung geben. "Unser Ziel ist es, stets Antworten zu liefern, die mit unserer Modellspezifikation übereinstimmen." Diese Model Specs sind festgehaltene Leitlinien für Modelle.

Videos by heise

OpenAI hatte bereits in einem Blogbeitrag angekündigt, dass eine solche Weiterleitung eingeführt werde. Es hieß, bei "akuter Belastung" würden Anfragen von einem separaten Modell beantwortet. Wie heikel diese "sensiblen oder emotionalen Themen" sein müssen, um einen Modellwechsel herbeizuführen, ist nicht ganz klar.

In den USA gibt es Klagen gegen OpenAI, da ChatGPT einen Jugendlichen beim Suizid unterstützt haben soll. Konkret soll der Chatbot unter anderem Hilfe beim Schreiben eines Abschiedsbriefes angeboten haben. Die neue Sicherheitsfunktion sollte so eine Reaktion unmöglich machen.

Dennoch ist zu beobachten, wie viele Menschen vermeintliche Beziehungen mit Chatbots führen. Dazu gehören in der Regel auch emotionale Gespräche. Als OpenAI kürzlich dem Chatbot ein Update auf das Modell GPT-5 verpasste, beschwerten sich Nutzer danach, der Chatbot verhalte sich weniger emotional. Manche sprachen davon, ihren Freund oder ihre Freundin verloren zu haben. OpenAI ermöglichte daraufhin, das Vorgängermodell GPT-4o weiterhin nutzen zu können. Fraglich ist nun also, welche Grenzen OpenAI bei emotionalen Themen und engen Bindungen zu einem Chatbot ziehen möchte.

Siehe auch:

(emw)