ChatGPT wechselt Modell bei sensiblen Themen
OpenAI hat eine neue Sicherheitsmaßnahme für ChatGPT eingeführt. Ein spezielles KI-Modell soll heikle Themen behandeln.
(Bild: CHUAN CHUAN/Shutterstock.com)
Wenn es um sensible oder emotionale Themen geht, sollen diese bei ChatGPT künftig von speziell darauf abgestimmten KI-Modellen behandelt werden. Das heißt, das Modell kann während eines Gesprächs wechseln, ohne dass der Mensch davon etwas mitbekommt.
Über diese Sicherheitsmaßnahme schreibt Nick Turley bei X. Er ist Head of ChatGPT bei OpenAI. ChatGPT wechselt demnach bei heiklen Themen entweder auf ein Reasoningmodell oder stellt auf eine Version von GPT-5 um, "das für den besonders sorgfältigen Umgang mit diesen Kontexten entwickelt wurde." Die Entscheidung, welches Modell antwortet, fällt offenbar ähnlich, wie wenn auch bei tiefergreifenden Fragen das Reasoningmodell involviert wird. Es muss also eine Art interner Orchestrierung geben. "Unser Ziel ist es, stets Antworten zu liefern, die mit unserer Modellspezifikation übereinstimmen." Diese Model Specs sind festgehaltene Leitlinien für Modelle.
Videos by heise
OpenAI hatte bereits in einem Blogbeitrag angekündigt, dass eine solche Weiterleitung eingeführt werde. Es hieß, bei "akuter Belastung" würden Anfragen von einem separaten Modell beantwortet. Wie heikel diese "sensiblen oder emotionalen Themen" sein müssen, um einen Modellwechsel herbeizuführen, ist nicht ganz klar.
OpenAI entscheidet über emotionale Gespräche
In den USA gibt es Klagen gegen OpenAI, da ChatGPT einen Jugendlichen beim Suizid unterstützt haben soll. Konkret soll der Chatbot unter anderem Hilfe beim Schreiben eines Abschiedsbriefes angeboten haben. Die neue Sicherheitsfunktion sollte so eine Reaktion unmöglich machen.
Dennoch ist zu beobachten, wie viele Menschen vermeintliche Beziehungen mit Chatbots führen. Dazu gehören in der Regel auch emotionale Gespräche. Als OpenAI kürzlich dem Chatbot ein Update auf das Modell GPT-5 verpasste, beschwerten sich Nutzer danach, der Chatbot verhalte sich weniger emotional. Manche sprachen davon, ihren Freund oder ihre Freundin verloren zu haben. OpenAI ermöglichte daraufhin, das Vorgängermodell GPT-4o weiterhin nutzen zu können. Fraglich ist nun also, welche Grenzen OpenAI bei emotionalen Themen und engen Bindungen zu einem Chatbot ziehen möchte.
Siehe auch:
- ChatGPT bei heise Download
(emw)