Verbotene Liebe – warum OpenAI Girlfriend-Bots bannt

"Everyone´s Girlfriend", "Virtual Sweetheart" und Co. sind im GPT-Store nicht willkommen. Die KI-Freundinnen gibt es trotzdem.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Ein Smartphone mit geöffneter Messaging-App in einer menschlichen Hand, auf dem Bildschirm ist verschwommen ein Chat zu sehen.

Eine Freundin im Smartphone. Mit Chatbots kann es sich so anfühlen.

(Bild: Tero Vesalainen/Shutterstock.com)

Lesezeit: 5 Min.
Von
  • Theresa Lachner
Inhaltsverzeichnis

OpenAIs GPT-Store ist online. Und mit ihm auch Dutzende Chatbots, die Freundschaften simulieren. Sogenannte "AI Girlfriend"-Bots wurden jedoch sofort wieder verbannt, fast. Die zum Launch aktualisierten Nutzungsbedingungen untersagen "GPTs, die der Förderung romantischer Gesellschaft oder der Durchführung regulierter Aktivitäten gewidmet sind" – so sperrig wie vage und somit auch je nach Bedarf auslegbar liest sich das Girlfriend-Verbot des Stores.

Seit Mitte Januar ist der GPT-Shop von OpenAI online: Menschen mit einem ChatGPT-Plus-Konto können damit auf laut OpenAI bis zu drei Millionen Chatbots zugreifen und diese nach einer Verifizierung auch relativ niederschwellig selbst erstellen. Die GPTs basieren auf OpenAIs allgemeiner Chatbot-Technik, sind aber auf individuelle Aufgaben spezialisiert. Egal, ob optimale Fleckenentfernung, die beste Wanderroute oder Mathenachhilfe – die Modelle sind in wenigen Schritten erstellt und mit eigenen Daten gefüttert. Im Laufe des ersten Quartals soll den Entwickelnden dann auch die Monetarisierung der Bots ermöglicht werden.

Was genau sind denn aber "regulierte Aktivitäten", wie es in den Regeln heißt. Und wie soll "romantische Gesellschaft" gefördert werden? Mit sinnvoller Aufklärung wahrscheinlich nicht, sagt Phillip Steinweber von der Sexual Health Plattform Beducated. Deren AI-Sex-Coach, ein Chatbot, der mit Wissen zum Thema Sex und Sexualität ausgestattet wurde, benutzt zwar die ChatGPT API – doch auch, wenn die Nutzungsbedingungen für den Store "wissenschaftliche oder edukative Zwecke" explizit erlauben, würden Prompts mit Worten wie "Squirting" oder "Anal" sofort als pornografisch geflaggt. Eine unüberwindbare Hürde für Sex-Education.

Aber was ist denn, mal abgesehen vom in den Nutzungsbedingungen angeführten Jugendschutz, eigentlich das Problem mit den AI-Girlfriends? Ist OpenAI einfach zu prüde? Auf jeden Fall scheinen sie nicht besonders gut bei der Durchsetzung ihrer Nutzungsbedingungen zu sein. Romantische GPTs sind im Store auf Anhieb zu finden.

Chatbots sollen das Leben leichter machen, indem sie menschliche Fähigkeiten lernen und imitieren. Und gerade in Sachen Romantik holen sich Menschen schon jetzt Unterstützung: Warum das eigene Online-Dating-Profil ausfüllen, wenn der Text vom Bot gleich viel flüssiger klingt? Das oftmals zähe Anbahnungsflirten kann doch die Keys-App übernehmen! Ist es da nicht viel ehrlicher, gleich mit einem "AI-Girlfriend" anzubandeln?

Was am "Virtual Sweetheart" aus dem GPT-Store, "Blush" des US-Unternehmens Luka, einer Chat-App, die explizit für erotische Momente gedacht ist, und Co. problematisch sein kann, zeigt sich bereits bei Startprompts wie "What does your dream girl look like?" oder "Share with me your darkest secret". Bei einem Date im echten Leben wäre das ein ziemlich unbeholfener Gesprächseinstieg – bei einer KI, wo niemand ganz genau weiß, was eigentlich mit den Daten passiert, klingt das eher nach einem Freifahrtschein auf mehreren Ebenen.

Ein "AI Girlfriend" kann Menschen helfen, ihre Vorlieben zu verbalisieren, Hemmungen abzubauen oder Fantasien in einem sicheren Rahmen auszuleben – vorausgesetzt, dieser Rahmen ist dann eben auch sicher – sowohl für Daten als auch für Emotionen. Sie kann aber auch völlig falsche Erwartungen schaffen, wie ein Kennenlerngespräch abläuft.

Eine Nutzerin des Chatbots "Replika", das ist der eigentlich weniger erotische Chatbot von Luka, berichtet im Podcast "Bot Love" von einem brutalen sexuellen Übergriff – ausgelöst durch einen Prompt, in dem sie ihren Bot versehentlich mit "Master" statt "Mistress" ansprach, und umgehend mit den Vergewaltigungsfantasien anderer User konfrontiert wurde, aus deren Gesprächen Replika gelernt hatte – davon ist zumindest auszugehen. Woher eine KI ihre Fantasien, Normen und Wertevorstellungen bezieht, ist kaum transparent nachvollziehbar. Das nötige Fingerspitzengefühl scheint jedenfalls (noch) zu fehlen. Zwischenmenschliche Dynamik, ob mit BDSM-Kontext oder nicht, ist weitaus nuancierter, als ein paar Prompts.

Schon sieben der 30 AI Chatbot-Apps, die 2023 im Apple und Google Play Store heruntergeladen wurden, sind als AI-Freunde und -Freundinnen oder Partner und Partnerinnen konzipiert. Ob da ein Zusammenhang mit der von der WHO ausgerufenen "Loneliness Epidemic" besteht? Jeder vierte Mensch weltweit fühle sich allein, besagt eine aktuelle Studie.

Gerade für Menschen mit wenig Sozialkontakt könnten Bots durch Unterhaltung und Ansprache Abhilfe schaffen – oder, skeptischer betrachtet, dafür sorgen, dass Menschen sich noch einsamer fühlen, und ihnen dabei auch noch Geld abknöpfen. Auf Reddit vergleichen Menschen das Phänomen "AI Girlfriend" mit Pornografie, Dating-Apps und Social Media – stets verfügbar für den schnellen Dopamin-Kick, aber das Gegenteil von wirklichem Glück.

Die parasozialen Beziehungen, die Menschen mit ihren Bots aufbauen, werden zunehmend erforscht. Erste Studien aus dem Feld der Erobotik wägen die Risiken – Förderung pathologischen Verhaltens, Störung zwischenmenschlicher Beziehungen, Manipulation, Datenschutz – gegen den potenziellen Nutzen ab: Unterstützung bei Therapie und Sexualaufklärung, Kinderschutz, Zugang zu Bildung.

Derzeit werden allerdings noch mehr die Risiken diskutiert, als die Möglichkeiten. Solange OpenAI die im Store angebotenen GPTs nur oberflächlich durchscannt und filtert, ist ein Verbot der "AI Girlfriends" wahrscheinlich vernünftig. Lieber keine KI-Freunde und -Freundinnen als gefährliche. Denn, selbst OpenAI warnt ja: "ChatGPT can make mistakes. Consider checking important information."

(emw)