OpenAI-Studie: Emotionale Auswirkungen von ChatGPT-Nutzung
Manipulation und psychische Störungen. OpenAI und das MIT haben die potenziellen Auswirkungen von ChatGPT untersucht.

(Bild: Pasuwan/shutterstock.com)
Menschen mit unterschiedlichen Bedürfnissen und einer unterschiedlichen emotionalen Verfasstheit können auch unterschiedlich auf die Nutzung von ChatGPT reagieren. Das klingt zunächst sehr logisch, aber dennoch: Vergleicht man die Auswirkungen der KI-Nutzung mit denen von sozialen Netzwerken auf die Menschen in unterschiedlicher Verfasstheit, scheint die Studie von OpenAI und dem MIT Media Lab deutlich relevanter. Es geht um Manipulation und psychische Störungen.
Die Sorge beschreiben die Autoren wie folgt: "(...) ein emotional ansprechender Chatbot kann zwar Unterstützung und Begleitung bieten, es besteht jedoch die Gefahr, dass er die sozio-affektiven Bedürfnisse der Nutzer in einer Weise manipuliert, die das langfristige Wohlbefinden untergräbt." Es geht also nicht um etwa parasoziale Beziehungen mit einem Chatbot oder um sozialpsychologische Aspekte, sondern um affektive Störungen wie Depressionen oder Angstzustände. Konkret wurden in der Studie vier psychosoziale Konzepte angeschaut: Einsamkeit, Sozialisierung, emotionale Abhängigkeit und problematischer Konsum.
Zudem sprechen die Autoren das Problem des "social reward hacking" an. Das ist die Möglichkeit von KI-Modellen oder deren Anbietern, affektive Hinweise zu nutzen, um Menschen zu manipulieren.
Zwei Studiendesigns zeigen ähnliche Ergebnisse
Der Fokus der veröffentlichten Studie lag sowohl auf dem Advanced Voice Mode als auch auf dem Text-Chatbot. Es wurden zwei Untersuchungsmethoden ausgewählt, zum einen wurden mehr als drei Millionen Unterhaltungen auf affektive Hinweise hin untersucht. Alles geschah auf der Plattform. Das sei laut der Autoren unter Wahrung der Privatsphäre und mit Zustimmung geschehen. Dazu zählten auch Befragungen von 4000 zufällig ausgewählten Teilnehmern zu ihrem Wohlbefinden. Rund 6000 Heavy-User des Sprachbots wurden zudem drei Monate lang in ihrer Nutzung beobachtet.
Zum anderen gab es eine randomisierte kontrollierte Studie mit rund 1000 Menschen – randomisiert bedeutet, die Teilnehmer wurden zufällig ausgewählt. Hier wurden 28 Tage lang die Auswirkungen der Nutzung des Text- und Sprachmodells auf die vier Konzepte untersucht. Und zwar indem mit den Menschen auch gesprochen wurde und sie ihr Wohlbefinden selbst einschätzen mussten.
Eines der wichtigsten Ergebnisse beider Studiendesigns ist, dass eine hohe Nutzung mit erhöhten selbstberichteten Indikatoren für Abhängigkeit korreliert. Das heißt, Menschen, die ChatGPT mehr nutzen, haben auch eher von Anzeichen berichtet, die auf eine emotionale Abhängigkeit und weniger Sozialisierung schließen lassen. Allerdings zeigt die Studie auch, so schreiben es die Autoren, dass eine eher kleine Anzahl von Nutzern für einen verhältnismäßig hohen Anteil an affektiven Hinweisen verantwortlich ist. Die meisten Menschen nutzen ChatGPT sehr aufgabenorientiert.
Lesen Sie auch
KI-Zugang nur mit Verifikation: OpenAI schränkt Nutzung für Firmenkunden ein
KI-Update: Mit Delfinen sprechen, Medizinischer KI-Chatbot, Open AI mit Speed
Large Language Model für Delfine: Sprechen mit den Meeressäugern
Text2Robot: Roboter mit KI ĂĽber Textprompt entwerfen
Entwicklungsplattform: Theia 1.60 stellt KI-Prompts unter MIT-Lizenz
Die Nutzung des Voice-Modus ist der Studie zufolge mit einem besseren emotionalen Wohlbefinden verbunden, solange die Nutzung kurz ist. Eine längere Nutzung und das Gefühl von Einsamkeit beim Beginn der Nutzung hatten eher negative Auswirkungen. Die Autoren konnten jedoch auch feststellen, dass Menschen, die eher nach affektiven Auffälligkeiten gesucht haben, den Sprachmodus genutzt haben. Abschließend stellen sie fest: "Zusammengenommen ergibt sich ein komplexes Bild der Auswirkungen von Sprachmodellen auf das Verhalten und das Wohlbefinden der Nutzer, das von den jeweiligen Prädispositionen und emotionalen Ausgangszustand."
(emw)