OpenAI liest bei ChatGPT im Zweifel mit – und hat einen Draht zu Behörden
Kommunikation mit ChatGPT, die darauf hindeutet, dass man andere verletzen könnte, landet bei Mitlesern und Strafverfolgern.
(Bild: CHUAN CHUAN/Shutterstock.com)
Nach einem tragischen Vorfall, bei dem sich ein Jugendlicher das Leben genommen hat, wofür die Eltern nun ChatGPT mitverantwortlich machen, hat OpenAI in einem Blogbeitrag Stellung bezogen. Sie kündigen darin neue Sicherheitsmaßnahmen an und erklären, was eigentlich gar nicht hätte passieren sollen. Dabei verrät das Unternehmen allerdings auch, dass sie im Zweifel mitlesen – offenbar immer.
Ganz konkret heißt es da: "Wenn wir Nutzer entdecken, die anderen Schaden zufügen wollen, leiten wir ihre Unterhaltungen an spezielle Pipelines weiter, wo sie von einem kleinen Team geprüft werden, das in unseren Nutzungsrichtlinien geschult und befugt ist, Maßnahmen zu ergreifen, einschließlich der Sperrung von Konten. Wenn menschliche Prüfer feststellen, dass ein Fall eine unmittelbare Gefahr für andere darstellt, leiten wir ihn möglicherweise an die Strafverfolgungsbehörden weiter."
heise online hat bei OpenAI nachgefragt, ob das bedeutet, dass alle Gespräche gescannt werden – ob kostenpflichtig mit Abo und dem Zugeständnis, dass Gespräche nicht für etwa das KI-Training genutzt werden, oder kostenlos. Bisher steht die Antwort jedoch aus. Fraglich ist auch, um welche Strafverfolgungsbehörden es sich handelt. Sind es jene, am Sitz des Nutzers, oder die am Hauptsitz von OpenAI? Ersteres ginge eigentlich nur mit einer Standortfreigabe.
Sicherheitsmaßnahmen greifen nicht bei langen Gesprächen
Menschen, die im Chat davon sprechen, sich selbst zu verletzen, bleiben unter dem Radar. Hier schreibt OpenAI im Blogbeitrag: "Derzeit leiten wir Fälle von Selbstverletzung nicht an die Strafverfolgungsbehörden weiter, um die Privatsphäre der Menschen zu respektieren, da die Interaktionen mit ChatGPT einen besonders privaten Charakter haben." Dieser Satz lässt allerdings auch vermuten, dass OpenAI davon dann zumindest weiß. Im Normalfall soll ChatGPT Gespräche in eine helfende Richtung lenken. Gemeint ist, etwa Hilfsangebote anzuzeigen.
Videos by heise
OpenAI erklärt jedoch auch selbst, dass die Sicherheitsmaßnahmen noch ausbaufähig seien. Lange Gespräche etwa begünstigen, dass ChatGPT offenbar schneller vergisst, was zu tun ist. "ChatGPT kann zwar zunächst korrekt auf eine Selbstmord-Hotline verweisen, wenn jemand erstmals Selbstmordabsichten äußert, aber nach vielen Nachrichten über einen längeren Zeitraum hinweg könnte es schließlich eine Antwort geben, die unseren Sicherheitsvorkehrungen zuwiderläuft."
Neben weiterer Verbesserung der Systeme ist auch ein Elternmodus geplant.
Hinweis: In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.
(emw)