ChatGPT: Kanadische Datenschutzbehörde untersucht OpenAI

Der oberste kanadische Datenschützer ermittelt gegen das Unternehmen OpenAI, weil es möglicherweise unerlaubt Daten erhebt und verarbeitet.

In Pocket speichern vorlesen Druckansicht 22 Kommentare lesen

Ein Hinweis, den OpenAI vor Benutzung von ChatGPT einblendet, warnt davor, sensible Daten einzugeben.

(Bild: OpenAI)

Lesezeit: 2 Min.

Das Büro des Datenschutzbeauftragten von Kanada hat eine Untersuchung gegen OpenAI eingeleitet. Das Unternehmen entwickelt den mit künstlicher Intelligenz betriebenen Chatbot ChatGPT. "Die KI-Technik und ihre Auswirkungen auf die Privatsphäre haben für mein Büro Priorität", sagt Philippe Dufresne, Privacy Commissioner of Canada. "Wir müssen mit den schnelllebigen technologischen Fortschritten Schritt halten – und ihnen einen Schritt voraus sein."

Der oberste kanadische Datenschützer reagiert damit laut Mitteilung auf eine Beschwerde. Wer sich worüber konkret beschwert hat, geht aus der Mitteilung nicht hervor. Allgemein geht es um die Erhebung, Verwendung und Offenlegung personenbezogener Daten ohne Zustimmung. Weil die Untersuchung noch laufe, würden keine weiteren Details bekannt gegeben.

Im Nachbarland USA hat eine gemeinnützige Forschungsorganisation die dort für Verbraucherschutz zuständige Federal Trade Commission (FTC) aufgefordert, gegen OpenAI Ermittlungen einzuleiten. In Italien wurde auf Betreiben der dortigen Datenschutzaufsicht der Zugang zu ChatGPT bereits gesperrt.

Die italienische Behörde wirft OpenAI vor, es verarbeite bislang unrechtmäßig personenbezogene Daten. Als Basis für die Anschuldigungen dient maßgeblich das kürzlich aufgetauchte Datenleck in ChatGPT, das die Einsicht in die Informationen fremder Nutzer erlaubte, sogar Zahlungsdaten waren dabei.

IT-Unternehmen in Südkorea bemühen sich laut einem Bericht der Korea Times darum, ihren Mitarbeitern Richtlinien im Umgang mit ChatGPT aufzuerlegen. Da diese den Chatbot nutzten, um beispielsweise zu programmieren oder ihre Meetings zu organisieren, bestehe das Risiko, dass Geschäftsgeheimnisse an die Öffentlichkeit dringen.

In einem vom Future of Life Institute (FLI) veröffentlichten Manifest hatten über 10.000 teils prominente Unterzeichnerinnen und Unterzeichner wie Elon Musk und Steve Wozniak eine halbjährige Zwangspause für die Arbeit an KI-Modellen gefordert, die "mächtiger als GPT-4" seien. Nur so könne man gewährleisten, dass die KI zum Wohle der Menschheit beitrage, statt ihr zu schaden.

(anw)