ChatGPT: Datenschutzbeschwerde gegen OpenAI wegen Falschinformationen

Die Bürgerrechtsorganisation Noyb hat wegen Datenschutzbedenken eine Beschwerde gegen OpenAI eingelegt und fordert eine DSGVO-konforme Datenverarbeitung.

In Pocket speichern vorlesen Druckansicht 21 Kommentare lesen
Mensch am PC schreibt mithilfe von ChatGPT

(Bild: CHUAN CHUAN/Shutterstock.com)

Lesezeit: 2 Min.

Die österreichische Bürgerrechtsorganisation Noyb hat wegen OpenAI eine Beschwerde bei der österreichischen Datenschutzbehörde eingelegt. Die Behörde soll die Datenverarbeitung von OpenAI bei seinen großen Sprachmodellen prüfen, die für ChatGPT zum Einsatz kommen. Darüber hinaus verlangt Noyb von der Behörde, OpenAI zu einer DSGVO-konformen Datenverarbeitung zu bringen und ein Bußgeld zu verhängen, damit das Unternehmen den Vorschriften künftig nachkommt.

Laut Noyb bearbeitet OpenAI seinen Antrag auf Berichtigung oder Löschung der falschen Daten nicht. Daten zu korrigieren, sei nicht möglich. OpenAI habe angegeben, Daten zu bestimmten Aufforderungen, wie den Namen des Beschwerdeführers, filtern oder blockieren zu können. Das funktioniere jedoch nicht, ohne alle Informationen über den Beschwerdeführer zu filtern.

Noyb zufolge gibt OpenAI "offen zu, dass es falsche Informationen über Personen nicht korrigieren kann und keine Angaben darüber machen kann, woher die Daten stammen oder welche Daten über einzelne Personen gespeichert werden". Maartje de Graaf, Datenschutzanwältin bei noyb: "Das Erfinden von falschen Informationen ist an sich schon problematisch. Aber wenn es um falsche Informationen über Einzelpersonen geht, kann es ernsthafte Folgen haben. [...] Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technik muss den gesetzlichen Vorgaben folgen, nicht umgekehrt."

Betroffene haben gemäß Artikel 16 DSGVO das Recht auf Berichtigung ihrer Daten, wenn diese ungenau sind. Sie können zudem verlangen, dass falsche Informationen gelöscht werden. Darüber hinaus müssen Unternehmen nach dem "Recht auf Zugang" in Artikel 15 nachweisen können, welche Daten sie über Einzelpersonen speichern und welche die Quellen sind.

Seitdem die breite Öffentlichkeit Ende 2022 Zugang zu ChatGPT erhalten hat, steht das OpenAI immer wieder wegen Datenschutzproblemen und war beispielsweise in Italien zwischenzeitlich aufgrund von Datenschutzproblemen nicht verfügbar. Halluzinationen, die generative Sprachmodelle auswerfen, stehen regelmäßig in der Kritik, da diese sich wohl nie vollständig in den Griff bekommen lassen.

(mack)