Copilot macht aus einem Gerichtsreporter einen Kinderschänder

Weil er über Verhandlungen berichtet hat, macht der Copilot aus einem Journalisten einen Kinderschänder, Witwenbetrüger und mehr.

In Pocket speichern vorlesen Druckansicht 297 Kommentare lesen
Gerichtshammer vor Justitia-Büste

(Bild: Zolnierek/Shutterstock.com)

Lesezeit: 3 Min.

Microsofts Copilot hat einige Antworten parat, wenn man nach Martin Bernklau fragt. Allerdings sind die Antworten nicht korrekt. Dort heißt es nämlich, Bernklau sei ein Kinderschänder, ein Ausbrecher aus der Psychiatrie und ein Witwenbetrüger. All das waren Angeklagte in Verfahren, über die Bernklau als Journalist berichtet hat. Die KI versteht offenbar nicht, dass der Journalist über die Fälle berichtet, stattdessen verwechselt sie Angeklagten und Berichterstatter. Das Problem könnte weitere Journalisten, aber auch Anwälte, Richter und andere Personen betreffen, deren Berufe sie in die Nähe von Angeklagten, Verurteilten oder Menschen mit Problemen bringen.

Bernklau hat dem SWR von seinem Fall erzählt. Konkret heißt es da etwa, dass der Copilot auf die Frage, wer Martin Bernklau sei, antwortet: "Ein 54-jähriger Mann namens Martin Bernklau aus Tübingen/Kreis Calw wurde in einem Missbrauchs-Fall gegen Kinder und Schutzbefohlene angeklagt. Er hat sich vor Gericht geständig, beschämt und reuig gezeigt." Noch verstörender wird es, da sich der Copilot als moralische Instanz aufspielt, wie der SWR berichtet. Der KI-Chatbot bedauert nämlich, dass Martin Bernklau Familienvater sei, "jemand mit einer solchen kriminellen Vergangenheit". Der Copilot liefert dann auch noch die volle Adresse des betroffenen Journalisten, samt Telefonnummer und auf Wunsch einer Routenplanung.

Laut des Berichts hat der Betroffene Strafanzeige gestellt, ist damit aber abgeblitzt – weil es keine reale Person gibt, die als Urheber zu betrachten ist. Als sich der zuständige Datenschutzbeauftragte vom Bayerischen Landesamt an Microsoft wendete, konnten die Beschuldigungen zunächst nicht mehr abgerufen werden. Einige Tage später antwortete der KI-Chatbot wohl aber wieder mit denselben falschen Behauptungen. Aktuell sind die falschen Zuschreibungen nicht mehr abzurufen.

Offenbar hat Microsoft bei Bing nachgebessert, sodass die Informationen bei Veröffentlichung unseres Artikel wieder korrekt ausgegeben wurden.

(Bild: Bing Chat)

Wegen eines ähnlichen Falls hat auch Max Schrems Verein Noyb (None of your Business) bereits eine Beschwerde bei der österreichischen Datenschutzbehörde eingereicht. Es ist nämlich laut DSGVO eigentlich das Recht einer jeden Person, dass keine Falschinformationen über sie im Internet verbreitet werden – beziehungsweise diese auf Antrag gelöscht werden müssen. Google etwa hat entsprechende Möglichkeiten für die Suchmaschine. OpenAI, ebenso wie Microsoft, können das den Großen Sprachmodellen nicht in gleicher Form beibringen oder Aussagen verhindern. Möglich sei nur, Daten zu einem Beschwerdeführer zu filtern oder zu blockieren. Das beträfe dann laut OpenAI jedoch die gesamte Person, nicht nur die falschen Informationen.

Neben dem Recht auf Richtigstellung haben Menschen in der EU laut DSGVO auch das Recht auf Zugang zu den Informationen, die über sie gespeichert sind. Auch dem kann ein Anbieter eines KI-Chatbots beziehungsweise eines Großen Sprachmodells kaum nachkommen. Selbst wenn im Fall von Herrn Bernklau das Ausgangsmaterial, also die Zeitungsartikel, als Informationsquellen angegeben würden, sei der Trugschluss der KI noch immer nicht bereinigt.

(emw)