Zu gefährlich – OpenAI soll GPT-4 Bilder-Funktionen zurückhalten

GPT-4 kann Bilder verarbeiten und Gesichter erkennen. Doch OpenAI hält die Funktionen zurück – aus Sorgen um die Privatsphäre der Menschen.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Gpt4,Improved,Chatbot,Illustrations.,Artificial,Intelligence,Chatbot.chat,Gpt,4,Illustration

(Bild: Ebru-Omer/Shutterstock.com)

Lesezeit: 2 Min.

Es gibt eine multimodale Version von GPT-4. Das heißt, das Sprachmodell kann eigentlich auch Bilder verarbeiten. OpenAI habe diese Funktionen aus Sorge um die Privatsphäre von Menschen bisher nicht veröffentlicht, berichtet "New York Times". Demnach befürchtet OpenAI wohl, GPT-4 könne einzelne Personen erkennen und dann auch wiederfinden.

Bereits bei der Ankündigung von GPT-4 hatte OpenAI gesagt, dass das Modell multimodal sei – also auch Bilder analysieren, interpretieren und verstehen kann. Eine sehr hilfreiche Erweiterung, die beispielsweise Bildunterschriften verfassen und Bilder zuordnen kann. Ersteres soll denn auch in einer Kooperation mit einem Start-up namens "Be my Eyes" ausgebaut worden sein, die daran arbeiten, Bilder mittels KI für Menschen mit Sehbehinderungen zu beschreiben, wobei Bilder in der App aktuell aufgenommen werden.

Ein Tester aus Neuseeland hat der New York Times gesagt, dass Aufnahmen von Gesichtern zu einem Hinweis führen, dass diese aus Gründen des Privatsphäreschutzes nicht dargestellt würden. Daraufhin hat die NYT bei OpenAI nachgefragt und bekam die Bestätigung, dass GPT-4 Gesichter erkennen kann, zumindest von bekannten Persönlichkeiten, man aber besorgt sei, die Funktion könne missbraucht werden. Im Speziellen habe man Sorge, dass man damit gegen die Datenschutzgesetze in Illinois und in Europa verstoßen könnte. Dort bedarf es besonderer Erlaubnis für die Nutzung von biometrischen Informationen.

"Wir wünschen uns einen Austausch mit der Öffentlichkeit. Wenn wir hören, dass ein solches Tool gar nicht erwünscht sei, sind wir da auch an Bord", sagte der OpenAI-Verantwortliche Sandhini Agarwal der NYT. Zu bedenken ist auch, dass zumindest die Text-KI halluziniert – und das kann auch bei Bildern passieren. Nicht nur sehbehinderte Menschen hätten ein Problem, wenn ihnen fälschlicherweise eine Stufe in einen Raum gedacht wird – oder andersrum. Ein möglicher Bias wirkt sich auf Bilder wie auch auf Text aus.

Bing, Microsofts Suche, die auf GPT-4 basiert, kann bereits Bilder generieren und verarbeiten. Auch Googles Bard ist multimodal und kann entsprechend mit Bildern umgehen. Bisher gibt es keine speziellen rechtlichen Vorwürfe, diese Funktionen betreffend. Anders als urheberrechtliche Sorgen von Künstlern aller Art und Klagen. OpenAI dürfte sich mit der Selbsteinschätzung, eine zu gefährliche Funktion zurückzuhalten, auch interessant machen. Vor den eigenen Diensten zu warnen, scheint ein Trend zu sein.

(emw)