ChatGPT: Altman über Gefahren, Chancen und Akzeptanz von Künstlicher Intelligenz

Der OpenAI-Chef warnt im "Zeit"-Interview vor Gefahren und spricht über Chancen. Europa liebt er und ein Rückzug sei nicht geplant.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen
Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting

(Bild: CHUAN CHUAN/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

ChatGPT von OpenAI hat die IT-Welt auf ein neues Level gehoben, das streng reguliert werden muss, meinen die Einen. Andere stufen künstlichen Intelligenz und das Sprachmodell weniger kritisch und lebensverändernd ein. In einem Interview mit der "Zeit" spricht der CEO Sam Altman über Datenschutz, den AI Act, die Gefahren einer Überregulierung und den Verbleib in Europa.

Sam Altman bezeichnet seine "Unterhaltungen" mit ChatGPT als "sehr persönlich". Normale Daten, die den Datenschutzbestimmungen unterliegen, oder besonders schützenswerte Informationen, die etwa mit dem Anwaltsgeheimnis vergleichbar wären, seien es aber auch nicht. Altman würde seine Chatverläufe mit der KI jedenfalls nicht mit anderen teilen. Es bedürfe einer neuen Kategorie von Datenschutz, die auch Ausnahmen regelt – etwa bei Eingaben zu einem Suizid.

Die Menschen würden Zeit benötigen, um sich an die Technik zu gewöhnen – sie müssten verstehen, was da auf sie zukomme. Das Gleiche gelte für Politiker und die Wirtschaft. Deshalb sei es hilfreich gewesen, ChatGPT nicht länger unter Verschluss zu halten und eine "nicht perfekte" Version 3.5 freizugeben, als direkt GPT-4 auszurollen: "Das wäre ein Erdbeben gewesen".

Unlängst hatte der OpenAI-Chef bei einer US-Senatsanhörung Risiken im Zusammenhang mit der Entwicklung Künstlicher Intelligenz eingestanden. Man habe viele Jahre benötigt, um zu verstehen, wie man die technische Entwicklung und deren mögliche Auswirkung auf die Zukunft der Gesellschaft absichern kann. Eilig hatte OpenAI es mit der Veröffentlichung nicht, erklärt Altman, allerdings glaube er, dass andere es eilig hätten, sein Sprachmodell nachzubauen. Nach der Fertigstellung hätten er und sein Team weitere acht Monate an der Sicherheit vor möglichen Gefahren von ChatGPT vor der Veröffentlichung gearbeitet.

Positiv sehe er die bisher geführten Gespräche mit europäischen Regierungschefs, darunter auch der Bundeskanzler Olaf Scholz. Jeder von ihnen hätte sich "schon so viele Gedanken gemacht" und einen Fokus auf allgemeine Künstliche Intelligenz, so dass eine kurz- wie auch langfristige Regulierung durchaus abzusehen sei. Wichtig sei Altman, dass eine Überregulierung nicht die Vorteile zerstöre.

Zurückziehen aus der EU, wie zuvor angedroht, wolle sich OpenAI nicht, "wir lieben Europa". Altman stellte klar: Man werde versuchen, sich an die Vorgaben zu halten. Sollte das nicht möglich sein, werde man keine Gesetze brechen. Die Systeme müssten allerdings technisch überhaupt in der Lage sein, die Vorgaben des AI Acts einzuhalten. Ein Streitpunkt des geplanten europäischen Gesetzes sei die Frage der Verantwortlichkeit. Altman nannte eine mögliche Diskriminierung von Menschen, die entstehen könne, wenn ein Unternehmen eine Anwendung auf GPT-Basis entwickle. Die Verantwortung liege in so einem Fall bei dem Unternehmen, nicht bei dem Werkzeug.

Irgendwann werde OpenAI ein Modell veröffentlichen, das gefährlich sei, und das würde man erst im Nachhinein feststellen. Die Zukunft würde allerdings noch spannend werden, auch weil das Unternehmen immer mehr Daten zu Trainingszwecken verwende. Diese stammen etwa aus gekauften Büchern und Bildmaterial. Anschließend, so Altman, werde eine Kombination eines autodidaktischen Systems wie AlphaGo-Zero und GPT, das aus Daten lernt, der nächste große Schritt in der KI-Entwicklung. Entgegen der Meinung einiger Wissenschaftler sei die Entwicklung von GPT noch lange nicht abgeschlossen.

Eine weitere Gefahr entstehe durch die Verbreitung von Desinformationen. Heute werden die sozialen Medien schon dazu verwendet und zukünftig, wenn Menschen noch leistungsfähigere Sprachmodelle daran anschließen würden, könnte die Verbreitung von Falschinformationen und Hassnachrichten weiter zunehmen. Sein Gegenüber als Mensch oder Algorithmus auszumachen, sei irgendwann extrem schwierig oder gar nicht mehr möglich. Sorgen bereiten Altman auch Cyberangriffe und biologische Waffen, die mithilfe von KI einfach durchgeführt oder hergestellt werden könnten.

Auf die Anregung der "Zeit", einen "Sam-Altman-Test zu entwickeln, der in Zukunft zwischen Mensch und Maschine unterscheiden kann, und welche Fragen dies deutlich machen würden, hatte Altman keine Antwort. Er benötige sehr viel Zeit, um das herauszufinden. "Noch interessanter wird übrigens ein anderer Test: Wie erkennen wir es, wenn ein System wie GPT wirklich die Welt versteht?"

(bme)