"Wie Photoshop auf Steroiden": OpenAI-Chef gesteht Risiken von KI-Revolution ein

Bei einer Anhörung im US-Senat hat OpenAI-Chef eingestanden, dass die KI-Entwicklung Risiken mit sich bringe. Sam Altman plädierte deshalb für mehr Aufsicht.

In Pocket speichern vorlesen Druckansicht 82 Kommentare lesen
Sam Altman

Sam Altman im US-Senat

Lesezeit: 3 Min.

Samuel Altman, der Chef der ChatGPT-Firma OpenAI, hat eingestanden, dass KI-Generatoren große Risiken mit sich bringen und sich für eine strikte Regulierung ausgesprochen. Bei einer Anhörung im US-Senat stimmte er mit anderen Befragten überein, dass Sprachmodelle wie das hauseigene GPT4 und darauf basierende Werkzeuge für noch mehr Desinformationen sorgen, Cyberkriminellen Vorschub leisten und gar das Vertrauen in demokratische Wahlen gefährden werden. Gleichzeitig gab er sich aber überzeugt, dass die Möglichkeiten der neuen Technik die Risiken weit übersteigen. Sprachmodelle wie GPT4 würden zwar einige Berufe "wegautomatisieren", aber gleichzeitig viele neue schaffen.

Ausgesagt hat Altman am Dienstag vor dem Senatsausschuss für Justiz und sich dabei schon in seinem einführenden Statement für eine Regulierung der neuen Technik ausgesprochen. Gesetzliche Vorgaben seien eine grundlegende Voraussetzung dafür, dass die Sicherheit gewährleistet sei, während Menschen von den vielen Vorteilen von KI-Technik profitieren. Bei OpenAI sei man bestrebt, der Politik dabei zu helfen. Man fühle sich verpflichtet, mit dem US-Gesetzgeber zu kooperieren, um die Führungsrolle der Vereinigten Staaten in Schlüsselbereichen der KI-Entwicklung beibehalten zu können. Außerdem wolle man sicherstellen, dass so viele Amerikaner wie möglich von Künstlicher Intelligenz profitieren.

Angesichts mehrfach von den Senatoren geäußerter Befürchtungen vor möglicher Gefahren durch KI wollte Altman zumindest die düstersten Szenarien nicht stehen lassen. So wurde mehrfach nahegelegt, dass die aktuelle KI-Revolution mit der Entwicklung von Atomwaffen vergleichbar sein könnte. Das ging Altman zu weit, er zog lieber Parallelen zu Photoshop. Mit dem Aufkommen des mächtigen Bildbearbeitungsprogramms habe es auch Sorgen gegeben, dass Menschen reihenweise auf manipulierte Bilder hereinfallen würden. Die meisten hätten sich aber rasch daran gewöhnt, Bilder prinzipiell in Zweifel zu ziehen und Manipulationen für möglich zu halten. Die aktuelle Entwicklung sei ähnlich, nur "wie auf Steroiden".

Zur Kontrolle der technischen Entwicklung hat Altman die Gründung einer US-Regierungsbehörde vorgeschlagen, die KI-Modelle wie GPT4 prüfen soll. Für die Technik sollte es eine Reihe von Sicherheitstests geben – etwa dazu, ob sie sich selbstständig weiterverbreiten können. Außerdem sollten die Verantwortlichen in der US-Politik prüfen, ob Anbieter von KI-Technik lizenziert werden, sodass die Politik kontrollieren kann, wer die Technik überhaupt entwickeln und verbreiten kann. In der Anhörung wurde sichtbar, dass es für die Einrichtung einer derartigen Behörde Unterstützung in beiden zerstrittenen Parteien gibt. Mahnend erinnert wurde mehrfach an die Versäumnisse bei der Regulierung von sozialen Netzwerken.

Altman ist Mitgründer und Geschäftsführer von Open AI, dem Unternehmen hinter dem KI-Textgenerator ChatGPT und den Bildgeneratoren Dall-E. Vor allem ChatGPT und das zugrunde liegende Sprachmodell GPT4 sorgt seit Wochen für Aufregung weit über die Technikbranche hinaus. Die Technik generiert auf Aufforderung hin Texte, die so kohärent klingen, dass sie den Anschein erwecken, von Menschen zu stammen. Gleichzeitig kann die Technik aber nicht zwischen Wahrheit und Unwahrheit unterscheiden, weswegen es in den Antworten schon einmal komplett erfundene Quellenangaben gibt. Weil die Unterschiede nicht zu erkennen sind, gibt es immer mehr Befürchtungen, dass mit der Technik unabsichtlich – aber auch absichtlich – Desinformation verbreitet werden kann.

(mho)