OpenAI: Nächstes großes KI-Modell wird trainiert, neues Komitee prüft Sicherheit

Mehrere Personen aus der obersten Führungsriege von OpenAI sollen im Rahmen eines neuen Komitees prüfen, ob das Unternehmen genug für die Sicherheit tut.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
ChatGPT-App auf einem Smartphone

(Bild: Tada Images/Shutterstock.com)

Lesezeit: 3 Min.

OpenAI hat kurz nach der Auflösung des Superalignment-Teams ein neues Komitee für Schutz und Sicherheit eingerichtet. Das teilte das US-Unternehmen jetzt in einem Blogeintrag an. Die Gruppe um den Vorsitzenden Bret Taylor, Adam D’Angelo, Nicole Seligman und den CEO Sam Altman – also allesamt aus der Führungsriege – soll in dessen Rahmen Vorschläge zu kritischen Entscheidungen mit Bezug zu den beiden Themenfeldern erarbeiten. Damit sollen Risiken minimiert werden, die mit der weiteren Entwicklung von KI-Technik verbunden sind. OpenAI wünscht sich demnach darüber eine "robuste Debatte zu diesem wichtigen Zeitpunkt". In dem Beitrag erklärte OpenAI außerdem, dass man "vor kurzem" mit dem Training des nächsten großen KI-Modells begonnen habe. Das dürfte einmal GPT-4 ablösen und werde die Technik einen weiteren Schritt in Richtung der sogenannten Künstlichen Allgemeinen Intelligenz (Artifical General Intelligence – AGI) bringen, verspricht OpenAI.

Das Superalignment-Team von OpenAI sollte sich eigentlich um die Kontrolle und die Überwachung einer zukünftigen Superintelligenz kümmern, wurde dann aber vor etwa zwei Wochen aufgelöst. Die dafür verantwortlichen Forscher waren von ihren Posten zurückgetreten, die damit betrauten Angestellten auf andere Teams aufgeteilt worden. Damit gab es bei OpenAI kein festes Team mehr, das mit der Sicherheit angesichts der immer besser werdenden KI-Technik betraut ist. Die Verantwortlichen hatten kritisiert, dass ihnen Steine in den Weg gelegt worden seien und ihnen beispielsweise die nötige Rechenleistung für ihre Arbeit verwehrt wurde. OpenAI hatte erklärt, dass mit dem Team lediglich jene Instanz aufgelöst worden sei, die "sich mit der am weitesten entfernten KI-Version" befasst habe. Für konkretere Gefahren seien andere Teams zuständig. Trotzdem ist man jetzt tätig geworden und hat das neue Komitee eingerichtet.

Dem neuen Komitee wurde nach der Einrichtung eine Frist von 90 Tagen gesetzt, um die Prozesse und Schutzmaßnahmen zu überprüfen und weiterzuentwickeln. Einzelheiten dazu hat das Unternehmen erst vor wenigen Tagen publik gemacht. Sobald diese Arbeit abgeschlossen ist, sollen die Ergebnisse dem ganzen Vorstand vorgestellt werden. Sobald der sich damit befasst hat, sollen Ergebnisse auch öffentlich gemacht werden. Mehr Details dazu und zu dem derzeit laufenden Training von GPT-5 gibt es nicht. Neuigkeiten dazu waren schon auf der jüngsten Produktpräsentation erwartet worden, OpenAI hat aber vorab klargestellt, dass es dazu derzeit nicht mehr mitzuteilen gibt. Danach war das Unternehmen wegen der Vorwürfe der US-Schauspielerin Scarlett Johansson in den Schlagzeilen und sah sich gezwungen, mit internen Dokumenten nachzuweisen, dass an denen nichts dran ist.

(mho)