Gründe für Altmans Entlassung: Angeblich Durchbruch bei AGI

OpenAI soll einen Durchbruch bei der Entwicklung einer Superintelligenz erreicht haben. Damit soll die Entlassung Sam Altmans zusammenhängen.

In Pocket speichern vorlesen Druckansicht 497 Kommentare lesen
Openai,Ceo,Sam,Altman,Attends,The,Artificial,Intelligence(ai),Revolution,Forum, SamAltman

(Bild: jamesonwu1972/Shutterstock.com)

Lesezeit: 3 Min.

Das Aufsichtsratsgremium von OpenAI soll einen Brief von Mitarbeitern bekommen haben, in dem diese vor den neuesten Entwicklungen im Bereich Künstlicher Intelligenz warnen. Konkret soll OpenAI einen Durchbruch in der Entwicklung einer AGI erreicht haben, also einer Artificial General Intelligence, die intelligenter sein soll als der Mensch. In dem Brief stand laut Reuters, dass es sich bei den Entwicklungen um eine "Bedrohung für die Menschheit" handeln könnte. Die zunächst auf den vergangene Woche gefeuerten Sam Altman gefolgte Interimschefin Mira Murati soll vor den Mitarbeitern über das sogenannte "Project Q*" gesprochen und den Brief erwähnt haben.

Wie aber konkret diese Entwicklung zur Entlassung Altmans geführt haben soll, ist allerdings unklar. The Verge schreibt, von einem Informanten erfahren zu haben, dass es einen solchen Brief sogar gar nicht gab. Dabei heißt es von anderen Quellen, dass der Brief nur ein letzter Grund gewesen sei, Altman soll sich zuvor bereits mehrfach Verfehlungen geleistet haben, berichtet Reuters. Über diese ist wenig bekannt, es soll unter anderem um die Vermarktung von Entwicklungen gehen, ohne die Konsequenzen abschätzen zu können. Klar ist auch, dass das Aufsichtsratsgremium Altman vorgeworfen hat, nicht ausreichend kommuniziert zu haben, was das Board an der Erfüllung seiner Aufgaben gehindert haben soll. Dennoch ist Altman nach einigem Gerangel zurück als CEO.

Am Tag vor der Entlassung soll Sam Altman auf dem Asia-Pacific Economic Cooperation Summit gesagt haben: "Viermal in der Geschichte von OpenAI, zuletzt in den vergangenen Wochen, hatte ich das Privileg, dabei zu sein, wenn wir den Schleier der Unwissenheit lüften und die Grenzen der Entdeckung verschieben, und das ist die berufliche Ehre meines Lebens." Damit hatte er Gerüchte entfacht, OpenAI habe wichtige Schritte in Richtung einer AGI geschafft. OpenAI definiert eine AGI damit, dass diese dem Menschen grundsätzlich überlegen ist.

Das "Project Q*" soll ein neues KI-Model sein, das bestimmte mathematische Probleme lösen konnte, berichtet Reuters und zitiert einen anonymen Insider. Das soll Mitarbeiter in Bezug auf die Entwicklung einer AGI sehr optimistisch gestimmt haben – konkreter wurde es nicht.

Altman und OpenAI sind sehr gut darin, ihre Produkte zu bewerben – unter anderem dadurch, dass sie immer wieder vor ihnen warnen, was die eigene Bedeutung freilich erhöht. Die potenziellen Risiken von KI sind mannigfaltig. Sie reichen von Problemen, die entstehen können, wenn durch einen Bias Bewerber bei der Jobsuche ausgeschlossen werden, bis zur Auslöschung der Menschheit, weil KI meint, das trüge zum Frieden bei – oder ähnliche Dystopien. Es gibt Wissenschaftler, die KI mit Pandemien und Atomkriegen vergleichen, andere meinen, die Entwicklung einer existenziell bedrohlichen KI sei noch in weiter Ferne. KI-Pionier Geoffrey Hinton sagte erst kürzlich in seiner Warnung vor KI: "Diese Dinger sind völlig anders als wir. Manchmal denke ich, es ist, als wären Außerirdische gelandet und die Menschen hätten es nicht bemerkt, weil sie sehr gut Englisch sprechen."

Update

Wir haben ergänzt, dass The Verge schreibt, es gäbe keinen solchen Brief.

(emw)