AGI: OpenAI erschwert Arbeit zur Kontrolle einer Superintelligenz

Dem Superalignment-Team von OpenAI zur Überwachung einer zukünftigen AGI wurde zunehmend die Arbeit erschwert. Die Gründe für Sutskevers und Leikes Ausscheiden.

In Pocket speichern vorlesen Druckansicht 59 Kommentare lesen

(Bild: Phonlamai Photo/Shutterstock.com)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Das Superalignment-Team von OpenAI, das für die Kontrolle und Überwachung einer zukünftigen Künstlichen Allgemeinen Intelligenz (Artifical General Intelligence – AGI) verantwortlich war, wurde aufgelöst. Die Aufgaben des Teams, die laut den zurückgetretenen leitenden Wissenschaftlern Ilya Sutskever und Jan Leike immer häufiger torpediert wurden, wird nun auf andere Abteilungen verteilt. Ein festes Team, das sich um die Sicherheit einer AGI kümmert, gibt es mehreren Berichten zufolge beim ChatGPT-Entwickler nicht länger.

Nachdem der Grund für Leikes Kündigung zunächst unklar war, erklärte er später in mehreren Tweets, dass unter anderem die für das Superalignment-Team nötige Rechenleistung von OpenAI nicht mehr für die Sicherheitsforschung zur Verfügung gestellt wurde. Leike ist demzufolge besorgt, dass OpenAI sich nicht mehr auf dem richtigen Weg befinde, um etwa die Sicherheit, den Schutz, das Vertrauen (in eine AGI) oder die Auswirkungen auf die Gesellschaft abschätzen respektive gewährleisten zu können.

"In den letzten Monaten ist mein Team gegen Wind gesegelt", schreibt Leike auf X (ehemals Twitter). Seinem Team stünden laut der Financial Times 20 Prozent der Computerressourcen verpflichtend zu, um sicherzustellen, dass sich die KI an den Interessen der Menschen orientiert, auch wenn sie exponentiell leistungsfähiger wird. Anfragen zu einem Bruchteil der zugesicherten Leistungen seien jedoch häufig abgelehnt und das Team um Sutskever und Leike an seiner Arbeit gehindert worden, berichtet TechCrunch.

Generell seien diese Probleme schwer zu lösen und Leike, ehemaliger Forscher bei Googles Deepmind, ist der Meinung, "dass der Sicherheit und den gesellschaftlichen Auswirkungen leistungsfähigerer KI-Modelle nicht genügend Aufmerksamkeit geschenkt würde". Er sei auch besorgt, dass man sich nicht auf dem richtigen Weg befinde. "Der Bau von Maschinen, die intelligenter sind als der Mensch, ist von Natur aus ein gefährliches Unterfangen." Der gleichen Meinung ist auch Elon Musk – der im Jahr 2015 OpenAI mitbegründete und später ausstieg –, der vor KI als "das größte Risiko unserer Zeit" bereits im Jahr 2017 warnte.

So schließt sich der Kreis zu den damaligen Gründen, denen zufolge Mitbegründer Ilya Sutskever für die Entlassung des CEOs Sam Altman gestimmt hat. Einen Tag später wurden im November 2023 allerdings wieder Verhandlungen aufgenommen, um Altman auf seinen alten Posten zurückzuholen. Drei Tage nach der Verhandlungsaufnahme saß Altman wieder auf seinem alten Posten.

Das nun nicht mehr existente Superalignment-Team wurde dem Bericht zufolge im Juli des vergangenen Jahres gegründet. Vor dem Ausscheiden der beiden leitenden Wissenschaftler hätten bereits mindestens sechs weitere Forscher das Team seit November vergangenen Jahres verlassen – die zuvor im Alignement-Team gearbeitet hätten, aus dem das Superalignment-Team entstanden ist, berichtet Wired.

Die Risikoforschung zu leistungsfähigeren KI-Modellen werde zukünftig von Jon Schulman geleitet, der das für die Feinabstimmung von KI-Modellen nach dem Training zuständige Team bei OpenAI leitet. Das Superalignment-Team sei Wired zufolge auch nicht das einzige Team, das sich mit KI-Kontrolle beschäftigt habe. Das nun aufgelöste Superalignment-Team – das bislang keine Lösung für die Kontrolle einer Super-KI habe – sei öffentlich als Hauptteam dargestellt worden, "das sich mit der am weitesten entfernten KI-Version" befasst und an dessen potenziellen Auswirkungen gearbeitet habe.

(bme)