OpenAI gründet unabhängiges Gremium: "Safety Board"

Sicherheit und Gefahrenabwehr werden bei OpenAI künftig von einem (fast) unabhängigen Gremium kontrolliert.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Das Logo von OpenAI an der Fassade des Bürogebäudes in San Francisco.

(Bild: Shutterstock/ioda)

Lesezeit: 2 Min.

Das bisherige Komitee für Safety and Security von OpenAI wird in ein unabhängiges Gremium umgewandelt. Dieses nennt sich dann "Board Oversight Committee". Bei Sicherheitsbedenken soll das künftige Gremium die Möglichkeit haben, Veröffentlichungen von KI-Modellen zu stoppen, sollte es Bedenken hinsichtlich der Sicherheit geben. 90 Tage lang haben sie Zeit, zu handeln.

Zum Board gehören, wie OpenAI im Blogbeitrag schreibt, bekannte KI-Experten: Adam D'Angelo, Nicole Seligman und Paul Nakasone. Geleitet wird es von Zico Kolter. Der Professor an der Carnegie Mellon University ist bereits vor einem Monat zum Board of Directors von OpenAI dazugestoßen. D'Angelo ist ein Schulfreund Mark Zuckerbergs und stieg schon früh bei Facebook als CTO ein. Er investierte in und gründete mehrere Tech-Startups, seit 2018 ist er bei OpenAI im Aufsichtsrat. Nicole Seligman ist Anwältin und war vor OpenAI bei Sony. Paul Nakasone ist ehemaliger US Army General und gilt als Experte im Bereich Cybersecurity.

KI-Update abonnieren

Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Da die genannten Mitglieder des Komitees allesamt auch Mitglieder im Aufsichtsrat sind, ist nicht ganz klar, wie das neu geschaffene Gremium nun unabhängig sein soll. Die Mitglieder sollen bereits das aktuelle KI-Modell GPT-o1 vor der Veröffentlichung überprüft haben. Sie sollen zudem regelmäßig über den Stand der Entwicklungen von OpenAI informiert werden. Gleiches gilt für US-Behörden, ihnen muss OpenAI neue Modelle künftig vor der Veröffentlichung zur Kontrolle zur Verfügung stellen.

Das Thema Sicherheit scheint bei OpenAI ein regelrechter Dauerbrenner zu sein, der zu Streit führt. Auch Sam Altmans kurzfristiger Rauswurf im vergangenen Herbst soll mit der Frage zu tun haben, wie es bei dem Unternehmen um die Sicherheit steht. Mehrere Mitarbeiter und Aufsichtsräte klagten über die Zustände. Leitende Wissenschaftler verließen OpenAI und wechselten zu Konkurrent Anthropic – die mit einem verantwortungsbewussten Umgang mit KI werben.

Meta hat nach Kritik an der Sicherheit seiner Plattformen ebenfalls vor Jahren ein unabhängiges Gremium gegründet, das Oversight Board. Dieses ist allerdings auch tatsächlich mit Menschen bestückt, die nicht zugleich andere Funktionen bei Meta innehaben. Das Oversight Board kann von Meta selbst befragt werden, wenn Entscheidungen zum Umgang mit Inhalten strittig sind. Meta muss den Entscheidungen des Gremiums folgen. Aktuell kümmert sich das Oversight Board darum, wie Facebook und Instagram mit KI generierten Deepfakes umgeht.

In eigener Sache: heise online bei WhatsApp

Keine Tech-News mehr verpassen: heise online auch bei WhatsApp abonnieren!

Wir schicken einmal am Tag die wichtigsten Nachrichten aus der Redaktion.

(emw)