"RĂĽcksichtslos": Neue Kritik am Umgang von OpenAI & Co. mit Sicherheitsbedenken

Angestellte von OpenAI verbreiten seit Wochen das Bild einer Firma, die rĂĽcksichtslos vorgeht, um die KI-Branche zu dominieren. Nun stellen sie Forderungen.

In Pocket speichern vorlesen Druckansicht 23 Kommentare lesen
Roboter mit roten Augen

(Bild: Shutterstock/Usa-Pyon)

Lesezeit: 3 Min.

Ehemalige und gegenwärtige Angestellte von OpenAI und Googles Deepmind warnen öffentlich vor den Risiken, die mit der Entwicklung von KI-Technik verbunden ist und fordern mehr Transparenz beziehungsweise Kritikfähigkeit. Das haben insgesamt 13 Personen aus der Branche in einem offenen Brief zusammengefasst, unterzeichnet haben den auch sechs anonyme Angestellte von OpenAI. Die Gruppe fordert, dass risikobezogene Bedenken ohne Furcht vor Konsequenzen und anonym geäußert werden dürfen. Außerdem sollen die Firmen eine Kultur von konstruktiver Kritik unterstützen und nicht gegen die Personen vorgehen, die sie öffentlich machen – wenn interne Versuche vorher gescheitert sind. Der Brief verfestigt das Bild einer Branche, in der Risiken viel zu stark ignoriert werden.

Die öffentliche Kritik am Umgang der KI-Branche mit Sicherheitsbedenken folgt auf regelrecht tumultartige Wochen bei OpenAI und dürfte dort nicht zur Beruhigung beitragen. Vor drei Wochen hat die Firma hinter ChatGPT das sogenannte Superalignment-Team aufgelöst, das sich eigentlich um die Kontrolle und die Überwachung einer zukünftigen Superintelligenz kümmern sollte. Damit einher gingen prominente Abgänge, es folgten weitere Rücktritte. Und auch wenn sich die Forderungen in dem offenen Brief formal an alle KI-Firmen richten, dürfte der Fokus vor allem wieder auf OpenAI liegen, unterzeichnet wurde er fast nur von ehemaligen und noch tätigen Angestellten. Bedenken, dass das Unternehmen Sicherheitsfragen ignoriert, dürften damit weiter anwachsen.

Der New York Times haben Unterzeichner des offenen Briefs erklärt, dass OpenAI ihrer Meinung nach Profite und Wachstum über alles stelle, während mit Hochdruck an einer Superintelligenz ("Artificial General Intelligence") gearbeitet werde. "OpenAI ist wirklich begeistert von der Entwicklung einer AGI und beim Versuch, im Rennen dorthin die ersten zu sein, sind sie rücksichtslos", zitiert den ehemaligen OpenAI-Forscher Daniel Kokotajlo. Die von ihm organisierte Gruppe weist darauf hin, dass es für die Branche starke finanzielle Anreize gebe, eine effektive Aufsicht zu verhindern. Informationen zu Risiken müssten nicht wirklich mit Regierungen oder der Öffentlichkeit geteilt werden. Solange das der Fall sei, sei man auf Insider angewiesen und deshalb müssten die geschützt werden.

KI-Update abonnieren

Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

In einem Statement hat OpenAI versichert, stolz auf die Bilanz bei der Bereitstellung der leistungsfähigsten und sichersten KI-Systeme zu sein. Man glaube an den wissenschaftlichen Ansatz zur Vermeidung von Risiken, unterstütze die Debatte und werde sich daran beteiligen. Google, von deren Tochter Deepmind ebenfalls zwei Angestellte den offenen Brief unterzeichnet haben, hat eine Stellungnahme verweigert, schreibt die New York Times. Anders als OpenAI stand die Firma bislang nicht im Fokus der Kritik. Und auch jetzt dürfte sich vor allem OpenAI wieder im Mittelpunkt der Aufmerksamkeit befinden. Bislang ist es dem KI-Unternehmen nicht gelungen, die Debatte zu beruhigen. Ganz im Gegenteil. Auch die Gründung eines Komitees für Schutz und Sicherheit hat die Sorgen wohl nicht zerstreut.

(mho)