OpenAI: Von non-profit zum Profit-orientierten Unternehmen

Sam Altman soll Aktionären gesagt haben, OpenAI solle ein Profit-orientiertes Unternehmen werden – ohne die Kontrolle des Non-Profit Boards.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Das Logo von OpenAI an der Fassade des Bürogebäudes in San Francisco.

Das Logo von OpenAI an der Fassade des Bürogebäudes in San Francisco.

(Bild: Shutterstock/ioda)

Lesezeit: 3 Min.

Das Unternehmen OpenAI könnte demnächst neu ausgerichtet werden – auf mehr Profit und weniger Gemeinnützigkeit. Darüber sprach CEO Sam Altman mit Aktionären. Demnach könne OpenAI beispielsweise in eine "for-profit benefit corporation" umgewandelt werden. Das ist ein Profit-orientiertes Unternehmen, das aber nach wie vor zum Ziel hat, der Gesellschaft und Allgemeinheit zu dienen. Aber auch andere Modelle seien im Gespräch.

Bisher ist OpenAI aufgeteilt in OpenAI Inc. und OpenAI Nonprofit. Erstere ist eine eingetragene Limited Liability Company (LLC), in der die Forschung und Entwicklung von KI-Systemen untergebracht sind, das heißt, die eigentliche Arbeit findet unter diesem Dach statt. Dieses Kleinunternehmen, das es nach der Eintragung als LLC ist, untersteht allerdings der OpenAI Nonprofit, also der gemeinnützigen Organisation – eine Public Charity, wie es in den USA heißt. Sie kontrolliert und überwacht die Forschung und soll sicherstellen, dass OpenAI den öffentlichen Nutzen maximiert.

Bei der angedachten Umwandlung würde die non-profit Organisation also vor allem die Kontrolle über den Bereich der Forschung und Entwicklung verlieren. Auf Nachfrage von Reuters sagte ein Sprecher von OpenAI: "Wir Fokus bleibt auf der Entwicklung von KI, die jedem zugutekommt. Die Nonprofit ist Kern unserer Mission und wird weiterhin existieren." Dass die Organisation weiterhin existieren wird, bedeutet freilich nicht, dass sie dieselbe Kontrolle behält.

KI-Update abonnieren

Werktägliches Update zu den wichtigsten KI-Entwicklungen, freitags immer mit Deep Dive.​

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Bei OpenAI ist ziemlich offensichtlich schon seit Langem Streit ausgebrochen über die Ausrichtung des Unternehmens. Auch beim Rauswurf Sam Altmans im Herbst 2023 soll es um unterschiedlichen Ansichten gegangen sein. Ehemalige Mitarbeiter haben bereits öffentlich beklagt, dem Unternehmen gehe es ausschließlich um Profit, Sicherheit spiele keine Rolle bei der Entwicklung von KI-Modellen und der Arbeit an einer Artificial General Intelligence (AGI).

Tatsächlich hat OpenAI die Abteilung für Sicherheit aufgelöst, nachdem deren Leitende, das Unternehmen verlassen haben. Ilya Sutskever, einer der Mitgründer von OpenAI, und Jan Leike, Sicherheitsforscher, kündigten vor wenigen Wochen. Sam Altman hat sich dann an die Spitze eines neu eingerichteten Sicherheits-Komitees gesetzt. Sutskever und Leike äußerten sich nicht weiter zu den Gründen ihres Ausscheidens.

Anders ist es bei Helen Toner und Tasha McCauley, die beiden ehemaligen Verwaltungsrätinnen kritisieren OpenAI und Sam Altman scharf. Sie werfen vor allem Sam Altman einen schwierigen und manipulativen Führungsstil vor, Toner spricht sogar von einer "toxischen Atmosphäre". Toner verweist im Ted AI Podcast auch auf Altmans Lebenslauf, der nicht geradlinig sei und seine Führungsqualitäten widerspiegeln würde. Altman soll versucht haben, Toner aus dem Vorstand zu drängen und Lügen über sie verbreitet haben. All das sei geschehen, nachdem ihm ein Paper von ihr nicht gefallen hatte. Dass alle Mitarbeiter nach dem Rauswurf Altmans mit Kündigung drohten, erklärt sie damit, dass sie Sorge hatten, ohne Altman schwinde die Bedeutung von OpenAI. Microsoft hatte Altman sofort eine Stelle angeboten. Sie sind Großinvestor bei OpenAI, das KI-Unternehmen ist auf die Gelder angewiesen.

Toner und McCauley fordern eine staatliche Regulierung statt Selbstregulierung der KI-Unternehmen.

(emw)