Einblick in die Firmengeschichte von OpenAI

OpenAI wurde gegründet, um künstliche Intelligenz zum Nutzen der gesamten Menschheit zu erforschen. Wettbewerbsdruck hat diesen Idealismus untergraben.

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen
KI: Pfad der Tugend verlassen

Symbolträchtig: das Logo von OpenAI, eine Kreuzung aus Mandala und Rosenblüte, die unendlich in sich selbst gefaltet ist.

(Bild: Christie Hemm Klok)

Stand:
Lesezeit: 15 Min.
Von
  • Karen Hao
Inhaltsverzeichnis

Jedes Jahr stimmen die Mitarbeiter von OpenAI darüber ab, wann intelligente Maschinen ihrer Meinung nach wirklich intelligent werden – also nicht wie bisher Fachidioten mit Inselbegabung bleiben, sondern eine Intelligenz zeigen, die mit der menschlichen vergleichbar ist. Im Englischen hat sich dafür die Abkürzung AGI eingebürgert, Artificial General Intelligence. Die meisten sehen in der Umfrage eine Art Spiel, und die Einschätzungen gehen weit auseinander. Doch obwohl in der Wissenschaft immer noch diskutiert wird, ob menschenähnliche autonome Systeme überhaupt möglich sind, wettet die Hälfte der Labors, dass es wahrscheinlich innerhalb von 15 Jahren geschehen wird.

Wiederveröffentlichung

Anlässlich der Spekulationen um OpenAIs möglichen Durchbruch auf dem Gebiet der künstlichen, allgemeinen Intelligenz veröffentlichen wir diesen Artikel frei zugänglich. Der Text erschien ursprünglich in Ausgabe 4/2020 von MIT Technology Review.

Kein Wunder, denn in den sieben Jahren seit seiner Gründung hat sich OpenAI zu einem der weltweit führenden Forschungslabore für Künstliche Intelligenz entwickelt, das neben Schwergewichten wie Alphabets DeepMind immer wieder für Schlagzeilen sorgt.

Aber das Ziel von OpenAI ist nicht nur, die erste AGI zu schaffen. Das Labor will zudem sicherstellen, dass die Vorteile der Technologie der gesamten Menschheit zugute kommen. Denn anders als die schwerreichen Unternehmen der Hightech-Branche ist OpenAI als gemeinnützige Organisation organisiert. Die Charta mit den Zielen des Unternehmens erklärt, dass OpenAI „die primäre treuhänderische Pflicht gegenüber der Menschheit“ hat. Es sei so wichtig, AGI sicher zu entwickeln, dass OpenAI, sollte eine andere Organisation kurz vor diesem Durchbruch stehen, nicht mehr mit ihr konkurrieren, sondern zusammenarbeiten würde.

Aber drei Tage im Jahr 2020 im Büro von OpenAI und fast drei Dutzend Interviews mit ehemaligen und aktuellen Mitarbeitern, Freunden und Experten lassen ein anderes Bild erkennen. Es besteht eine Diskrepanz zwischen dem, was das Unternehmen öffentlich verkündet, und der Art und Weise, wie es hinter verschlossenen Türen arbeitet. Ein harter Konkurrenzkampf und ein wachsender Druck auf der Suche nach immer mehr Finanzmitteln haben die Gründungsideale von Transparenz, Offenheit und Zusammenarbeit untergraben.

OpenAI war nicht das erste Unternehmen, das erklärte, eine AGI entwickeln zu wollen. DeepMind hatte dies fünf Jahre zuvor getan. Aber OpenAI war etwas anderes: Das Unternehmen begann zum einen mit einer Milliarde Dollar Startkapital von namhaften privaten Investoren, darunter Elon Musk, Sam Altman, Gründer der Start-up-Schmiede Y Combinator, sowie PayPal-Mitbegründer Peter Thiel.

Vor allem aber begann es mit einer klaren Botschaft: „Es wird wichtig sein, eine führende Forschungseinrichtung zu haben, die ein gutes Ergebnis für alle über ihre eigenen Interessen stellen kann“, hieß es in der Ankündigung. „Unsere Forscher werden nachdrücklich ermutigt, ihre Arbeit zu veröffentlichen, sei es als Aufsätze in Fachzeitschriften, Blog-Posts oder Code, und unsere Patente (falls es welche gibt) werden mit der ganzen Welt geteilt.“ Obwohl das explizit nie so geäußert wurde, war klar, dass damit eine implizite Kritik an anderen verbunden ist: Labore wie DeepMind könnten der Menschheit nicht dienen, weil sie durch kommerzielle Interessen eingeschränkt wären.

Mit seiner grau-blauen Vertäfelung, den getönten Fenstern und dem roten Schriftzug „Pioneer Building“ – die Überreste seines früheren Besitzers, der Pioneer Truck Factory – erinnert der Firmensitz von OpenAI in San Francisco an ein altmodisches Bürogebäude. Im Inneren ist das Gebäude jedoch hell und luftig. Im ersten Stock gibt es einige Gemeinschaftsräume und zwei Konferenzräume. Ihre Namen zeugen von Nerd-Humor: Der eine heißt „A Space Odyssey“; der andere, nur unwesentlich größer als eine Telefonzelle, heißt „Infinite Jest“. Dies ist der Raum, auf den ich während meines Besuchs beschränkt bin. Es ist mir verboten, den zweiten und dritten Stock zu besuchen, in denen alle Schreibtische, mehrere Roboter und so ziemlich alles Interessante untergebracht ist. Wenn es Zeit für ihre Interviews ist, kommen die Leute zu mir herunter. Ein Angestellter hat zwischen den Treffen ein wachsames Auge auf mich.

Am Stammsitz von OpenAI in San Francisco residierte früher ein Lastwagen-hersteller.

(Bild: Christie Hemm Klok)

Trotz dieser Einschränkungen ist Cheftechnologe Greg Brockman nervös und zurückhaltend. „Wir haben noch nie jemandem so viel Zugang gewährt“, sagt er mit einem zaghaften Lächeln. Er trägt legere Kleidung und, wie viele bei OpenAI, einen unförmigen Haarschnitt, der eine effiziente, schnörkellose Mentalität zu reflektieren scheint.

Brockman nimmt mich zum Mittagessen mit. Im Café auf der anderen Straßenseite spricht er intensiv, aufrichtig und staunend über OpenAI und zieht dabei oft Parallelen zwischen seiner Mission und den großen Errungenschaften der Wissenschaftsgeschichte. Sein Lieblingsthema ist das Rennen zum Mond. Die Botschaft ist klar: Die Leute können so skeptisch sein, wie sie wollen. Das ist der Preis, den man für großen Wagemut zahlen muss.

Während des gesamten Mittagessens rezitiert Brockman auch immer wieder die OpenAI-Charta, eine Erklärung für jeden Aspekt der Existenz des Unternehmens. Im März 2017, 15 Monate nach der Gründung, diskutierte Brockman mit einigen Kollegen den Entwurf eines internen Dokuments, das den Weg zu AGI aufzeigen sollte. Als das Team die Trends in diesem Bereich untersuchte, erkannte es, dass es finanziell unhaltbar sein würde, eine gemeinnützige Organisation zu bleiben. Die rechnerischen Ressourcen, die andere im Feld verwendeten, verdoppelten sich alle drei bis vier Monate. Es wurde klar, dass sie, „um relevant zu bleiben“, so Brockman, „genug Kapital benötigen würden, um diesen exponentiellen Anstieg zu erreichen oder zu übertreffen“. Das erforderte ein neues Organisationsmodell, das schnell Geld anhäufen konnte – und gleichzeitig irgendwie auch der Mission treu blieb.

Ohne dass die Öffentlichkeit – und die meisten Mitarbeiter – davon wusste, veröffentlichte OpenAI im April 2018 daher seine Charta. In dem Dokument wurden die Kernwerte des Labors neu formuliert, aber die Sprache wurde subtil geändert, um die neue Realität widerzuspiegeln. So steht die Verpflichtung „zu vermeiden, dass eine Nutzung von KI oder AGI ermöglicht wird, die der Menschheit schadet oder die Macht unangemessen konzentriert“, neben der Erkenntnis, „dass wir erhebliche Ressourcen bereitstellen müssen, um unsere Mission zu erfüllen“. Gleichzeitig versichert OpenAI: „Wir werden immer sorgfältig handeln, um Interessenkonflikte unter unseren Mitarbeitern und Interessengruppen zu minimieren, die den allgemeinen Nutzen gefährden könnten.“

Zu einer Art Testlauf für diese Versicherung sollte der 14. Februar 2019 werden. An diesem Tag kündigte das Labor beeindruckende neue Forschungsergebnisse an: Ein tiefes neuronales Netz konnte auf Knopfdruck überzeugende Essays und Artikel generieren. Füttere man es mit einem Satz aus „Der Herr der Ringe“ oder dem Beginn einer fiktiven Nachricht über Miley Cyrus’ Ladendiebstahl, vervollständigte die Software den Text in der gleichen Art und Weise.