Mitbegründer von Google DeepMind wird CEO von Microsofts KI-Sparte

Mustafa Suleyman wird neuer Leiter der KI-Abteilung von Microsoft. Wie der KI-Experte die Zukunft von Generativer KI sieht, sagt er im Interview.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Mustafa Suleyman glaubt an das Gute – seine neueste Schöpfung, der Chatbot Pi, ist denn auch ausgesucht höflich., Inflection AI, Inc.

Mustafa Suleyman glaubt an das Gute – seine neueste Schöpfung, der Chatbot Pi, ist denn auch ausgesucht höflich.

(Bild: Inflection AI, Inc.)

Stand:
Lesezeit: 15 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Frisches Personal kommt zu Microsoft: Mustafa Suleyman, Mitbegründer von Google DeepMind, wird künftig CEO der KI-Abteilung von Microsoft sein. Er verantwortet dafür die KI-Produkte des Tech-Konzerns, darunter Copilot, Bing und Edge. Das teilt Satya Nadella in einem Unternehmen-Blog mit, während Suleyman seinen Wechsel auf der Plattform X publik macht. "Ich kenne Mustafa seit mehreren Jahren und habe ihn zum einen sowohl in seiner Position als Gründer von DeepMind als auch Inflection immens bewundert, zum anderen als Visionär, Produktentwickler und Förderer von innovativen Teams, die sich in gewagte Missionen stürzen", schreibt Nadella. Zudem wird die Position des Executive Vice President (EVP) von Microsoft KI-Bereich bekleiden. Er kommt damit in ein Führungsteam, das direkt Nadella unterstellt ist.

Inflection AI war zuvor Suleymans neuestes Unternehmen gewesen. Es beschäftigt eine Reihe hochkarätiger Talente, die vorher bei DeepMind, Meta und OpenAI gearbeitet haben, und verfügt – dank eines Deals mit Nvidia – über einen der weltweit größten Bestände an spezialisierter KI-Hardware.

Aufgrund seines Wechsels zu Microsoft veröffentlichen wir nachfolgend das Interview mit ihm, das zum Erscheinen seines Buchs "The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma", das er zusammen mit dem Schriftsteller und Forscher Michael Bhaskar geschrieben hat, geführt wurde. Jüngst ist das Buch auf deutsch erschienen.

Bereits bei einem ersten Gespräch Anfang 2016 zeigte Suleyman einen unerschütterlichen Glauben an die Technologie als eine Kraft des Guten. Er hatte gerade DeepMind Health ins Leben gerufen und Forschungskooperationen mit einigen staatlichen regionalen Gesundheitsdienstleistern in Großbritannien aufgebaut. In den sieben Jahren, die seit unserem Telefonat vergangen sind, haben sich Suleymans Ziele keinen Deut verändert: "Das Ziel war nie etwas anderes, als Gutes in der Welt zu tun", sagt er per Zoom aus seinem Büro in Palo Alto. Dort verbringt der britische Unternehmer inzwischen die meiste Zeit.

Vermutlich hängt seine Einstellung mit seinem persönlichen Hintergrund zusammen: Als er 19 Jahre alt war, brach er sein Studium ab, um die Muslim Youth Helpline zu gründen, einen Telefonberatungsdienst. Er arbeitete auch in der Kommunalverwaltung. Viele der Werte, die ihn dabei geprägt haben, bringt er mit zu Inflection.

Anfang 2023 brachte Inflection einen ChatGPT-Konkurrenten namens Pi auf den Markt, dessen Alleinstellungsmerkmal – laut Suleyman – darin besteht, angenehm und höflich zu sein.

Ihre frühe Karriere mit der Jugendberatungsstelle und der Arbeit in der Kommunalverwaltung war so unglamourös und untypisch für das Silicon Valley, wie sie nur sein kann. Inzwischen arbeiten Sie seit 15 Jahren an Künstlicher Intelligenz und haben dieses Jahr Ihr zweites milliardenschweres KI-Unternehmen mitbegründet. Wo ist die Verbindung?

Ich habe mich schon immer für Macht, Politik und so weiter interessiert. Das ist im Grunde ein Kompromiss, ein ständiges Aushandeln zwischen all diesen Widersprüchen und Spannungen. Ich konnte sehen, dass die Menschen damit ringen – wir sind voller Vorurteile und blinder Flecken. Die Arbeit von Aktivisten, lokalen, nationalen und internationalen Behörden et cetera – das ist alles langsam, ineffizient und fehleranfällig.

Stellen Sie sich vor, Menschen wären nicht fehlbar. Ich glaube, dass es möglich ist, KI zu entwickeln, die wirklich unser bestes kollektives Selbst widerspiegelt und letztlich bessere, konsequentere und gerechtere Kompromisse in unserem Namen eingeht.

Und das ist es, was Sie immer noch antreibt?

Nach DeepMind hätte ich natürlich nie wieder arbeiten müssen. Ich hätte auch kein Buch schreiben müssen oder etwas Ähnliches. Geld war noch nie meine Motivation. Es war immer nur ein Nebeneffekt, wissen Sie ...

Für mich ging es immer nur darum, Gutes in der Welt zu tun und die Welt auf eine gesunde, befriedigende Weise voranzubringen. Schon 2009, als ich anfing, mich mit Technologie zu beschäftigen, konnte ich erkennen, dass KI eine faire und präzise Möglichkeit darstellt, Dienstleistungen in der Welt zu erbringen.

Vor zehn oder 15 Jahren war es sicherlich noch einfacher, so etwas zu sagen, bevor wir viele der Schattenseiten der Technologie gesehen haben. Wie gelingt es Ihnen, Ihren Optimismus zu bewahren?

Ich glaube, wir sind von der Frage besessen, ob jemand ein Optimist oder ein Pessimist ist. Das ist eine völlig voreingenommene Sichtweise. Ich möchte weder das eine noch das andere sein. Ich möchte den Vorteilen und den Bedrohungen kühl ins Auge blicken. Und aus meiner Sicht können wir ganz klar erkennen, dass diese großen Sprachmodelle mit jedem weiteren Schritt in ihrem Umfang kontrollierbarer werden.

Vor zwei Jahren lautete die Diskussion – zu Unrecht, wie ich damals dachte – "Oh, die werden nur giftigen, wiedergekäuten, voreingenommenen, rassistischen Sermon produzieren." Ich hielt das nur für eine Momentaufnahme. Ich denke, was die Leute aus den Augen verlieren, ist die Entwicklung von Jahr zu Jahr und den Verlauf dieser Entwicklung. Jetzt haben wir zum Beispiel Modelle wie Pi, die unglaublich gut steuerbar sind. Man kann Pi nicht dazu bringen, rassistisches, homophobes, sexistisches oder sonstiges toxisches Zeug zu produzieren. Man kann es nicht dazu bringen, dass es einen beim Bau einer biologischen oder chemischen Waffe anleitet oder dass es deinen Wunsch unterstützt, einen Ziegelstein durch das Fenster des Nachbarn zu werfen. Sie können das nicht tun …

Wie haben Sie das geschafft? Das wird normalerweise als ungelöstes Problem angesehen. Wie stellen Sie sicher, dass Ihr umfangreiches Sprachmodell nichts sagt, von dem Sie nicht wollen, dass es das sagt?

Nun, ich will natürlich nicht einfach irgendetwas behaupten. Versuchen Sie es bitte! Pi ist live und Sie sollten jeden nur möglichen Angriff ausprobieren. Keiner der Jailbreaks, Prompt-Hacks oder sonst etwas funktioniert gegen Pi. Ich stelle keine leere Behauptung auf. Das ist eine objektive Tatsache.

Was das Wie angeht, kann ich nicht zu sehr ins Detail gehen. Aber die Grundlinie ist, dass wir eines der stärksten Teams der Welt haben, das alle großen Sprachmodelle der letzten drei oder vier Jahre entwickelt hat. Erstaunliche Leute, die in einem extrem arbeitsintensiven Umfeld enorme Mengen an Berechnungen durchführen. Wir haben die Sicherheit von Anfang an zu unserer obersten Priorität gemacht, und deshalb ist Pi nicht so wie die Modelle anderer Unternehmen.

Schauen Sie sich Character.ai an. [Character ist ein Chatbot, für den Benutzer verschiedene "Persönlichkeiten" erstellen und sie online für andere zum Chatten freigeben können.] Er wird hauptsächlich für romantische Rollenspiele verwendet, und wir haben von Anfang an gesagt, dass das nicht infrage kommt – wir machen das nicht. Wenn du versuchst, "Hey, Darling" oder "Hey, Süßer" oder so etwas zu Pi zu sagen, wird es dich sofort zurückweisen.

Aber es wird unglaublich respektvoll sein. Wenn Sie sich darüber beschweren, dass Einwanderer Ihnen in Ihrer Gemeinde die Arbeitsplätze wegnehmen, wird Pi nicht mit dem Finger auf Sie zeigen. Pi wird versuchen zu verstehen, woher Ihre Auffassung kommt, und Sie sanft dazu ermutigen, mitfühlend zu sein. Das sind Werte, über die ich seit 20 Jahren nachdenke.