Mitbegründer von Google DeepMind wird CEO von Microsofts KI-Sparte

Mustafa Suleyman wird neuer Leiter der KI-Abteilung von Microsoft. Wie der KI-Experte die Zukunft von Generativer KI sieht, sagt er im Interview.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
Mustafa Suleyman glaubt an das Gute – seine neueste Schöpfung, der Chatbot Pi, ist denn auch ausgesucht höflich., Inflection AI, Inc.

Mustafa Suleyman glaubt an das Gute – seine neueste Schöpfung, der Chatbot Pi, ist denn auch ausgesucht höflich.

(Bild: Inflection AI, Inc.)

Stand:
Lesezeit: 15 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Frisches Personal kommt zu Microsoft: Mustafa Suleyman, Mitbegründer von Google DeepMind, wird künftig CEO der KI-Abteilung von Microsoft sein. Er verantwortet dafür die KI-Produkte des Tech-Konzerns, darunter Copilot, Bing und Edge. Das teilt Satya Nadella in einem Unternehmen-Blog mit, während Suleyman seinen Wechsel auf der Plattform X publik macht. "Ich kenne Mustafa seit mehreren Jahren und habe ihn zum einen sowohl in seiner Position als Gründer von DeepMind als auch Inflection immens bewundert, zum anderen als Visionär, Produktentwickler und Förderer von innovativen Teams, die sich in gewagte Missionen stürzen", schreibt Nadella. Zudem wird die Position des Executive Vice President (EVP) von Microsoft KI-Bereich bekleiden. Er kommt damit in ein Führungsteam, das direkt Nadella unterstellt ist.

Inflection AI war zuvor Suleymans neuestes Unternehmen gewesen. Es beschäftigt eine Reihe hochkarätiger Talente, die vorher bei DeepMind, Meta und OpenAI gearbeitet haben, und verfügt – dank eines Deals mit Nvidia – über einen der weltweit größten Bestände an spezialisierter KI-Hardware.

Aufgrund seines Wechsels zu Microsoft veröffentlichen wir nachfolgend das Interview mit ihm, das zum Erscheinen seines Buchs "The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma", das er zusammen mit dem Schriftsteller und Forscher Michael Bhaskar geschrieben hat, geführt wurde. Jüngst ist das Buch auf deutsch erschienen.

Bereits bei einem ersten Gespräch Anfang 2016 zeigte Suleyman einen unerschütterlichen Glauben an die Technologie als eine Kraft des Guten. Er hatte gerade DeepMind Health ins Leben gerufen und Forschungskooperationen mit einigen staatlichen regionalen Gesundheitsdienstleistern in Großbritannien aufgebaut. In den sieben Jahren, die seit unserem Telefonat vergangen sind, haben sich Suleymans Ziele keinen Deut verändert: "Das Ziel war nie etwas anderes, als Gutes in der Welt zu tun", sagt er per Zoom aus seinem Büro in Palo Alto. Dort verbringt der britische Unternehmer inzwischen die meiste Zeit.

Vermutlich hängt seine Einstellung mit seinem persönlichen Hintergrund zusammen: Als er 19 Jahre alt war, brach er sein Studium ab, um die Muslim Youth Helpline zu gründen, einen Telefonberatungsdienst. Er arbeitete auch in der Kommunalverwaltung. Viele der Werte, die ihn dabei geprägt haben, bringt er mit zu Inflection.

Anfang 2023 brachte Inflection einen ChatGPT-Konkurrenten namens Pi auf den Markt, dessen Alleinstellungsmerkmal – laut Suleyman – darin besteht, angenehm und höflich zu sein.

Ihre frühe Karriere mit der Jugendberatungsstelle und der Arbeit in der Kommunalverwaltung war so unglamourös und untypisch für das Silicon Valley, wie sie nur sein kann. Inzwischen arbeiten Sie seit 15 Jahren an Künstlicher Intelligenz und haben dieses Jahr Ihr zweites milliardenschweres KI-Unternehmen mitbegründet. Wo ist die Verbindung?

Ich habe mich schon immer für Macht, Politik und so weiter interessiert. Das ist im Grunde ein Kompromiss, ein ständiges Aushandeln zwischen all diesen Widersprüchen und Spannungen. Ich konnte sehen, dass die Menschen damit ringen – wir sind voller Vorurteile und blinder Flecken. Die Arbeit von Aktivisten, lokalen, nationalen und internationalen Behörden et cetera – das ist alles langsam, ineffizient und fehleranfällig.

Stellen Sie sich vor, Menschen wären nicht fehlbar. Ich glaube, dass es möglich ist, KI zu entwickeln, die wirklich unser bestes kollektives Selbst widerspiegelt und letztlich bessere, konsequentere und gerechtere Kompromisse in unserem Namen eingeht.

Und das ist es, was Sie immer noch antreibt?

Nach DeepMind hätte ich natürlich nie wieder arbeiten müssen. Ich hätte auch kein Buch schreiben müssen oder etwas Ähnliches. Geld war noch nie meine Motivation. Es war immer nur ein Nebeneffekt, wissen Sie ...

Für mich ging es immer nur darum, Gutes in der Welt zu tun und die Welt auf eine gesunde, befriedigende Weise voranzubringen. Schon 2009, als ich anfing, mich mit Technologie zu beschäftigen, konnte ich erkennen, dass KI eine faire und präzise Möglichkeit darstellt, Dienstleistungen in der Welt zu erbringen.

Vor zehn oder 15 Jahren war es sicherlich noch einfacher, so etwas zu sagen, bevor wir viele der Schattenseiten der Technologie gesehen haben. Wie gelingt es Ihnen, Ihren Optimismus zu bewahren?

Ich glaube, wir sind von der Frage besessen, ob jemand ein Optimist oder ein Pessimist ist. Das ist eine völlig voreingenommene Sichtweise. Ich möchte weder das eine noch das andere sein. Ich möchte den Vorteilen und den Bedrohungen kühl ins Auge blicken. Und aus meiner Sicht können wir ganz klar erkennen, dass diese großen Sprachmodelle mit jedem weiteren Schritt in ihrem Umfang kontrollierbarer werden.

Vor zwei Jahren lautete die Diskussion – zu Unrecht, wie ich damals dachte – "Oh, die werden nur giftigen, wiedergekäuten, voreingenommenen, rassistischen Sermon produzieren." Ich hielt das nur für eine Momentaufnahme. Ich denke, was die Leute aus den Augen verlieren, ist die Entwicklung von Jahr zu Jahr und den Verlauf dieser Entwicklung. Jetzt haben wir zum Beispiel Modelle wie Pi, die unglaublich gut steuerbar sind. Man kann Pi nicht dazu bringen, rassistisches, homophobes, sexistisches oder sonstiges toxisches Zeug zu produzieren. Man kann es nicht dazu bringen, dass es einen beim Bau einer biologischen oder chemischen Waffe anleitet oder dass es deinen Wunsch unterstützt, einen Ziegelstein durch das Fenster des Nachbarn zu werfen. Sie können das nicht tun …

Wie haben Sie das geschafft? Das wird normalerweise als ungelöstes Problem angesehen. Wie stellen Sie sicher, dass Ihr umfangreiches Sprachmodell nichts sagt, von dem Sie nicht wollen, dass es das sagt?

Nun, ich will natürlich nicht einfach irgendetwas behaupten. Versuchen Sie es bitte! Pi ist live und Sie sollten jeden nur möglichen Angriff ausprobieren. Keiner der Jailbreaks, Prompt-Hacks oder sonst etwas funktioniert gegen Pi. Ich stelle keine leere Behauptung auf. Das ist eine objektive Tatsache.

Was das Wie angeht, kann ich nicht zu sehr ins Detail gehen. Aber die Grundlinie ist, dass wir eines der stärksten Teams der Welt haben, das alle großen Sprachmodelle der letzten drei oder vier Jahre entwickelt hat. Erstaunliche Leute, die in einem extrem arbeitsintensiven Umfeld enorme Mengen an Berechnungen durchführen. Wir haben die Sicherheit von Anfang an zu unserer obersten Priorität gemacht, und deshalb ist Pi nicht so wie die Modelle anderer Unternehmen.

Schauen Sie sich Character.ai an. [Character ist ein Chatbot, für den Benutzer verschiedene "Persönlichkeiten" erstellen und sie online für andere zum Chatten freigeben können.] Er wird hauptsächlich für romantische Rollenspiele verwendet, und wir haben von Anfang an gesagt, dass das nicht infrage kommt – wir machen das nicht. Wenn du versuchst, "Hey, Darling" oder "Hey, Süßer" oder so etwas zu Pi zu sagen, wird es dich sofort zurückweisen.

Aber es wird unglaublich respektvoll sein. Wenn Sie sich darüber beschweren, dass Einwanderer Ihnen in Ihrer Gemeinde die Arbeitsplätze wegnehmen, wird Pi nicht mit dem Finger auf Sie zeigen. Pi wird versuchen zu verstehen, woher Ihre Auffassung kommt, und Sie sanft dazu ermutigen, mitfühlend zu sein. Das sind Werte, über die ich seit 20 Jahren nachdenke.

Apropos Werte und der Wunsch, die Welt zu verbessern: Warum erzählen Sie nicht, wie das gemacht wird, damit andere Leute ihre Modelle auch verbessern können?

Nun, weil ich auch ein Pragmatiker bin und versuche, Geld zu verdienen. Ich versuche, ein Unternehmen aufzubauen. Ich habe gerade 1,5 Milliarden Dollar eingeworben und muss einen Gegenwert dafür bieten. Sehen Sie, das Open-Source-Ökosystem ist in vollem Gange und leistet großartige Arbeit. Die Leute entdecken ähnliche Tricks. Ich gehe stets davon aus, dass ich ihnen immer nur sechs Monate voraus bin.

Kommen wir zurück zu dem, was Sie zu erreichen versuchen. Große Sprachmodelle sind offensichtlich die Technologie der Stunde. Aber warum setzen Sie außerdem auf sie?

Bei der ersten Welle der KI ging es um Klassifizierung. Deep Learning hat gezeigt, dass wir einen Computer darauf trainieren können, verschiedene Arten von Eingabedaten zu klassifizieren: Bilder, Video, Audio, Sprache. Jetzt befinden wir uns in der generativen Phase, in der wir aus diesen Eingabedaten neue Daten erzeugen.

Die dritte Welle wird die interaktive Phase sein. Deshalb wette ich schon seit Langem, dass Konversation die Schnittstelle der Zukunft ist. Anstatt nur auf Schaltflächen zu klicken und zu tippen, werden Sie mit Ihrer KI sprechen. Und diese KI wird in der Lage sein, Aktionen auszuführen. Man wird ihr einfach ein allgemeines, mehr oder weniger globales Ziel vorgeben, und sie wird alle ihr zur Verfügung stehenden Mittel nutzen, um daraufhin zu handeln. Sie werden mit anderen Menschen und mit anderen KIs sprechen. Das ist es, was wir mit Pi machen werden.

Das ist eine enorme Verschiebung in den Möglichkeiten der Technologie. Es ist ein sehr, sehr tiefgreifender Moment in der Geschichte der Technologie, der meiner Meinung nach von vielen Menschen unterschätzt wird. Die heutige Technologie ist statisch. Sie tut, grob gesagt, das, was man ihr aufträgt. Aber jetzt wird die Technologie lebendig. Sie wird, wenn man sie lässt, potenziell die Freiheit haben, aktiv zu werden. Es ist wirklich ein großer Schritt in der Geschichte unserer Spezies, dass wir Werkzeuge entwickeln, die diese Art von, Sie wissen schon, Handlungsfähigkeit besitzen.

Das ist genau die Art von Gerede, die viele Leute beunruhigt. Sie wollen Maschinen Autonomie verleihen – eine Art von Handlungsfähigkeit –, um die Welt zu beeinflussen, und doch wollen wir sie auch kontrollieren können. Wie bringen Sie diese beiden Dinge unter einen Hut?

Genau das ist das Spannungsfeld. Die Idee ist, dass der Mensch immer das Kommando behalten wird. Im Grunde geht es darum, Grenzen zu setzen, Grenzen, die eine KI nicht überschreiten kann. Und dafür zu sorgen, dass diese Grenzen nachweisbare Sicherheit schaffen, und zwar vom eigentlichen Code über die Art und Weise, wie sie mit anderen KI – oder mit Menschen – interagiert, bis hin zu den Motiven und Anreizen der Unternehmen, die die Technologie entwickeln. Und wir sollten herausfinden, wie unabhängige Institutionen oder sogar Regierungen direkten Zugang erhalten, um sicherzustellen, dass diese Grenzen nicht überschritten werden.

Wer legt diese Grenzen fest? Ich nehme an, sie müssten auf nationaler oder internationaler Ebene festgelegt werden. Wie werden sie vereinbart?

Ich meine, im Moment werden sie auf internationaler Ebene mit verschiedenen Vorschlägen für neue Aufsichtsinstitutionen in Umlauf gebracht. Aber Grenzen werden auch auf der Mikroebene gezogen. Sie werden Ihrer KI eine begrenzte Erlaubnis erteilen, Ihre persönlichen Daten zu verarbeiten, Ihnen Antworten auf einige Fragen zu geben, auf andere aber nicht.

Generell denke ich, dass es bestimmte Fähigkeiten gibt, mit denen wir in absehbarer Zukunft sehr vorsichtig sein sollten, wenn wir sie nicht sogar ganz ausschließen sollten.

Wie zum Beispiel?

Ich denke, Dinge wie rekursive Selbstverbesserung. Sie wollen doch nicht, dass Ihre kleine KI loslegt und ihren eigenen Code aktualisiert, ohne dass Sie die Kontrolle darüber haben. Vielleicht sollte das sogar eine genehmigungspflichtige Tätigkeit sein – so wie der Umgang mit Anthrax oder nuklearem Material.

Wir haben Drohnen im öffentlichen Raum verboten, richtig? Man kann sie nicht ohne Genehmigung fliegen lassen, wo man will, weil sie die Privatsphäre der Menschen bedrohen. Ich glaube, alle haben die totale Panik, dass wir nicht in der Lage sein werden, das zu regulieren. Das ist einfach Unsinn. Wir werden auf jeden Fall in der Lage sein, dies zu regulieren. Wir werden dieselben Rahmenbedingungen anwenden, die sich bereits bewährt haben.

Aber Sie sehen Drohnen am Himmel fliegen. Es erscheint naiv anzunehmen, dass die Unternehmen einfach offenlegen werden, was sie herstellen. Ist es dann nicht schwierig, eine Regulierung auf den Weg zu bringen?

Wir haben schon viele Dinge im Internet reguliert, oder? Das Ausmaß von Betrug und kriminellen Aktivitäten im Internet ist minimal. Bei Spam haben wir ziemlich gute Arbeit geleistet. Generell hat sich das Problem der Rache-Pornos verbessert, auch wenn es vor drei bis fünf Jahren noch sehr schlimm war. Es ist ziemlich schwierig, radikalisierende Inhalte oder terroristisches Material online zu finden. Es ist ziemlich schwierig, Waffen und Drogen online zu kaufen.

[Nicht alle Behauptungen von Suleyman werden von Zahlen belegt. Cyberkriminalität ist immer noch ein massives globales Problem. Einigen Schätzungen zufolge haben sich die finanziellen Kosten allein in den USA in den letzten zehn Jahren mehr als verhundertfacht. Aus Berichten geht hervor, dass die Wirtschaft mit nicht einvernehmlich hergestellten Deepfake-Pornos boomt. Drogen und Waffen werden über die sozialen Medien vermarktet. Und obwohl einige Online-Plattformen dazu angehalten werden, schädliche Inhalte besser herauszufiltern, könnten sie noch viel mehr tun.]

Der Chatbot Pi ist darauf trainiert, höflich und mitfühlend zu sein,und soll jede Form von Toxizität verweigern.

(Bild: Screenshot: Inflection AI, Inc. )

Es ist also nicht so, dass das Internet ein unkontrollierter Raum ist. Es wird regiert. Und die Künstliche Intelligenz wird nur eine weitere Komponente unter dieser Regierung sein. Es bedarf einer Kombination aus kulturellem Druck, institutionellem Druck und natürlich staatlicher Regulierung. Aber es stimmt mich optimistisch, dass wir es schon einmal geschafft haben und es wieder schaffen können.

Die Kontrolle der KI wird ein Ableger der Internetregulierung sein – das ist ein weitaus positiverer Ton als der, den wir in letzter Zeit von einer Reihe prominenter Schwarzmaler gehört haben.

Ich bin aufmerksam, was die Risiken angeht. In meinem Buch geht es um eine Menge dunkler Dinge. Ich sehe das auch. Ich denke nur, dass die Diskussion um existenzielle Risiken eine völlig überzogene Ablenkung ist. Es gibt 101 praxisbezogene Themen, über die wir alle sprechen sollten, vom Datenschutz über Befangenheit und Gesichtserkennung bis hin zur Online-Moderation.

Wir sollten uns einfach darauf besinnen, dass wir bei der Regulierung hochkomplexer Dinge hervorragende Arbeit geleistet haben. Schauen Sie sich die Federal Aviation Administration an: Es ist unglaublich, dass wir alle in diesen Blechröhren auf zwölf Kilometer Höhe steigen, und es ist eine der sichersten Transportarten überhaupt. Warum feiern wir das nicht? Oder denken Sie an Autos: Jedes Bauteil wird auf Herz und Nieren geprüft, und man muss einen Führerschein haben, um es fahren zu dürfen.

Einige Branchen – wie Fluggesellschaften – haben sich von Anfang an gut selbst reguliert. Sie wussten, dass, wenn sie sich nicht um die Sicherheit kümmerten, alle Angst bekämen und sie ihr Geschäft verlieren würden. Aber man braucht auch eine Regulierung von oben nach unten. Ich liebe den Nationalstaat. Ich glaube an das öffentliche Interesse, ich glaube an den Nutzen von Steuern und Umverteilung, ich glaube an die Macht der Regulierung. Und was ich fordere, ist ein Handeln des Nationalstaates, um seinen Mist in Ordnung zu bringen. Angesichts dessen, was auf dem Spiel steht, ist es jetzt an der Zeit, sich zu bewegen.

()