Mitbegründer von Google DeepMind wird CEO von Microsofts KI-Sparte

Seite 2: "Ich bin auch ein Pragmatiker"

Inhaltsverzeichnis

Apropos Werte und der Wunsch, die Welt zu verbessern: Warum erzählen Sie nicht, wie das gemacht wird, damit andere Leute ihre Modelle auch verbessern können?

Nun, weil ich auch ein Pragmatiker bin und versuche, Geld zu verdienen. Ich versuche, ein Unternehmen aufzubauen. Ich habe gerade 1,5 Milliarden Dollar eingeworben und muss einen Gegenwert dafür bieten. Sehen Sie, das Open-Source-Ökosystem ist in vollem Gange und leistet großartige Arbeit. Die Leute entdecken ähnliche Tricks. Ich gehe stets davon aus, dass ich ihnen immer nur sechs Monate voraus bin.

Kommen wir zurück zu dem, was Sie zu erreichen versuchen. Große Sprachmodelle sind offensichtlich die Technologie der Stunde. Aber warum setzen Sie außerdem auf sie?

Bei der ersten Welle der KI ging es um Klassifizierung. Deep Learning hat gezeigt, dass wir einen Computer darauf trainieren können, verschiedene Arten von Eingabedaten zu klassifizieren: Bilder, Video, Audio, Sprache. Jetzt befinden wir uns in der generativen Phase, in der wir aus diesen Eingabedaten neue Daten erzeugen.

Die dritte Welle wird die interaktive Phase sein. Deshalb wette ich schon seit Langem, dass Konversation die Schnittstelle der Zukunft ist. Anstatt nur auf Schaltflächen zu klicken und zu tippen, werden Sie mit Ihrer KI sprechen. Und diese KI wird in der Lage sein, Aktionen auszuführen. Man wird ihr einfach ein allgemeines, mehr oder weniger globales Ziel vorgeben, und sie wird alle ihr zur Verfügung stehenden Mittel nutzen, um daraufhin zu handeln. Sie werden mit anderen Menschen und mit anderen KIs sprechen. Das ist es, was wir mit Pi machen werden.

Das ist eine enorme Verschiebung in den Möglichkeiten der Technologie. Es ist ein sehr, sehr tiefgreifender Moment in der Geschichte der Technologie, der meiner Meinung nach von vielen Menschen unterschätzt wird. Die heutige Technologie ist statisch. Sie tut, grob gesagt, das, was man ihr aufträgt. Aber jetzt wird die Technologie lebendig. Sie wird, wenn man sie lässt, potenziell die Freiheit haben, aktiv zu werden. Es ist wirklich ein großer Schritt in der Geschichte unserer Spezies, dass wir Werkzeuge entwickeln, die diese Art von, Sie wissen schon, Handlungsfähigkeit besitzen.

Das ist genau die Art von Gerede, die viele Leute beunruhigt. Sie wollen Maschinen Autonomie verleihen – eine Art von Handlungsfähigkeit –, um die Welt zu beeinflussen, und doch wollen wir sie auch kontrollieren können. Wie bringen Sie diese beiden Dinge unter einen Hut?

Genau das ist das Spannungsfeld. Die Idee ist, dass der Mensch immer das Kommando behalten wird. Im Grunde geht es darum, Grenzen zu setzen, Grenzen, die eine KI nicht überschreiten kann. Und dafür zu sorgen, dass diese Grenzen nachweisbare Sicherheit schaffen, und zwar vom eigentlichen Code über die Art und Weise, wie sie mit anderen KI – oder mit Menschen – interagiert, bis hin zu den Motiven und Anreizen der Unternehmen, die die Technologie entwickeln. Und wir sollten herausfinden, wie unabhängige Institutionen oder sogar Regierungen direkten Zugang erhalten, um sicherzustellen, dass diese Grenzen nicht überschritten werden.

Wer legt diese Grenzen fest? Ich nehme an, sie müssten auf nationaler oder internationaler Ebene festgelegt werden. Wie werden sie vereinbart?

Ich meine, im Moment werden sie auf internationaler Ebene mit verschiedenen Vorschlägen für neue Aufsichtsinstitutionen in Umlauf gebracht. Aber Grenzen werden auch auf der Mikroebene gezogen. Sie werden Ihrer KI eine begrenzte Erlaubnis erteilen, Ihre persönlichen Daten zu verarbeiten, Ihnen Antworten auf einige Fragen zu geben, auf andere aber nicht.

Generell denke ich, dass es bestimmte Fähigkeiten gibt, mit denen wir in absehbarer Zukunft sehr vorsichtig sein sollten, wenn wir sie nicht sogar ganz ausschließen sollten.