"Erschreckend, wenn man das sieht": KI-Pionier Geoffrey Hinton über KI-Modelle

Ohne den britisch-kanadischen Forscher hätten sich tiefe neuronale Netze kaum durchgesetzt. Doch nun hinterfragt der Ex-Google-Mitarbeiter Hinton seine Arbeit.

In Pocket speichern vorlesen Druckansicht 457 Kommentare lesen
Geoffrey Hinton in Wasserfarben

Wie sich der KI-Bildgenerator Midjourney Geoffrey Hinton in Form eines Aquarellbildes vorstellt.

(Bild: Erstellt von Midjourney durch MIT Technology Review)

Lesezeit: 19 Min.
Von
  • Will Douglas Heaven
Inhaltsverzeichnis

Geoffrey Hinton wohnt in einem Haus in einer hübschen Straße im Norden Londons. Das Gespräch mit MIT Technology Review fand vier Tage vor seiner Ankündigung statt, Google zu verlassen – eine Nachricht, die schnell um die ganze Welt ging. Der Mann ist ein Pionier im Bereich des Deep Learning, er war an der Entwicklung einiger der wichtigsten Verfahren beteiligt, die das aktuelle Herz moderner Künstlicher Intelligenz bilden. Zehn Jahre war er nach seiner Arbeit an der Universität bei dem Internetriesen beschäftigt. Doch nun will er nicht mehr. Und das hat einen ganz bestimmten Grund: Er macht sich Sorgen um die Zukunft mit KI.

Hinton selbst verblüfft nach eigenen Angaben, was die großen Sprachmodelle (Large Language Models, LLMs) wie GPT-4, auf dem das aktuelle ChatGPT basiert, können. Und er sieht ernste Risiken, die die Technik – die ohne ihn kaum da wäre, wo sie heute ist – mit sich bringt.

Des Gespräch begann an Hintons Küchentisch, doch der britisch-kanadische KI-Veteran ging die ganze Zeit auf und ab. Da er seit Jahren von chronischen Rückenschmerzen geplagt wird, setzt sich Hinton fast nie hin. Während der nächsten Stunde konnte man beobachten, wie er dauernd von einem Ende des Raumes zum anderen ging und dabei beim Sprechen seinen Kopf hin und her bewegte. Er hatte viel zu sagen.

Der 75-jährige Informatiker, der gemeinsam mit Yann LeCun und Yoshua Bengio den Turing Award 2018 für seine Arbeit im Bereich Deep Learning – und dabei besonders bei den sogenannten Deep Neural Networks, kurz DNN – erhalten hat, sagte, er sei nun bereit, einen anderen Gang einzulegen. "Ich werde zu alt für technische Arbeiten, bei denen man sich viele Details merken muss", sagte er mir. "Ich bin zwar immer noch gut, aber ich bin nicht mehr so gut wie früher, und das ist natürlich ärgerlich." Doch das ist nicht der einzige Grund, warum er Google verlässt. Hinton möchte seine Zeit nun mit etwas verbringen, das er als eine "philosophischere Arbeit" bezeichnet. Dabei wird er sich auf die kleine, aber für ihn sehr reale Gefahr konzentrieren, dass sich die Entwicklung KI als eine Katastrophe für die Menschheit erweisen könnte.

Wenn Hinton Google verlassen hat, kann er seine Meinung sagen – ohne die Selbstzensur, die ein Mann vom Rang eines Manager ausüben muss. "Ich möchte über KI-Sicherheitsfragen sprechen, ohne mir Gedanken darüber machen zu müssen, wie sich dies auf das Geschäft von Google auswirkt", sagt er. "Solange ich von der Firma bezahlt werde, kann ich das nicht." Das bedeutet keineswegs, dass Hinton mit Google unzufrieden ist. "Es mag Sie überraschen", sagt er, "es gibt eine Menge guter Dinge, die ich über Google sagen kann. Und das ist viel glaubwürdiger, wenn ich nicht mehr bei Google bin."

Hintons Sicht der Dinge wurde maßgeblich von der neuen Generation großer Sprachmodelle verändert, insbesondere GPT-4 von OpenAI, das im März heraus kam. Es habe ihm klar gemacht, dass Maschinen auf dem Weg sind, viel schlauer zu werden, als er dachte, sagt er. Es beunruhigt ihn, wie sich das entwickeln könnte. "Diese Dinger sind völlig anders als wir", sagt er. "Manchmal denke ich, es ist, als wären Außerirdische gelandet und die Menschen hätten es nicht bemerkt, weil sie sehr gut Englisch sprechen."

Hinton ist vor allem für seine Arbeit an einer Technik namens Backpropagation bekannt, die er – zusammen mit zwei Kollegen – in den 80er Jahren vorschlug. Kurz gesagt ist dies der Algorithmus, der es Maschinen ermöglicht, wirklich zu lernen. Er liegt heute fast allen tiefen neuronalen Netzen zugrunde, von Computer-Vision-Systemen zur Bilderkennung bis hin zu großen Sprachmodellen. Es dauerte bis in die 2010er Jahre, bis die Leistungsfähigkeit von neuronalen Netzen, die mit Backpropagation trainiert werden, wirklich soweit war, dass man sie sinnvoll verwenden konnte. In Zusammenarbeit mit einigen Studenten zeigte Hinton dann, dass die Technik besser als alles andere war, wenn es darum ging, einen Computer dazu zu bringen, Objekte auf Bildern zu identifizieren. Sie trainierten auch ein neuronales Netz, das die nächsten Buchstaben eines Satzes vorhersagen konnte, einen Vorläufer der heutigen großen Sprachmodelle.

Einer dieser Doktoranden war dann Ilya Sutskever, der später OpenAI mitbegründete und die Entwicklung von ChatGPT leitete, heute ist er dort der Technikchef. "Es gab die ersten Ahnungen, dass diese Sache erstaunlich sein könnte", sagt Hinton. "Aber es hat lange gedauert, bis wir begriffen haben, dass es im ganz großen Maßstab gemacht werden muss, um wirklich gut zu sein." In den 80er Jahren waren neuronale Netze eher ein Witz. Die damals vorherrschende Vorstellung von Künstlicher Intelligenz, die sogenannte symbolische KI, ging noch davon aus, dass Intelligenz vor allem aus der Verarbeitung von Symbolen wie Wörtern oder Zahlen besteht.

Hinton war davon damals – von diesem Ansatz – nicht überzeugt. Er arbeitete an neuronalen Netzen, Softwareabstraktionen von Gehirnen, in denen Neuronen und die Verbindungen zwischen ihnen durch Code dargestellt werden. Indem man die Art und Weise, wie diese Neuronen miteinander verbunden sind, ändert – also die Zahlen, die sie repräsentieren –, kann ein solches neuronales Netz im Handumdrehen neu "verdrahtet" werden. Mit anderen Worten: Es kann zum Lernen gebracht werden.

"Mein Vater war Biologe, also habe ich in biologischen Begriffen gedacht", sagt Hinton. Und symbolisches Denken sei eindeutig nicht der Kern der biologischen Intelligenz. "Krähen können Rätsel lösen, aber sie haben keine Sprache. Sie tun dies nicht, indem sie Zeichenketten abspeichern und diese manipulieren. Sie tun es, indem sie die Stärke der Verbindungen zwischen den Neuronen in ihrem Gehirn verändern. Es muss also möglich sein, komplizierte Dinge zu lernen, indem man die Stärke der Verbindungen in einem künstlichen neuronalen Netz verändert."

40 Jahre lang hat Hinton künstliche neuronale Netze nur als einen schlechten Abklatsch biologischer neuronaler Netze gesehen. Jetzt glaubt er, dass sich das geändert hat: Bei dem Versuch, biologische Gehirne zu imitieren, haben wir seiner Meinung nach etwas sehr Spezielles entwickelt. "Es ist erschreckend, wenn man das sieht", sagt er. "Der Schalter wird ganz plötzlich umgelegt." Hintons Befürchtungen werden vielen Lesern wie Science-Fiction vorkommen. Aber es lohnt sich, seiner Argumentation zuzuhören.