"Erschreckend, wenn man das sieht": KI-Pionier Geoffrey Hinton über KI-Modelle

Seite 3: Folgenreiche Dinge ins Kippen bringen

Inhaltsverzeichnis

Und wo steht Hinton? "Ich bin leicht depressiv", sagt er. "Deshalb habe ich auch Angst." Hinton befürchtet, dass die neuen KI-Werkzeuge in der Lage sein könnten, Wege zu finden, Menschen zu manipulieren oder gar zu töten, die nicht auf diese Technologie vorbereitet sind. "Ich habe ganz plötzlich meine Ansicht darüber geändert, ob diese Dinger intelligenter sein werden als wir. Ich denke, sie sind jetzt schon sehr nahe dran und werden in Zukunft noch viel intelligenter werden", sagt er. "Wie könnten wir das überleben?"

Besonders besorgt ist er darüber, dass der Mensch die Werkzeuge, die er selbst mit seiner Arbeit zum Leben erweckt hat, dazu nutzen könnte, folgenreiche Dinge ins Kippen zu bringen, seien es Wahlen oder Kriege. Er nennt Politiker wie den Gouverneur Ron DeSantis aus Florida oder "Bad Actors" wie Wladimir Putin, die KI verwenden könnten, um Wahlen zu manipulieren oder Kriege zu gewinnen.

Hinton glaubt, dass der nächste Schritt bei intelligenten Maschinen die Fähigkeit ist, ihre eigenen Teilziele zu formulieren, also Zwischenschritte, die zur Ausführung einer Aufgabe erforderlich sind. Was passiert, fragt er, wenn diese Fähigkeit auf etwas angewendet wird, das von Natur aus unmoralisch ist? "Putin würde hyperintelligente Roboter mit dem Ziel bauen, Ukrainer zu töten, daran zweifele ich keine Sekunde", sagt er. "Er würde nicht zögern. Und wenn man will, dass sie gut darin sind, dieses Ziel zu erreichen, will man kein Micromanagement. Sie sollen selbst herausfinden, wie sie das anstellen."

Tatsächlich gibt es bereits eine Handvoll experimenteller Projekte wie BabyAGI oder AutoGPT, die Chatbots mit anderen Programmen wie Webbrowsern oder Textverarbeitungsprogrammen verbinden, so dass sie einfache Aufgaben aneinanderreihen können. Das sind zwar wohl nur winzige Schritte, aber sie zeigen die Richtung an, in die einige Leute diese Technologie treiben wollen. "Und selbst wenn sich kein böser Akteur der Maschinen bemächtigt, gibt es weitere Bedenken hinsichtlich solcher Unterziele", sagt Hinton.

Ein Beispiel dafür wäre etwas, was in der Biologie fast immer hilfreich ist: mehr Energie zu erhalten. "Das erste, was passieren könnte, ist also, dass ein solches System sagt: 'Wir brauchen mehr Energie. Lasst uns den ganzen Strom zu meinen Prozessoren umleiten.' Ein weiteres großes Unterziel wäre dann, mehr Kopien von sich selbst zu machen. Hört sich das für Sie gut an?"

Yann LeCun, oberster KI-Wissenschaftler von Meta, stimmt der grundsätzlichen Prämisse zu, teilt aber nicht Hintons Befürchtungen. "Es steht außer Frage, dass Maschinen in Zukunft schlauer sein werden als Menschen – in allen Bereichen, in denen Menschen klug sind", sagt LeCun. "Es ist eine Frage des Wann und Wie, nicht des Ob." Aber LeCun hat eine ganz andere Meinung darüber, wie es nun weitergeht. "Ich glaube, dass intelligente Maschinen eine neue Renaissance für die Menschheit einläuten werden, eine neue Ära der Aufklärung", sagt das Meta-Mann. Er glaube nicht, dass Maschinen die Menschen dominieren werden, nur weil sie schlauer sind. "Geschweige denn, dass sie die Menschheit vernichten." Selbst innerhalb der menschlichen Spezies seien die Klügsten unter uns nicht diejenigen, die am dominantesten sind. "Und die, die am stärksten dominieren, sind definitiv nicht die Klügsten. Dafür gibt es zahlreiche Beispiele in Politik und Wirtschaft."

Yoshua Bengio, Professor an der Universität von Montreal und wissenschaftlicher Leiter des Montreal Institute for Learning Algorithms, liegt mit seiner Meinung dazwischen. "Ich höre Leute, die Ängste wie diese kleinreden." Er sehe tatsächlich keine stichhaltigen Argumente dafür, dass es keine Risiken in dem Ausmaß gibt, an das Hinton denkt. Doch Angst sei nur dann nützlich, wenn sie uns zum Handeln anregt, sagt er: "Übermäßige Angst kann lähmend sein, deshalb sollten wir versuchen, die Debatten auf einem rationalen Niveau zu halten."

Eine von Hintons künftigen Prioritäten ist es, mit führenden Vertretern der Technologiebranche zusammenzuarbeiten, um herauszufinden, ob sie sich über die Risiken und die zu ergreifenden Maßnahmen einigen können. Er ist der Meinung, dass das internationale Verbot von Chemiewaffen ein Modell dafür sein könnte, wie man die Entwicklung und den Einsatz gefährlicher KI eindämmen kann. "Es ist zwar nicht narrensicher, aber im Großen und Ganzen setzt die Menschheit keine Chemiewaffen ein", sagt er.

Sein Montrealer Kollege Bengio stimmt mit Hinton darin überein, dass diese Probleme auf gesellschaftlicher Ebene so schnell wie möglich angegangen werden müssen. Aber er wirft auch ein, dass die Entwicklung der KI schneller voranschreitet, als Gesellschaften mithalten können. Die Fortschritte messen sich in Monaten, Gesetzgebung, Regulierung und internationale Verträge brauchen Jahre.

Daher fragt sich Bengio, ob die Art und Weise, wie unsere Gesellschaften derzeit organisiert sind – sowohl auf nationaler als auch auf globaler Ebene – der Herausforderung gewachsen ist. "Ich glaube, dass wir offen dafür sein sollten, ganz andere Modelle für die soziale Organisation unseres Planeten zu nutzen", sagt er.

Aber glaubt Hinton wirklich, dass er genügend Leute mit Macht dazu bringen kann, seine Bedenken ernst zu nehmen? Er weiß es selbst nicht. Vor ein paar Wochen hat er sich den Film "Don't Look Up" angesehen, bei dem ein Asteroid auf die Erde zurast, die Leute sich aber nicht einigen können, was sie tun sollen. Schließlich sterben fast alle – eine Allegorie für das Versagen der Welt bei der Bekämpfung des Klimawandels. "Ich glaube, so ist es auch bei der künstlichen Intelligenz", sagt er – und auch bei anderen großen, unlösbaren Problemen. "Die USA können sich nicht einmal darauf einigen, Sturmgewehre aus den Händen von Teenagern fernzuhalten."

Hintons Sicht der Dinge ist also eine der Ernüchterung. Man kann seine düstere Einschätzung der kollektiven Unfähigkeit der Menschen, zu handeln, wenn sie mit ernsthaften Bedrohungen konfrontiert sind, durchaus teilen. Es stimmt auch, dass KI echten Schaden anrichten kann – sie verändert den Arbeitsmarkt, verfestigt die Ungleichheit, verschlimmert Sexismus und Rassismus und vieles mehr. Die Menschheit muss sich auf diese Probleme konzentrieren. Aber heißt das auch, dass große Sprachmodelle wirklich zu unseren Beherrschern werden, zu Terminatoren? Vielleicht muss man Optimist sein, das nicht zu glauben. Als MIT Technology Review die Wohnung Hintons verlässt, ist der Himmel über London grau und nass. "Haben Sie Spaß an Ihrem Leben. Vielleicht haben wir nicht mehr so lange", sagt der KI-Pionier, gluckst etwas und schließt die Tür.

(jle)