zurück zum Artikel

Unsere letzte Erfindung?

Paul Ford

Selbst unter Experten greift die Furcht um sich, dass wir die Kontrolle über die intelligenten Maschinen verlieren. Übertreiben wir nicht ein bisschen?

Vor Jahren saß ich beim Kaffee mit einem Freund, der eine Start-up-Firma gegründet hatte. Er war gerade 40 geworden, hatte Rückenschmerzen, sein Vater war krank, und er fühlte sich vom Leben überfordert. "Lach mich nicht aus", gestand er mir, "aber ich hatte eigentlich auf die Singularität gehofft."

Mein Freund arbeitete in der Computerbranche. Für ihn war es kein großer Schritt zu glauben, dass Maschinen noch vor Einsetzen seiner Midlife-Crisis intelligenter als Menschen sein würden – ein hypothetischer Meilenstein, den Zukunftsforscher als "Technologische Singularität" bezeichnen. Eine wohlmeinende Superintelligenz könnte unseren genetischen Code blitzschnell analysieren und dabei womöglich das Geheimnis ewiger Jugend entschlüsseln. Zumindest aber erfände sie sicher ein Mittel gegen Rückenschmerzen.

Doch was, wenn sie nicht so wohlwollend wäre? Nick Bostrom, Philosoph und Direktor des Instituts für die Zukunft der Menschheit an der Universität Oxford, beschreibt in seinem Buch "Superintelligenz", das eine große Debatte über die Zukunft der künstlichen Intelligenz (KI) losgetreten hat, folgendes Szenario: Stellen Sie sich eine Maschine vor, die vielleicht "Büroklammer-Maximierer" heißen könnte – sie wäre darauf programmiert, so viele Büroklammern wie möglich herzustellen. Nun nehmen Sie an, diese Maschine würde unglaublich intelligent. Angesichts ihrer einprogrammierten Ziele könnte sie entscheiden, immer neue, effizientere Büroklammer-Herstellungstechniken zu entwickeln, bis sie irgendwann, im Stile von König Midas, die ganze Welt zu Büroklammern verarbeitet hätte.

Kein Problem, könnte man sagen: Man müsste sie einfach programmieren, nach genau einer Million Büroklammern haltzumachen. Aber was, wenn die Maschine beschließt, ihre Arbeit zu überprüfen? Hat sie richtig gezählt? Um wirklich sicherzugehen, muss sie klüger werden. Die superintelligente Maschine entwickelt eine neuartige Computerkomponente – nennen wir sie "Computronium" –, die alle Zweifelsfälle nachprüft. Doch dabei tauchen immer neue Zweifel auf, bis die ganze Welt zu Computronium umgewandelt wäre – bis auf eine Million exakt abgezählter Büroklammern.

Bostrom glaubt nicht, dass es genau diesen Büroklammer-Maximizer geben wird. Das Gedankenexperiment sollte jedoch zeigen, wie selbst das sorgfältigste Systemdesign bei dem Versuch scheitern könnte, extreme Maschinenintelligenz im Zaum zu halten.

Wenn Sie das absurd finden, sind Sie nicht allein. Wer eine außer Kontrolle geratene KI fürchte, habe missverstanden, wie "denkende" oder "lernende" Computer arbeiten, sagen Kritiker wie der Robotik-Pionier Rodney Brooks. Aus dieser Perspektive liegt die von Bostrom beschriebene vermeintliche Superintelligenz weit in der Zukunft oder ist vielleicht sogar ganz unmöglich. Trotzdem stimmt eine ganze Reihe intelligenter, nachdenklicher Menschen Bostrom zu und ist besorgt. Warum?

Die Frage "Können Maschinen denken?" begleitet die Informatik seit ihren Anfängen. Alan Turing schlug 1950 vor, einen Computer wie ein Kind lernen zu lassen. John McCarthy, der Erfinder der Programmiersprache Lisp, prägte 1955 den Begriff "künstliche Intelligenz". Als KI-Forscher in den 60er- und 70er-Jahren Computern beibrachten zu übersetzen, Bilder zu erkennen und Anweisungen in natürlicher Sprache entgegenzunehmen, begann die Idee, sie würden irgendwann denken, sprechen und damit auch Böses tun können, sich in der Mainstream-Kultur auszubreiten.

Als sich jedoch herausstellte, dass die KI-Forschung weit hinter ihren hochgesteckten Zielen zurückblieb, trocknete die Finanzierung zu einem Rinnsal aus. Ein langer "KI-Winter" begann. Die Fackel des Glaubens an intelligente Maschinen wurde dennoch weitergetragen: Durch Science-Fiction-Autoren wie Vernor Vinge, der das Konzept der Technologischen Singularität bekannt machte. Durch Wissenschaftler wie den Robotiker Hans Moravec, ein Experte in Bildverarbeitung, und den Ingenieur und Unternehmer Ray Kurzweil, dessen Buch "The Age of Spiritual Machines" (deutsch: Homo S@piens) 1999 erschien.

Während Turing eine menschenähnliche Intelligenz postuliert hatte, dachten Vinge, Moravec und Kurzweil in größeren Dimensionen: Könnte ein Computer eigenständige Problemlösungen entwickeln, wäre er höchstwahrscheinlich auch fähig, sich selbst zu analysieren – und damit seine Software zu modifizieren und sich selbst intelligenter zu machen. Nach kurzer Zeit sollte ein solcher Computer in der Lage sein, eigene Hardware zu entwerfen.

Nach Kurzweils Lesart wäre das der Beginn einer wunderschönen neuen Ära. Derartige Maschinen hätten die Einsicht und Geduld, die noch offenen Probleme in Bereichen wie Nanotechnologie und Raumfahrt zu lösen. Sie würden die Grundlagen menschlichen Lebens verbessern und uns unser Bewusstsein in unsterblicher digitaler Form speichern lassen. Intelligenz würde sich im gesamten Kosmos verbreiten.

Andere, wie der Astrophysiker Stephen Hawking, glauben zwar an die Singularität, sind aber nicht davon überzeugt, dass sie für die Menschheit eine gute Sache ist. Weil Menschen nicht mit einer fortgeschrittenen künstlichen Intelligenz konkurrieren könnten, warnte Hawking, "bedeutete sie womöglich das Ende der menschlichen Rasse". Und der Unternehmer Elon Musk twitterte nach der Lektüre von "Superintelligenz": "Hoffentlich sind wir nicht lediglich biologische Steigbügelhalter einer digitalen Superintelligenz. Leider wird das immer wahrscheinlicher."

Skeptiker wie Rodney Brooks, Gründer von iRobots und Rethink Robotics sowie Vater des autonomen Staubsaugers Roomba, halten dagegen, dass diese Befürchtungen weit übertrieben sind. Aus dem heutigen Stand der KI auf eine drohende Superintelligenz zu extrapolieren, sei "ähnlich, als betrachte man die Entwicklung effizienterer Verbrennungsmotoren und schlösse daraus, demnächst käme der Warp-Antrieb um die Ecke", schrieb Brooks auf Edge.org. Über eine "bösartige KI" brauche sich, für einige Hundert Jahre zumindest, niemand Sorgen zu machen.

Für uns Normalbürger scheint also vorerst kein Grund zu bestehen, schlaflose Nächte zu verbringen. Noch verfügt die Menschheit über keine Technologie, die auch nur entfernt einer Superintelligenz ähnelt. Aber selbst wenn die Chancen einer aufkommenden Superintelligenz gering sind, wäre es möglicherweise unverantwortlich, das Risiko unvorbereitet einzugehen. Genau darauf verweist Stuart Russell, Informatikprofessor an der University of California in Berkeley. Russell ist alles andere als ein weltfremder Technikhasser.

Gemeinsam mit Peter Norvig, heute Forschungsleiter bei Google Research, verfasste er das Lehrbuch "Artificial Intelligence: A Modern Approach", eines der meistzitierten Standardwerke der Informatik. Doch weil Russell sich zunehmend Sorgen machte, die Technik könne aus dem Ruder laufen, initiierte er einen Appell, der eine neue Ausrichtung in der KI-Forschung forderte.

Mit großem Erfolg: Mehr als 20000 Menschen unterzeichneten das Papier. Dabei waren nicht nur KI-Außenseiter wie Stephen Hawking, Elon Musk und Nick Bostrom, sondern auch prominente Informatiker wie Demis Hassabis, Gründer der KI-Firma Deep Mind, für die Google 2014 bis zu 700 Millionen Euro gezahlt haben soll. "Es gibt eine Menge vermeintlich kluger Intellektueller, die einfach keine Ahnung haben", erzählte Russell mir. Die Öffentlichkeit verstehe zwar Fortschritte im Sinne des Moore'schen Gesetzes (schnellere Computer leisten mehr). Unbekannt seien ihnen jedoch die fundamentaleren Errungenschaften der neuesten KI-Forschung. Techniken wie Deep Learning seien dabei, Computer in die Lage zu versetzen, das eigene Verständnis für ihre Umgebung zu steigern.

Weil Google, Facebook und andere an der Entwicklung intelligenter, "lernender" Maschinen arbeiteten, argumentiert Russell, "sollten wir nicht mit Volldampf die Entwicklung einer Superintelligenz vorbereiten, ohne über potenzielle Risiken nachzudenken. Das erschiene mir ein bisschen dämlich." Russell zieht eine Analogie heran: "Es ist wie in der Fusionsforschung. Fragen Sie einen Kernfusionsforscher, was er tut, dann sagt er, er arbeite am Einschluss des Plasmas. Wer unbegrenzte Energie will, muss die Fusionsreaktion unter Kontrolle halten." Und wer unbegrenzte Intelligenz wolle, müsse sich Gedanken machen, wie Computer mit menschlichen Bedürfnissen in Einklang zu bringen seien.

Genau dafür skizziert Bostrom einen Forschungsansatz. Eine Superintelligenz wäre gottähnlich. Ob Zorn oder Liebe sie antreibt, liegt an uns, die wir sie erschaffen werden. Wie alle Eltern müssen wir unser Kind mit Werten ausstatten, die im besten Interesse der Menschheit liegen. Im Grunde bringen wir einem durch uns erschaffenen Gott bei, dass er uns gut behandeln soll. Was aber soll das heißen? Bostrom stützt sich auf die Ideen des KI-Forschers Eliezer Yudkowsky, der von "kohärentem extrapolierten Willen" spricht: ein gemeinsames, per Konsens abgeleitetes, bestmögliches moralisches Wertesystem aller Menschen. Solch eine KI würde uns, so die Hoffnung, ein reiches, glückliches, erfülltes Leben bescheren – und dabei unseren kranken Rücken genauso reparieren wie uns eine Reise zum Mars ermöglichen.

Selbst wenn man die gigantische Herausforderung außen vor lässt, die Menschheit auf ein allgemeingültiges Wertesystem einzuschwören: Wie programmieren wir einer potenziellen Superintelligenz diese Werte ein? Welche Art von Mathematik könnte sie definieren? Auch diese Fragen sind alles andere als beantwortet. Forscher, glaubt Bostrom, müssen sie dennoch jetzt lösen. Er hält es für "die wesentliche Aufgabe unserer Zeit".

Erste Wissenschaftler gehen sie bereits an. Denn mit der Idee steht Bostrom bei Weitem nicht so allein wie mit seiner Warnung vor einem KI-Armageddon. Der von Stuart Russell angeschobene offene Brief enthielt die Forderung nach mehr Forschung zu den Vorteilen künstlicher Intelligenz, "bei gleichzeitiger Vermeidung potenzieller Fallstricke". Keiner der Experten will sich schließlich nachsagen lassen, zwar eine künstliche Intelligenz entwickeln zu können – aber nicht klug genug zu sein, sie zu beherrschen. (bsc [1])


URL dieses Artikels:
https://www.heise.de/-3152050

Links in diesem Artikel:
[1] mailto:bsc@heise.de