Unsere letzte Erfindung?
Skeptiker wie Rodney Brooks, Gründer von iRobots und Rethink Robotics sowie Vater des autonomen Staubsaugers Roomba, halten dagegen, dass diese Befürchtungen weit übertrieben sind. Aus dem heutigen Stand der KI auf eine drohende Superintelligenz zu extrapolieren, sei "ähnlich, als betrachte man die Entwicklung effizienterer Verbrennungsmotoren und schlösse daraus, demnächst käme der Warp-Antrieb um die Ecke", schrieb Brooks auf Edge.org. Über eine "bösartige KI" brauche sich, für einige Hundert Jahre zumindest, niemand Sorgen zu machen.
Für uns Normalbürger scheint also vorerst kein Grund zu bestehen, schlaflose Nächte zu verbringen. Noch verfügt die Menschheit über keine Technologie, die auch nur entfernt einer Superintelligenz ähnelt. Aber selbst wenn die Chancen einer aufkommenden Superintelligenz gering sind, wäre es möglicherweise unverantwortlich, das Risiko unvorbereitet einzugehen. Genau darauf verweist Stuart Russell, Informatikprofessor an der University of California in Berkeley. Russell ist alles andere als ein weltfremder Technikhasser.
Gemeinsam mit Peter Norvig, heute Forschungsleiter bei Google Research, verfasste er das Lehrbuch "Artificial Intelligence: A Modern Approach", eines der meistzitierten Standardwerke der Informatik. Doch weil Russell sich zunehmend Sorgen machte, die Technik könne aus dem Ruder laufen, initiierte er einen Appell, der eine neue Ausrichtung in der KI-Forschung forderte.
Deep Learning: Errungenschaft der KI-Forschung
Mit großem Erfolg: Mehr als 20000 Menschen unterzeichneten das Papier. Dabei waren nicht nur KI-Außenseiter wie Stephen Hawking, Elon Musk und Nick Bostrom, sondern auch prominente Informatiker wie Demis Hassabis, Gründer der KI-Firma Deep Mind, für die Google 2014 bis zu 700 Millionen Euro gezahlt haben soll. "Es gibt eine Menge vermeintlich kluger Intellektueller, die einfach keine Ahnung haben", erzählte Russell mir. Die Öffentlichkeit verstehe zwar Fortschritte im Sinne des Moore'schen Gesetzes (schnellere Computer leisten mehr). Unbekannt seien ihnen jedoch die fundamentaleren Errungenschaften der neuesten KI-Forschung. Techniken wie Deep Learning seien dabei, Computer in die Lage zu versetzen, das eigene Verständnis für ihre Umgebung zu steigern.
Weil Google, Facebook und andere an der Entwicklung intelligenter, "lernender" Maschinen arbeiteten, argumentiert Russell, "sollten wir nicht mit Volldampf die Entwicklung einer Superintelligenz vorbereiten, ohne über potenzielle Risiken nachzudenken. Das erschiene mir ein bisschen dämlich." Russell zieht eine Analogie heran: "Es ist wie in der Fusionsforschung. Fragen Sie einen Kernfusionsforscher, was er tut, dann sagt er, er arbeite am Einschluss des Plasmas. Wer unbegrenzte Energie will, muss die Fusionsreaktion unter Kontrolle halten." Und wer unbegrenzte Intelligenz wolle, müsse sich Gedanken machen, wie Computer mit menschlichen Bedürfnissen in Einklang zu bringen seien.
Genau dafür skizziert Bostrom einen Forschungsansatz. Eine Superintelligenz wäre gottähnlich. Ob Zorn oder Liebe sie antreibt, liegt an uns, die wir sie erschaffen werden. Wie alle Eltern müssen wir unser Kind mit Werten ausstatten, die im besten Interesse der Menschheit liegen. Im Grunde bringen wir einem durch uns erschaffenen Gott bei, dass er uns gut behandeln soll. Was aber soll das heißen? Bostrom stützt sich auf die Ideen des KI-Forschers Eliezer Yudkowsky, der von "kohärentem extrapolierten Willen" spricht: ein gemeinsames, per Konsens abgeleitetes, bestmögliches moralisches Wertesystem aller Menschen. Solch eine KI würde uns, so die Hoffnung, ein reiches, glückliches, erfülltes Leben bescheren – und dabei unseren kranken Rücken genauso reparieren wie uns eine Reise zum Mars ermöglichen.
Wertesystem programmieren
Selbst wenn man die gigantische Herausforderung außen vor lässt, die Menschheit auf ein allgemeingültiges Wertesystem einzuschwören: Wie programmieren wir einer potenziellen Superintelligenz diese Werte ein? Welche Art von Mathematik könnte sie definieren? Auch diese Fragen sind alles andere als beantwortet. Forscher, glaubt Bostrom, müssen sie dennoch jetzt lösen. Er hält es für "die wesentliche Aufgabe unserer Zeit".
Erste Wissenschaftler gehen sie bereits an. Denn mit der Idee steht Bostrom bei Weitem nicht so allein wie mit seiner Warnung vor einem KI-Armageddon. Der von Stuart Russell angeschobene offene Brief enthielt die Forderung nach mehr Forschung zu den Vorteilen künstlicher Intelligenz, "bei gleichzeitiger Vermeidung potenzieller Fallstricke". Keiner der Experten will sich schließlich nachsagen lassen, zwar eine künstliche Intelligenz entwickeln zu können – aber nicht klug genug zu sein, sie zu beherrschen. (bsc)