Unsere letzte Erfindung?

Selbst unter Experten greift die Furcht um sich, dass wir die Kontrolle über die intelligenten Maschinen verlieren. Übertreiben wir nicht ein bisschen?

In Pocket speichern vorlesen Druckansicht 20 Kommentare lesen
Lesezeit: 9 Min.
Von
  • Paul Ford
Inhaltsverzeichnis

Vor Jahren saß ich beim Kaffee mit einem Freund, der eine Start-up-Firma gegründet hatte. Er war gerade 40 geworden, hatte Rückenschmerzen, sein Vater war krank, und er fühlte sich vom Leben überfordert. "Lach mich nicht aus", gestand er mir, "aber ich hatte eigentlich auf die Singularität gehofft."

Mein Freund arbeitete in der Computerbranche. Für ihn war es kein großer Schritt zu glauben, dass Maschinen noch vor Einsetzen seiner Midlife-Crisis intelligenter als Menschen sein würden – ein hypothetischer Meilenstein, den Zukunftsforscher als "Technologische Singularität" bezeichnen. Eine wohlmeinende Superintelligenz könnte unseren genetischen Code blitzschnell analysieren und dabei womöglich das Geheimnis ewiger Jugend entschlüsseln. Zumindest aber erfände sie sicher ein Mittel gegen Rückenschmerzen.

Doch was, wenn sie nicht so wohlwollend wäre? Nick Bostrom, Philosoph und Direktor des Instituts für die Zukunft der Menschheit an der Universität Oxford, beschreibt in seinem Buch "Superintelligenz", das eine große Debatte über die Zukunft der künstlichen Intelligenz (KI) losgetreten hat, folgendes Szenario: Stellen Sie sich eine Maschine vor, die vielleicht "Büroklammer-Maximierer" heißen könnte – sie wäre darauf programmiert, so viele Büroklammern wie möglich herzustellen. Nun nehmen Sie an, diese Maschine würde unglaublich intelligent. Angesichts ihrer einprogrammierten Ziele könnte sie entscheiden, immer neue, effizientere Büroklammer-Herstellungstechniken zu entwickeln, bis sie irgendwann, im Stile von König Midas, die ganze Welt zu Büroklammern verarbeitet hätte.

Kein Problem, könnte man sagen: Man müsste sie einfach programmieren, nach genau einer Million Büroklammern haltzumachen. Aber was, wenn die Maschine beschließt, ihre Arbeit zu überprüfen? Hat sie richtig gezählt? Um wirklich sicherzugehen, muss sie klüger werden. Die superintelligente Maschine entwickelt eine neuartige Computerkomponente – nennen wir sie "Computronium" –, die alle Zweifelsfälle nachprüft. Doch dabei tauchen immer neue Zweifel auf, bis die ganze Welt zu Computronium umgewandelt wäre – bis auf eine Million exakt abgezählter Büroklammern.

Bostrom glaubt nicht, dass es genau diesen Büroklammer-Maximizer geben wird. Das Gedankenexperiment sollte jedoch zeigen, wie selbst das sorgfältigste Systemdesign bei dem Versuch scheitern könnte, extreme Maschinenintelligenz im Zaum zu halten.

Wenn Sie das absurd finden, sind Sie nicht allein. Wer eine außer Kontrolle geratene KI fürchte, habe missverstanden, wie "denkende" oder "lernende" Computer arbeiten, sagen Kritiker wie der Robotik-Pionier Rodney Brooks. Aus dieser Perspektive liegt die von Bostrom beschriebene vermeintliche Superintelligenz weit in der Zukunft oder ist vielleicht sogar ganz unmöglich. Trotzdem stimmt eine ganze Reihe intelligenter, nachdenklicher Menschen Bostrom zu und ist besorgt. Warum?

Die Frage "Können Maschinen denken?" begleitet die Informatik seit ihren Anfängen. Alan Turing schlug 1950 vor, einen Computer wie ein Kind lernen zu lassen. John McCarthy, der Erfinder der Programmiersprache Lisp, prägte 1955 den Begriff "künstliche Intelligenz". Als KI-Forscher in den 60er- und 70er-Jahren Computern beibrachten zu übersetzen, Bilder zu erkennen und Anweisungen in natürlicher Sprache entgegenzunehmen, begann die Idee, sie würden irgendwann denken, sprechen und damit auch Böses tun können, sich in der Mainstream-Kultur auszubreiten.

Als sich jedoch herausstellte, dass die KI-Forschung weit hinter ihren hochgesteckten Zielen zurückblieb, trocknete die Finanzierung zu einem Rinnsal aus. Ein langer "KI-Winter" begann. Die Fackel des Glaubens an intelligente Maschinen wurde dennoch weitergetragen: Durch Science-Fiction-Autoren wie Vernor Vinge, der das Konzept der Technologischen Singularität bekannt machte. Durch Wissenschaftler wie den Robotiker Hans Moravec, ein Experte in Bildverarbeitung, und den Ingenieur und Unternehmer Ray Kurzweil, dessen Buch "The Age of Spiritual Machines" (deutsch: Homo S@piens) 1999 erschien.

Während Turing eine menschenähnliche Intelligenz postuliert hatte, dachten Vinge, Moravec und Kurzweil in größeren Dimensionen: Könnte ein Computer eigenständige Problemlösungen entwickeln, wäre er höchstwahrscheinlich auch fähig, sich selbst zu analysieren – und damit seine Software zu modifizieren und sich selbst intelligenter zu machen. Nach kurzer Zeit sollte ein solcher Computer in der Lage sein, eigene Hardware zu entwerfen.

Nach Kurzweils Lesart wäre das der Beginn einer wunderschönen neuen Ära. Derartige Maschinen hätten die Einsicht und Geduld, die noch offenen Probleme in Bereichen wie Nanotechnologie und Raumfahrt zu lösen. Sie würden die Grundlagen menschlichen Lebens verbessern und uns unser Bewusstsein in unsterblicher digitaler Form speichern lassen. Intelligenz würde sich im gesamten Kosmos verbreiten.

Andere, wie der Astrophysiker Stephen Hawking, glauben zwar an die Singularität, sind aber nicht davon überzeugt, dass sie für die Menschheit eine gute Sache ist. Weil Menschen nicht mit einer fortgeschrittenen künstlichen Intelligenz konkurrieren könnten, warnte Hawking, "bedeutete sie womöglich das Ende der menschlichen Rasse". Und der Unternehmer Elon Musk twitterte nach der Lektüre von "Superintelligenz": "Hoffentlich sind wir nicht lediglich biologische Steigbügelhalter einer digitalen Superintelligenz. Leider wird das immer wahrscheinlicher."