Maschinenintelligenz – eine unrealistische Vision

Für Paul Allen, Mitgründer von Microsoft, ist die „Singularität“, der Punkt, an dem Maschinen die Menschen überholen, noch weit weg.

In Pocket speichern vorlesen Druckansicht 97 Kommentare lesen
Lesezeit: 11 Min.
Von
  • Paul Allen
  • Mark Greaves

Für Paul Allen, Mitgründer von Microsoft, ist die „Singularität“, der Punkt, an dem Maschinen die Menschen überholen, noch weit weg. Denn Neurowissenschaft und KI-Forschung kommen mit der Komplexität der Aufgabe nicht zurande.

Futuristen wie Vernor Vinge und Ray Kurzweil behaupten seit Jahren, dass die Welt sich rasant auf einen Wendepunkt zubewegt: Die „Singularität“. An diesem Punkt würden die sich immer schneller entwickelnden Fähigkeiten von immer intelligenteren Maschinen den Menschen überholen. Mit dem aus der Mathematik entlehnten Begriff der Singularität wollen Vinge und Kurzweil ausdrücken, dass jenseits dieses Punktes Prognosen über die menschliche Zukunft unmöglich werden. Denn dann werden die Maschinen eine solch übermenschliche Intelligenz besitzen, dass wir uns nicht annähernd ausmalen können, wie sich unser Leben verändert.

Während Vinge darüber sinniert, welche Rolle wir Menschen dann noch spielen könnten, ist Kurzweil optimistischer. Fortschritte in der medizinischen Nanotechnik werden uns ermöglichen, Kopien unseres Gehirns in die Supermaschinen herunterzuladen und so unseren Körper hinter uns zu lassen, glaubt er. Dann würden wir gewissermaßen ewig leben.

Ausgehend von Extrapolationen über den wissenschaftlichen und technischen Fortschritt sieht er die Welt auf einer Entwicklungskurve, die nicht linear steigt, sondern exponentiell – geradewegs auf die Singularität zu. Kurzweil nennt diese Beobachtung das „Gesetz der sich beschleunigenden Erträge“ aus Prozessor-Geschwindigkeit und -Effizienz. Anhand von Modellrechnungen und historischen Daten hat Kurzweil berechnet, dass die Singularität um das Jahr 2045 erreicht wird. Das allerdings halten wir für ziemlich weit hergeholt: Auch wenn eine Singularität nicht grundsätzlich undenkbar ist, wird sie doch, wenn überhaupt, erst in ferner Zukunft kommen.

Natürlich hat die Geschichte immer wieder jene widerlegt, die felsenfest versicherten, dass bestimmte Ereignisse auf keinen Fall eintreten könnten. Weil das Gehirn eines erwachsenen Menschen ein endliches Objekt ist, könnte seine Arbeitsweise im Prinzip durch fortgesetzte Forschungsbemühungen aufgeklärt werden. Doch soll die Singularität 2045 eintreten, wird dies an unvorhergesehenen und grundsätzlich unvorhersehbaren Durchbrüche liegen – und nicht am „Gesetz der sich beschleunigenden Erträge“.

Dieses Gesetz ist kein Naturgesetz, sondern eine Behauptung, die aus vergangenen Fortschritten abgeleitet ist. Ebenso wie andere Zukunftsprognosen gelten solche „Gesetze“ solange, bis sie nicht mehr gelten. Im Falle der Singularitätsprognose verläuft die künftige Entwicklung deshalb exponentiell, weil vorausgesetzt wird, dass es einen konstanten Zuwachs an immer größerer Rechenleistung geben wird. Für eine Singularität im Jahre 2045 wären aber nicht nur Fortschritte bei Hardware nötig, sondern auch bei der Software.

Um die Singularität zu erreichen, genügt es nicht, die heutige Software einfach nur schneller laufen zu lassen. Wir bräuchten auch intelligentere, fähigere Programme. Voraussetzung hierfür wäre aber ein wissenschaftliches Verständnis der Grundlagen menschlicher Erkenntnis. Hier kratzen wir gerade erst an der Oberfläche.

Es ist genau dieses fehlende Verständnis, das uns daran zweifeln lässt, die Singularität sei „nah“. Sicher, Hardware kann sich erstaunlich schnell entwickeln, wenn erst einmal ein solides wissenschaftliches Gerüst und neue ökonomische Anreize existieren. Um eine Maschinenintelligenz auf Singularitätsniveau zu bauen, bräuchten wir allerdings einen massiven wissenschaftlichen Fortschritt – der mit dem Moore’schen Gesetz nicht viel zu tun hat. Um eine entsprechende Software entwickeln zu können, müssten wir nicht nur wissen, wie das menschliche Gehirn physisch aufgebaut ist, sondern auch, wie die Milliarden Neuronen miteinander interagieren und dabei Denken und Bewusstsein hervorbringen.

Wir wissen aus der Geschichte, dass sich wissenschaftliche Entdeckungen nicht planen lassen. Das zeigen beispielsweise die Neurowissenschaft, die Krebsforschung oder die Kernfusionsforschung. Der wissenschaftliche Erkenntnisfortschritt läuft selten in geordneten Bahnen ab, oft ist er geradezu erratisch. Echte konzeptionelle Durchbrüche gleichen eher unvorhergesehenen Blitzen, die die Grundlagen akribischer Laborforschung in einem anderen Licht erscheinen lassen und Paradigmenwechsel nach sich ziehen. In der Neurowissenschaft war dies etwa bei der Entdeckung der Neuroplastizität der Fall: Donald Hebb postulierte Ende der 1940er Jahre, dass Neuronen, ja ganze Hirnareale neue Eigenschaften annehmen können, wenn sie unterschiedlich eingesetzt werden. Mit einer Beschleunigung im Stile des Moore’schen Gesetzes hat dies nichts zu tun.

Bei der Frage nach einer adäquaten wissenschaftlichen Beschreibung der menschlichen Intelligenz stoßen wir auch auf ein grundsätzliches Problem: die „Komplexitätsbremse“. Je tiefer wir in eine Materie eindringen, desto mehr Spezialwissen benötigen wir. Dabei werden unsere wissenschaftlichen Theorien immer komplexer. Das gilt auch für die Erforschung der menschlichen Kognition. Was müssen wir alles wissen, wenn wir das Gehirn auf der Mikroebene wirklich verstehen wollen? Jede einzelne Struktur ist in Jahrmillionen der Evolution präzise geformt worden, um bestimmte Dinge erledigen zu können. Das Gehirn ist gerade nicht wie ein Computer, der aus Milliarden gleichförmiger Transistoren in Speicherbausteinen besteht, die von einer CPU aus wenigen verschiedenen Komponenten gesteuert werden.

Je genauer wir das Gehirn untersuchen, desto mehr neuronale Variationen entdecken wir. Je mehr wir über das Gehirn herausfinden, desto schwerer ist es zu verstehen, desto mehr müssen wir vorherige Annahmen wieder in Frage stellen. Diese stetige Zunahme der Komplexität wird zwar eines Tages ein Ende haben, weil das Gehirn endlich ist. Aber in absehbarer Zukunft wird die Komplexitätsbremse ein Erreichen der Singularität verhindern.

Auch wenn wir eines Tages ein detailliertes Verständnis der neuronalen Struktur des Gehirns erreichen können, ist dies nach den bisherigen Erfahrungen kein Forschungsgebiet, auf dem die Erkenntnisse exponentiell zunehmen. Die Verfechter der nahenden Singularität behaupten immer wieder, dass wir Maschinenintelligenz erreichen können, indem wir das Gehirn Neuron für Neuron, „bottom up“ sozusagen, numerisch simulieren. Nehmen wir also einmal an, einige Wissenschaftler würden eine geniale Methode entwickeln, um das Gehirn zu scannen. Kurzweil geht davon aus, dass solch ein Superscanner aus Millionen von Nanorobotern bestehen würde, die innerhalb des Gehirns operieren. Dann wäre es möglich, argumentiert er, den Zustand eines jeden Neurons und seine Verbindung zu anderen Neuronen aufzuzeichnen, diese Daten in einen enormen Hirnsimulator zu laden und auf „Start“ zu drücken.

Strategien zur „Duplizierung des Gehirns“ gehen davon aus, dass es nur ausreichender Rechenleistung und detaillierter Neuronenstrukturmodelle bedarf, um die Simulation zu starten. Theoretisch könnte das stimmen – in der Praxis hat sich aber gezeigt, dass damit noch nicht alle Zutaten für eine Hirn-Software gegeben sind. Wollen wir etwa die Fähigkeit eines Vogels zu fliegen simulieren, brauchen wir mehr als ein exaktes Diagramm der Vogelanatomie. Wir müssen auch wissen, wie alle Körperteile zusammenwirken. In der Neurowissenschaft ist es nicht anders.

Zwar wurden Hunderte von Versuchen unternommen, verschiedene Neuronen in ihrer Verkettung samt ihrer chemischen Umgebung zu simulieren. Soll die Simulation wirklichkeitsnah sein, müssen wir aber auch wissen, welche Funktionen die Neuronen haben, wie sich ihre Verbindungsmuster entwickeln, wie sie zu Gruppen zusammengefasst werden, um äußere Reize in Information zu übersetzen, und wie die neuronale Informationsverarbeitung das Verhalten eines Organismusses beeinflusst. Weil dieses Wissen fehlt, sind effektive Simulationen im Rechner bis heute nicht möglich. Gerade hinsichtlich der menschlichen Kognition sind wir weit von dem notwendigen funktionalen Verständnis entfernt. Die existierenden Hirnsimulationsprojekte modellieren immer nur einen kleinen Teil der Neuronenaktivität. Von einem exponentiellen Fortschritt kann auf diesem Teilgebiet der Neuroforschung keine Rede sein. Im Gegenteil: Das Problem scheint immer größer zu werden, je mehr wir von der Komplexität des Hirns verstehen.

Alternativ zum Bottom-up-Ansatz setzen manche Verfechter der Singularität auf Künstliche Intelligenz (KI) als den Weg, der schnelleren Fortschritt verspricht. Tatsächlich hat die KI-Forschung einige Erfolge vorzuweisen, wenn es darum geht, isolierte kognitive Aufgaben nachzubilden. Das Watson-System von IBM hat dies zuletzt gezeigt, als es Fragen in der Quizshow Jeopardy! schneller als Menschen beantworten konnte. Im Großen und Ganzen hat die Erkenntnis aber auch in der KI-Forschung nicht exponentiell zugenommen, jedenfalls gemessen an der Messlatte einer vollentwickelten menschlichen Intelligenz.

Bei allen Erfolgen bei speziellen Aufgaben sind KI-Systeme doch immer beschränkt geblieben: Die Grenzen ihrer Leistungsfähigkeit sind durch ihre zugrundelegenden Annahmen und Algorithmen vorgegeben und lassen sich nicht überschreiten. Heutige KI-Systeme können nicht verallgemeinern und geben unsinnige Antworten, wenn die Frage nicht innerhalb des Gebiets liegt, für das sie ausgelegt sind. Ein Schachcomputer kann nur Schach spielen und sonst nichts. Selbst die besten medizinischen Diagnoseprogramme könnten nicht von selbst darauf schließen, dass ein Seiltänzer einen hervorragenden Gleichgewichtssinn hat.

Warum tun sich KI-Forscher so schwer damit, eine menschenähnliche Intelligenz zu schaffen? Zum Teil liegt dies an dem theoretischen Grundgerüst, mit dem sie arbeiten. Menschen entwickeln im Laufe ihrer Kindheit und Jugend ein allgemeines Weltwissen, das dann immer weiter verfeinert und durch Spezialwissen in einigen Gebieten erweitert wird. KI-Forscher haben hingegen den entgegengesetzten Ansatz verfolgt: Sie bauen Systeme, die ein umfassendes Wissen auf sehr eng umgrenzten Wissensgebieten haben, und versuchen dann, ein Allgemeinwissen zu kreieren, indem sie diese Spezialgebiete miteinander verbinden. Diese Strategie ist bislang nicht aufgegangen, auch wenn die Leistung des Watson-Systems darauf hindeutet, dass mit ihr noch mehr herauszuholen sein könnte.

Auch die wenigen Versuche, ein allgemeines Weltwissen im Rechner aufzubauen – Cycorp probiert dies zum Beispiel –, hatten nur mäßigen Erfolg. Die KI-Forschung fängt gerade erst an, theoretische Modelle für die Phänomene zu entwickeln, die die menschliche Kognition so flexibel machen: Unbestimmtheit, Sensitivität für Kontexte, Daumenregeln, Selbstreflexion oder Geistesblitze. Genauso wie in der Neurowissenschaft werden auch in der KI-Forschung viele Entdeckungen notwendig sein, um eine Maschine mit Singularitätsniveau zu schaffen. Auch hier behindert die Komplexitätsbremse den Fortschritt.

Unsere Fähigkeit, Kognition umfassend zu verstehen – sei es über die Neurowissenschaft, sei es über die KI-Forschung – ist selbst ein kognitiver Akt, der aus der Unvorhersehbarkeit des menschlichen Erfindungsreichtums entspringt. Fortschritt hängt hierbei entscheidend davon ab, wie unser Gehirn Informationen aufnimmt und verarbeitet, und wie kreativ Wissenschaftler sind, um neue Theorien zu ersinnen. Ebenso spielt eine Rolle, wie wir Forschung in solchen Disziplinen organisieren und Erkenntnis verbreiten.

Das Allen Institute for Brain Science arbeitet an Werkzeugen, mit denen Wissenschaftler die geradezu einschüchternde Komplexität meistern und ihre Arbeit beschleunigen sollen. Ein umfassendes Verständnis der menschlichen Kognition ist eine der schwierigsten Aufgaben, die es heute gibt. Wir machen zwar zum Teil ermutigende Fortschritte. Aber wir werden auch am Ende dieses Jahrhunderts noch darüber streiten, ob die Singularität wirklich nahe ist.

Paul Allen gründete 1975 mit Bill Gates Microsoft. Er ist Gründer und Aufsichtsratsvorsitzender des Unternehmens Vulcan, das unter anderem in Technik und Luftfahrt investiert. 2003 startete er zudem mit einer Anfangsinvestition von 100 Millionen Dollar das Allen Institute for Brain Science. Mark Greaves ist Informatiker und Direktor für Wissenssysteme bei Vulcan. (nbo)