Das Geheimnis der Intelligenz liegt nicht im Gehirn

Ein Gespräch mit Rolf Pfeifer, dem Leiter des Labors für Künstliche Intelligenz am Institut für Informatik der Universität Zürich

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Das Geheimnis der Intelligenz ist nicht im Hirn - und sie lässt sich nicht mit einem Computer simulieren. Zu dieser ernüchternden Einsicht gelangte die Forschung im Bereich der künstlichen Intelligenz Mitte der 80er Jahre. Die Forschung orientierte sich neu und schuf den Begriff der "Neuen künstlichen Intelligenz". Intelligenz hat demnach mit Verhalten zu tun, und wer sie erforschen will, braucht autonome Systeme, die in einer realen Interaktion mit der Außenwelt stehen - wie zum Beispiel Roboter. Rolf Pfeifer, der Leiter des Labors für künstliche Intelligenz am Institut für Informatik der Universität Zürich, legte unlängst, zusammen mit Christian Scheier, mit dem Werk Understanding Intelligence eine auch für Nichtinformatiker leicht lesbare Gesamtdarstellung der Einsichten im Feld der "Neuen künstlichen Intelligenz" vor.

Im Film "2001 - A Space Odyssey" des Regisseurs Stanley Kubrick aus dem Jahr 1968, hat ein intelligenter Computer namens Hal das Kommando und führ die Mission ins Verderben. Damit drückte der Autor existierende Ängste vor dem Computer aus. Hat der Computer Hal für Sie etwas mit künstlicher Intelligenz zu tun?

Rolf Pfeifer:: Die Vision entspricht dem traditionellen Verständnis von künstlicher Intelligenz, das sehr lange verfolgt wurde. Es beruht auf der Vorstellung, dass Intelligenz letztlich auf bestimmte Algorithmen reduziert werden könnte. In dieser Vorstellung spielt die effektive Realisierung keine Rolle: die Algorithmen können im Hirn, in einem Computer oder auch in einem Stück Emmentaler Käse berechnet werden, um ein Bild des Philosophen Hillary Putnam zu brauchen. Tatsächlich ist der Computer Hal auch ohne eigentlichen Körper, er wird im Film durch eine beunruhigend wirkende Kontrolllampe symbolisiert. Das ist genau der Punkt. In diesem Konzept ist der Computer eine Metapher. Genau so denkt heute auch der Mensch von der Strasse. Diese Vorstellung geht davon aus, dass auch der Mensch letztlich eine informationsverarbeitende Maschine ist. Diese Vorstellung ist falsch.

Und der Schachcomputer "Deep Blue", mit dem es den Ingenieuren von IBM 1997 gelang, den Schachweltmeister Kasparov zu besiegen - ist das auch künstliche Intelligenz?

Rolf Pfeifer: Auch Deep Blue ist ein Beispiel für einen traditionellen Approach ans Thema künstliche Intelligenz. Bitte verstehen Sie mich recht: Hinter Deep Blue steckt eine grandiose technische Leistung. Der Grund dafür, dass Deep Blue so erfolgreich war, ist folgender: Schach ist genau die richtige Anwendung für die traditionelle Auffassung von künstlicher Intelligenz. Schach ist ein formales Spiel. Jede Position im Spiel lässt sich mit formalen Regeln eindeutig beschreiben. Es findet keine Interaktion mit der Umwelt statt oder sie ist trivial und besteht aus dem Verschieben von Figuren. Deep Blue liefert keinen Beitrag zur Frage, was Intelligenz ist. Man muss allerdings auch beifügen, dass dies gar nicht das Ziel des Projekts war. IBM wollte beweisen, dass ein Schachprogramm auch den besten menschlichen Spieler schlagen kann.

Weshalb interessiert sich die Forschung überhaupt für künstliche Intelligenz?

Rolf Pfeifer: Diese Frage hat den Menschen immer schon interessiert. Die ganze philosophische Literatur ist voll davon, es ist eine der ganz großen Fragen: Was ist der Unterschied zwischen Mensch und Tier?

Die Forschung im Bereich hat genau genommen drei Ziele: Erstens wollen wir verstehen, was natürliche Intelligenz ist und wie sie funktioniert. Dann wollen wir intelligente Artefakte bauen können und schließlich Prinzipien des intelligenten Verhaltens eruieren. Das sind dann die gleichen Prinzipien, die auch natürlicher Intelligenz zugrunde liegt. Wir haben versucht, diese Prinzipien hervorzuholen. Das sind Designprinzipien, die auch auf natürliche Systeme zutreffen.

Für uns ist die Einsicht wichtig, dass rationales Denken und rationales Verhalten nicht dasselbe sind. Auch in der AI-Forschung machte man lange Zeit dieselben Fehler und meinte, rationales Verhalten müsse auf rationales Denken zurückgeführt werden. Das zeigt ein Blick auf das Verhalten der Ameisen: Sie verhalten sich zweckdienlich und optimieren den kürzesten Weg zur Futterquelle. Aber sie macht das nicht analytisch-deduktiv. Sie benutzen Pheromonspuren, die mit der Zeit verdunsten. Dann findet ein Prozess der Selbstorganisation statt. Der Beobachter stellt dann fest, dass die Ameise den optimalen Weg gefunden, aber dass sie kein Bewusstsein davon hat.

Besteht heute Einigkeit, dass der Weg zur Erforschung der Intelligenz nicht über große Computer führt, sondern über kleine autonome Roboter?

Rolf Pfeifer: Es gibt in der AI-Forschung keine einheitliche Community, aber es ist einem großen Teil der Forscher klar, dass sich Intelligenz nicht auf der Ebene eines Computers respektive eines Algorithmus abhandeln lässt. Zu dieser Einsicht gelangte man an ganz verschiedenen Orten. Entscheidend waren dabei sicher die Arbeiten von Rodney Brooks vom AI-Labor am Massachusetts Institute of Technology. Es gab aber in der Philosophie und Linguistik schon lange Leute, die darauf hingewiesen haben.

Warum geht es nicht mit dem Computer alleine?

Rolf Pfeifer: Früher dachte man, dass man, wenn man einmal ein gutes Schachprogramm hat, dann auch die Prinzipien der Intelligenz verstanden hätte und nur noch eine Kamera und einen Roboter an diesen Computer anschließen müsste, um zu Interaktionen mit der Umwelt zu kommen. Dass dies nicht geklappt hat, hat vor allem mit der Problematik der Kognition zu tun: Maschinelle Wahrnehmung ist ein riesiges Problem. Man kann nicht einfach Sensorstimulation nehmen und abbilden. Das Auge "sieht" Farbwerte ohne Sinn. Was hier hereinkommt, ist nicht Information, sondern Sensorstimulation, die kontinuierlich variiert wird.. Das Hirn wird überflutet von ständig wechselnden Informationen, mit denen es etwas machen muss. Die Aufgabe eines intelligenten Organismus besteht darin, aus dieser Sensorstimulation Informationen zu gewinnen.

Dann versuchte man, Roboter zu konstruieren, die gewisse Aufgaben bewältigen können. Auch das gelang vorerst nicht. Schließlich kam Rodney Brooks mit seinem Papier über die "Subsumption Architecture" und bewies, dass der herkömmliche Ansatz nicht funktioniert. Früher ging man davon aus, Intelligenz sei im Hirn zentralisiert und Information werde nach dem Prinzip "sense - think - act" verarbeitet. Auch mit enorm schnellen Computern geht das nicht, die Datenmenge, die verarbeitet werden muss, ist schlicht zu groß. Seine Idee war deshalb, dass man diese Kopplung enger machen muss. Es ist eine direkte sensorisch-motorische Kopplung nötig, anders könnte man in der realen Welt gar nicht überleben.

Unsere Computerprogramme sind aber alle sequentiell - und genau so funktioniert Intelligenz nicht. Darum hat man sich den neuronalen Netzen zugewandt. Sie haben verschiedene Eigenschaften, die für uns ganz wichtig sind. Dazu gehört etwa die Generalisierung. Im Schach gibt es identische Zustände, doch in der wirklichen Welt gibt es nie zweimal dieselbe Situation. Darum ist diese Fähigkeit zur Generalisierung entscheidend. Neuronale Netze bieten zudem die notwendige Robustheit und Redundanz. In natürlichen Systemen ist Redundanz ein ganz wichtiger Bestandteil. Dazu kommt auch die Lernfähigkeit. Aber auch neuronale Netze lösen nicht alle Probleme. Ungelöst ist zum Beispiel das sogenannte "Symbol Grounding Problem": Bei einem Computerprogramm - nehmen Sie zum Beispiel einen Fahrplan - sitzt immer jemand vor dem Bildschirm, der die Daten interpretiert. Wenn man diese Person aus dem System herausnimmt, ist das Programm plötzlich total sinnlos. Darum dürfen wir nicht symbolische Information verarbeiten!

Also weg von der digitalen Welt zurück zur analogen...

Rolf Pfeifer:: Intelligentes Verhalten hat nichts mit Symbolverarbeitung zu tun. Um dies zu erforschen, brauchen wir reale Körper. Der Körper ist eine notwendige Bedingung für die Intelligenz, und Körper heißt in unserem Fall Roboter. Das hat nichts mit der Robotik der Science-Fiction-Welten zu tun. Roboter sind Forschungsinstrumente. Wir sind gezwungen, Roboter zu verwenden. Wir wollen autonome Roboter, die selber direkt mit der Umwelt interagieren. Der Mensch darf nicht dazwischengeschaltet werden.

... und hier spielen die klassischen Begriffe von kognitiven und sensomotorischen Tätigkeiten eine Rolle?

Rolf Pfeifer:: Das ist wiederum die traditionelle Sichtweise. Wenn man die Frage nach den Mechanismen stellt, die dahinter liegen, gibt es diese Unterschiede plötzlich nicht mehr. Es gibt kein reines Denken. Zum Beispiel Sprache: Sie ist die komplexeste aller Tätigkeiten. Ist das nun kognitiv oder sensomotorisch? Es ist immer beides! Darum beschäftigen wir uns auch mit Babies. Sie können uns nichts vorschwindeln. Sie lernen die Welt kennen, indem sie ausprobieren, sie nehmen alles in den Mund, schmeißen es auf den Boden und sehen, was dabei herauskommt. Sobald man den Austausch mit der Umwelt reduziert, dreht das System durch.

Ein wichtiger Begriff in dieser Diskussion ist die Emergenz. Was ist genau damit gemeint?

Rolf Pfeifer:: Mit Emergenz meinen wir Selbstorganisation. Sie entsteht, ohne dass es einen ausdrücklichen Willen dazu gibt. Ich kann das Verhalten der Ameisen, die auf dem Weg ihrer Futtersuche Hindernissen ausweichen, nicht auf einen bestimmten Mechanismus des Ausweichens reduzieren. Eine Ameise mit einem - hypothetischen - großen Körper verhält sich anders als eine kleine. Es gibt keinen inneren Mechanismus für dieses Verhalten. Verhalten ist eben emergent und ergibt sich aus der Interaktion mit der Umwelt.

Könnte man die Prinzipien der "New Artificial Intelligence" mit den zentralen Begriffen Embodiment, Emergenz, Neuronale Netze und Redundanz beschreiben?

Rolf Pfeifer: Man müsste noch den Begriff der synthethischen Methodik einführen - Verstehen durch Nachbauen. Auch den Begriff der sensomotorischen Kopplung scheint mir wichtig zu sein: Was immer ich auch mache, ich erzeuge Sensorstimulation. Deshalb ist Wahrnehmung ein sensomotorischer Prozess. Darauf kommt man nur, wenn man mit Robotern arbeitet, nicht mit Computerprogrammen. Auch der Begriff des "cheap design" gehört dazu: Biologische Systeme sind immer extrem einfach und billig.

Widersprechen sich nicht Cheap Design und Redundanz?

Rolf Pfeifer:: Das stimmt bis zu einem gewissen Grad, aber die beiden Prinzipien ergänzen sich auch: Die Systeme der Natur sind einfach, sie nutzen alle Gegebenheiten aus. Es gibt in der realen Welt keine Universalität, sondern nur spezifische Situationen und spezifische Lösungen. Die Natur hat die Tendenz, über die Evolution diese Gegebenheiten auszunützen. So kommt man auf einfache Lösungen .Ein Beispiel dafür ist die Anordnung der Facetten im Insektenauge. Cheap Design heißt Gegebenheiten, Schwerkraft, Physik, Geometrie ausnützen.

Auf der anderen Seite gibt es bei adaptiven System das Prinzip der Redundanz. Das wird ja auch in der Flugzeugtechnik verwirklicht. Die Natur ist das bessere Entwicklungsmodell als die Technik. Sie verdoppelt nicht einfach, sondern erzeugt partielle Überlappungen. Das linke Auge hat andere Informationen als das rechte. Auge und Ohr ergänzen sich und überlappen sich teilweise. Das ist gute Redundanz.

Welche Folgerungen ergeben sich aus den Prinzipien der "New Artificial Intelligence"

Rolf Pfeifer:: Die Informatik hat sich etabliert. Das ist einer der größten technologischen Erfolge unserer Gesellschaft - und hat die Gesellschaft nachhaltig verändert. Wenn ich sage, dass man darüber hinausgehen muss, so ist das keine Kritik an der Informatik. Die klassische Informatik befasst sich mit der Programmierung. Dort spielt ja eben gerade die Realisierung keine Rolle, aber genau diese Idee müssen wir heute überwinden.

Die Japaner haben hier einen interessanten Ansatz. Sie wollen intelligente Geräte herstellen. Eine Stereoanlage beispielsweise oder eine Waschmaschine. Die Japaner verlagern einen Teil der Interaktion mit der Maschine in die Maschine selber und bauen in Waschmaschinen Sensoren ein, die zum Beispiel selber schauen, was für Gewebe drin sind und wie schmutzig die sind. Wir stehen erst am Anfang solcher Anwendungsmöglichkeiten. Wir stoßen in eine total neue Dimension vor. Sensoren können kaputt sein, sie können falsche Informationen erzeugen. Dann muss ich überlegen, was ich überhaupt von diesen Robotern bekomme.

Und welche Folgerungen ergeben sich aus diesen Ideen für andere Wissenschaften?

Rolf Pfeifer: Das ist eine interessante Frage: Wir haben keine Probleme, die Organisation der Ameisen als emergente Organisationsweise zu erklären. Sobald wir diese Erklärungen aber auf menschliches Verhalten anwenden, schrecken wir zurück. Diese Erklärungsmuster laufen unserem Weltbild zuwider, in dem wir selber im Mittelpunkt stehen und alles kontrollieren. Es fällt uns schwer zu akzeptieren, dass sich viele Strukturen selber ergeben und nicht das Resultat unseres analytischen Denkens sind.

Eine Mitarbeiterin in unserem Institut arbeitet zur Zeit an der Simulation des Verhaltens von Primaten. In ihrer Versuchsanordnung waren am Schluss die dominanten Affen in der Mitte und die weniger dominanten an der Peripherie. Wir interpretieren das als hierarchische Struktur, aber genau diese Struktur ist in den Individuen nirgends repräsentiert. Sie ergibt sich durch das Verhalten der Einzelnen.

Zurück zum Anfang. Im Film "Odyssey 2001" übernimmt Hal die Kontrolle. Es gibt auch heute Wissenschafter, die solche Theorien glauben: Moravec und Kurzweil beispielsweise. Was halten Sie von der Vorstellung, dass der Computer eines Tages die Kontrolle über uns übernehmen wird?

Rolf Pfeifer: Als Wissenschafter würde ich nicht sagen, so etwas kann nie passieren. Das wissen wir nämlich nicht. Aber ich halte es für reichlich naiv. Vielleicht steckt hinter diesen Theorien ein nicht angemessenes Verständnis von Intelligenz. Solche Theorien wurden auch mit einem Seitenblick auf ihre Medienwirksamkeit entwickelt. Die Idee vom bösen Monster, das die Macht übernimmt (Robo-Armageddon), ist attraktiv für die Medien. Ich glaube allerdings, dass die Entwicklung anders verlaufen wird, vielleicht etwas weniger spektakulär. Den humanoiden Roboter sehe ich nicht. Es gibt ja auch noch einen Markt, der mitbestimmt. Wir werden Intelligenz in die Umwelt mit den Information Appliances enstreuen, aber das wird verteilte Information sein. Die Konzepte kommen immer noch vom Menschen. Es ist ja auch nicht weiter störend, dass uns Maschinen in gewissen Bereichen überlegen sind. Aber so ganz banal wäre ja eine Machtübernahme nicht, denn da müsste auch noch Selbstreproduktion dabei sein.

Noch eine Bemerkung zu den Neuroimplantaten, hinter denen vielleicht auch eine falsche Idee steckt. Das Hirn ist nicht kein Schaltkreis, es ist auch eine Chemiefabrik. Wenn ich Neurochips mache, müssten sie auch sensitiv für diese chemischen Agenten sein, die im Hirn aktiv sind, und ebenfalls solche Stoffe produzieren können. Wenn man solche Funktionen nachbilden will, dann müsste man praktisch das gleiche Substrat nehmen, also organisches Gewebe.