Missing Link: Von den Mensch-Maschinen - wie stark ist Künstliche Intelligenz?

Seite 3: Keine Kognition ohne Körper - Nihat Ay über starke und schwache KI

Inhaltsverzeichnis

Nihat Ay, Leiter der Gruppe Informationstheorie kognitiver Systeme am Max-Planck-Institut für Mathematik in den Naturwissenschaften, im Gespräch mit heise online:

Herr Ay, bei all der Aufregung um KI in der jüngeren Zeit fällt auf, dass von dem ursprünglichen Ziel dieser Forschungen, nämlich menschliche Intelligenz zu verstehen und nachzubilden, kaum noch die Rede ist. Die Bundesregierung blendet in ihrer KI-Strategie diesen als "starke KI" bezeichneten Aspekt sogar komplett aus. Wie kommt das?

Nihat Ay: : Die Forschung ist heute leider stark getrieben und teilweise auch geblendet vom Erfolg des Deep Learning. Diese vorwärts geschichteten neuronalen Netze sind sehr leistungsfähig bei der Lösung spezifischer Aufgaben, sind aber auch völlig körperlos. Mit dieser Architektur, egal wie erfolgreich sie in den Anwendungen sein mag, werden wir Kognition und damit auch starke KI nicht verstehen können. Die muss immer eingebettet sein in einen Körper, der mit der Welt interagiert. Das ist die Idee der Embodied Intelligence.

Wäre starke KI nicht auch als Integration vieler anwendungsbezogener "schwacher KI" denkbar?

Ay: : Nein, da fehlen ganz wichtige Elemente. Unser Gehirn ist bei weitem nicht so stark geschichtet wie die künstlichen neuronalen Netze mit mittlerweile Tausenden von Schichten. Das Problem liegt daher nicht bei den einfachen Elementen, den Neuronen, sondern bei diesen Netzwerk-Architekturen, die in den Anwendungen zwar gut funktionieren, uns aber konzeptionell sehr weit vom biologischen Vorbild entfernen. Es gibt keine universelle Architektur, die für jeden Körper geeignet wäre. Anders gesagt: Ein Körper stellt durch seine physikalischen Eigenschaften den Kontext für eine Netzwerk-Architektur dar, die ihn optimal steuert. Im Rahmen des Schwerpunktprogramms "The Active Self" der Deutschen Forschungsgemeinschaft wollen wir diese Wechselwirkungen in der Interaktion zwischen Kognition, Körper und Welt genauer erforschen.

Nihat Ay

(Bild: Douglas Merriam, Santa Fe Institute, Max-Planck-Institut für Mathematik in den Naturwissenschaften)

Spielt das Bewusstsein dabei auch eine Rolle?

Ay: : Am Bewusstsein kommen wir nicht vorbei, wenn wir über starke KI sprechen. Wir stützen uns auf Giulio Tononis "Integrated Information Theory of Consciousness". Demnach ist das Bewusstsein ein Effekt hoher Informationsintegration im Gehirn. Tononi versucht, diesen Prozess mithilfe der Informationstheorie zu quantifizieren. Bewusstsein wird damit zu einer nicht nur rein qualitativen, sondern einer graduellen Angelegenheit. Ein Stein etwa, der keinerlei Information integriert, hat auch kein Bewusstsein. Bei einem Bakterium, einer Ameise, einem Menschen ergeben sich jeweils andere Werte. Man könnte die Methode aber auch auf eine Gesellschaft anwenden. Für all diese Systeme lässt sich ein Grad der Informationsintegration errechnen. Insofern ließe sich die Frage stellen, was für ein Bewusstsein eine ganze Gesellschaft hat, wenn wir die Individuen wie die Neuronen in einem einzelnen Gehirn betrachten.

Oder die Erde könnte ein planetares Bewusstsein entwickeln.

Ay: : Genau. Die Gleichsetzung des Bewusstseins mit dieser Größe, die von Tononi Phi genannt wird, ist allerdings zunächst einmal ein Postulat und muss experimentell unterfüttert werden. Dabei ergibt sich das Problem, dass sich der informationstheoretische Ansatz zur Quantifizierung des Bewusstseins auf unterschiedliche Weise umsetzen lässt. Inzwischen wurden mehrere verschiedene Versionen der Theorie präsentiert, die sich teilweise widersprechen und den Ansatz dadurch etwas unglaubwürdig machen. Ich versuche daher, die Theorie zu vereinheitlichen und will das im Rahmen unseres Projekts mithilfe von Informationsgeometrie voranbringen. Ein weiterer Schwerpunkt ist die Verbindung der Informationsintegration mit Embodied Intelligence.

Was genau muss ich mir unter Informationsintegration vorstellen? Ist es das Zusammenführen von Informationen aus unterschiedlichen Quellen zu einem einheitlichen Weltbild, ähnlich der Sensor Fusion in der Robotik?

Ay: : Das ist ein wichtiger Aspekt, aber nicht der Ansatz von Tononi. Der betrachtet zunächst das Gehirn isoliert und schaut sich an, wie viel Information dort fließt. Es wird dann etwa in zwei Sektoren unterteilt, A und B, und es wird gemessen, wie viel Information von A nach B übermittelt wird. Je stärker die Neuronen miteinander kommunizieren, so die Grundidee, desto bewusster ist das Gehirn. Mein Anliegen ist es, den Fokus stärker auf externe Stimuli zu legen, um Tononis Ansatz mit Embodied Intelligence zu verbinden. Zum Beispiel muss ich für die Lösung einer Aufgabe im physikalischen Raum, etwa das Laufen, ständig sensorische Inputs aufnehmen und verarbeiten. Dabei stellt sich die Frage: Wie viel Informationsintegration im Gehirn ist notwendig, um das Laufen zu realisieren? Wenn Tononis Theorie stimmt, brauchen wir Bewusstsein, um mit der Komplexität der Außenwelt zurechtzukommen.

(Bild: sdecoret / Shutterstock.com)

Ist Bewusstsein nicht gekoppelt an die Fähigkeit zur Unterscheidung zwischen sich selbst und der Umwelt, also eigentlich identisch mit Selbstbewusstsein?

Ay: : Dieser Gedanke liegt nahe und entsprach früher auch meinem Verständnis von Bewusstsein. Inzwischen folge ich aber dem Philosophen Thomas Metzinger, der drei Stufen des Embodiments unterscheidet: Die erste Stufe sind rein reaktive Systeme, die auf einen Input mit einem immer gleichen Output reagieren. Ein Beispiel dafür sind Passive Dynamic Walkers, also Laufmaschinen, die allein aufgrund ihrer Mechanik eine schiefe Ebene hinab laufen können. Sie zeigen ein Verhalten, das intelligent wirkt, aber nur durch eine einfache Rückkopplungsschleife ohne jede Informationsverarbeitung erzeugt wird. Hier findet noch keine Kognition statt, und es entsteht kein Bewusstsein. Die nächste Ebene ist die, auf der ein System gezwungen ist, Repräsentationen der Außenwelt zu generieren, um ein bestimmtes Verhalten zu realisieren. Auf der dritten Ebene schließlich verbindet das System ein Abbild seiner selbst mit diesem Bild der Außenwelt, ist also in der Lage, sich auf sich selbst zu beziehen. Dieses Modell von sich selbst ist in der einfachsten Version ein Bild des eigenen Körpers, es kann aber auch andere Aspekte des Selbst betreffen. Auf welcher Ebene können wir nun anfangen, von starker KI und Bewusstsein zu sprechen? Oder, um es in den Kontext von Tononis Theorie zu stellen: Ab welcher dieser Ebenen müssen wir von starker Informationsintegration ausgehen? Auf der reaktiven Ebene sicherlich nicht. Inwieweit es auf der Ebene der Repräsentationen der Fall ist, wie Metzinger vermutet, will ich studieren.

Wie wollen Sie da vorgehen?

Ay: : Eine Minimalanforderung für die Definition des Selbst, auf die wir uns im Projekt verständigt haben, verlangt, dass man den Körper als seinen eigenen wahrnimmt und auch Aktionen, die man durchführt, sich selbst zuschreibt. Ich nehme meine Hand als Teil meines Körpers wahr und führe die Änderungen der Umwelt, die ich damit vollziehe, auf mich zurück. In diesem Zusammenhang ist die Erfahrung der Körpererweiterung interessant: Wenn man einen bestimmten Gegenstand häufig nutzt, etwa eine Krücke, nimmt man ihn mit der Zeit mehr und mehr als Teil des eigenen Körpers wahr. Daraus können wir im Umkehrschluss die Annahme ableiten, dass wir den Körper anfangs gar nicht als zu uns gehörig wahrnehmen, sondern diese Zuschreibung erst mit der Zeit entsteht. Wir kennen das Phänomen von Prothesen, die zunächst als Fremdkörper wahrgenommen und nur allmählich in den Körper integriert werden. Diesen Prozess zu verstehen ist sehr wichtig, auch für das Verständnis der starken KI.

(Bild: Kiselev Andrey Valerevich / Shutterstock.com)

Von KI-Forschern ist gelegentlich der Einwand zu hören, dass sie die Ergebnisse zur Embodied Intelligence oder auch generell zur starken KI noch nicht überzeugen würden. Aber woran ließe sich der Fortschritt auf diesem Gebiet überhaupt messen? Gibt es Meilensteine, die Sie bei Ihren Forschungen im Auge haben?

Ay: : Einen Meilenstein habe ich mir mit meinem Projekt im Rahmen des Schwerpunktprogramms "The Active Self" gesetzt. Ich möchte beobachten, wo bei der Interaktion von einfachen Agenten mit einer relativ komplexen Welt so etwas wie ein Phasenübergang der Informationsintegration stattfindet. Wie viel Informationsintegration ist zur Herausbildung eines komplexen Verhaltens notwendig? Wenn es gelänge, das mathematisch zu beweisen und zu quantifizieren, wäre das ein großer Schritt nach vorne. Es gibt ein klassisches Resultat aus der Kybernetik, das nach seinem Entdecker William Ross Ashby benannte Gesetz der erforderlichen Varietät. Es kommt zur Geltung, wenn ein bestimmter Zielwert erreicht werden soll, etwa eine Wohlfühltemperatur, dabei aber ständig Störungen durch die Außenwelt ausgeglichen werden müssen. Ashby hat nachgewiesen, dass ein System dafür in der Lage sein muss, mindestens die Störungen der Außenwelt abzubilden. Das war der erste Nachweis, dass Repräsentationen der Außenwelt notwendig sind. Damit befinden wir uns aber schon in der zweiten von Metzinger postulierten Ebene des Embodiments. Dieses einfache Setting möchte ich erweitern zu einem Agenten, der mit der Welt interagiert, und beobachten, wo diese Übergänge erfolgen, angelehnt an die Kybernetik und übertragen auf das Gebiet der Embodied Intelligence. Wann wird zum Beispiel eine Selbstrepräsentation des Agenten notwendig? Das definiert für mich quantifizierbare Meilensteine. Ob Tononi mit seiner Gleichsetzung von hoher Informationsintegration und Bewusstsein tatsächlich recht hat, muss dann am Ende im Dialog mit Philosophen und Bewusstseinsforschern geklärt werden.

In der öffentlichen Diskussion über KI kann gelegentlich der Eindruck aufkommen, als sei die Erforschung starker KI eigentlich unseriös und keine richtige Wissenschaft. Sind Sie schon mit solchen Vorwürfen konfrontiert worden?

Ay: : Tatsächlich stoße ich mit meinen Forschungen gelegentlich auf Unverständnis, gerade im Zusammenhang mit der Integrated Information Theory. Die Gleichsetzung mit Bewusstsein wird immer wieder als Spekulation und damit als unseriös kritisiert. Vielleicht hat sich Tononi auch etwas zu weit aus dem Fenster gelehnt, indem er diesen Zusammenhang einfach postuliert hat. Ich sehe das aber pragmatisch: Irgendwo müssen wir anfangen. Wir können nicht erwarten, eines Tages aufzuwachen und klar formulierte Probleme vorzufinden. Das bringt mich noch einmal auf die eingangs erwähnte Blendung durch die Erfolge des Deep Learning: Diese Blendung kommt zustande, weil die Aufgaben dort sehr klar beschrieben wurden, sodass Mathematiker sich darauf stürzen und alles Mögliche analysieren konnten. Die starke KI ist als Ziel viel diffuser. Es gibt keine einheitliche Community von Forschern und auch keine derart klaren Fragestellungen; wir wissen nicht genau, wonach wir suchen. Und selbst wenn wir das wüssten, wären die Fragen nicht so klar umrissen, dass wir analytisch an sie herangehen könnten. Wir müssen daher durch einen Reifeprozess hindurch, bei dem verschiedene Ansätze ausprobiert und integriert werden sollten. Deswegen habe ich sowohl zur Leipziger Konferenz von 2013 als auch zu weiteren Konferenzen am Santa Fe Institute Teilnehmer aus sehr verschiedenen Disziplinen eingeladen. (jk)