Missing Link: Von den Mensch-Maschinen - wie stark ist Künstliche Intelligenz?

Seite 2: Maschinen-Intelligenz und kognitive Architekturen

Inhaltsverzeichnis

Die Diskussionen kreisen um verschiedene kognitive Architekturen, die teilweise seit Jahrzehnten entwickelt werden.

SOAR (State, Operator And Result) etwa wurde 1983 von Allen Newell, John Laird und Paul Rosenbloom erstmals an der University of Michigan vorgestellt. Die leitende Fragestellung war dabei die nach der Minimalausstattung, die erforderlich ist, um die gesamte Palette intelligenten Verhaltens zu realisieren. Im Zentrum steht ein paralleles, assoziatives Gedächtnis, das nicht nacheinander abgearbeitet wird wie in den meisten Programmiersprachen, sondern mithilfe von symbolischen Mustern die passenden Inhalte aufruft. Das können auch mehrere gleichzeitig sein. Bei einem unentscheidbaren Zielkonflikt erschafft das System automatisch ein neues Ziel: die Auflösung dieses Konflikts mithilfe weiteren Wissens. SOAR-Agenten sollen auf diese Weise die Fähigkeit haben, über ihr eigenes Denken zu reflektieren. Die Lösung jedes Zielkonflikts erzeugt dabei neues Wissen, das wiederum bei zukünftigen Konflikten zur Verfügung steht. Auf diese Weise soll SOAR seine Erfahrung generalisieren und sich an neue Situationen anpassen können.

NARS (Non-Axiomatic Reasoning System), das auf den Forscher Pei Wang (Temple University, Philadelphia) zurückgeht, ist darauf angelegt, mit unzureichenden Informationen und beschränkten Ressourcen umzugehen und aus Erfahrung zu lernen. Wie bei SOAR und anderen Architekturen hat sich um das System herum eine Forschergemeinde gebildet, die kontinuierlich an der Weiterentwicklung arbeitet. So stellten Xiang Li et. al. (Temple University, Philadelphia) auf der AGI-2018 einen Ansatz vor, Emotionen in NARS zu implementieren, um die generelle Leistungsfähigkeit des Systems zu erhöhen. Emotionen werden dabei modelliert als Zusammenspiel von Glaube, Wunsch und Erwartung (belief, desire, anticipation).

MRT-Bild eines menschlichen Gehirns. Schnitt sagittal.

(Bild: Christian R. Linder, Lizenz Creative Commons CC BY-SA 3.0, Bild Labeledbrain.jpg)

Andere Architekturen, über die diskutiert wird, sind der von Marc Hutter entwickelte lernfähige Agent AIXI, der Intelligenz als ein Belohnung suchendes System modelliert, oder das sich selbst verbessernde Computerprogramm Gödel Machine, das auf Jürgen Schmidhuber zurückgeht.

Um die Leistungsfähigkeit dieser verschiedenen Ansätze vergleichen zu können, haben die Autoren einer 2012 im "AI Magazine" veröffentlichten Roadmap für starke KI mehrere Aufgabenstellungen vorgeschlagen, die jedoch überwiegend auf der Ebene symbolischer Informationsverarbeitung angesiedelt sind. So könnte etwa getestet werden, wie gut künstliche Agenten in der Lage sind, neue, ihnen bislang unbekannte Computerspiele zu lernen. Andere Szenarien sind das Lernen in Kindergarten und Vorschule, das Verständnis gelesener Texte oder von Geschichten und Szenen, die auf andere Weise dargeboten werden. Beim Lernen in der Schule mit älteren Schülern soll es auch um das Verständnis der sozialen Beziehungen im Klassenzimmer gehen. Bei all diesen Aufgabenstellungen sei jedoch eine physische Präsenz nicht zwingend erforderlich, betonen die Autoren der Studie. Vielmehr könnten die Schnittstellen zunächst virtuell bereitgestellt werden.

Lediglich auf der höchsten Stufe, dem "Wozniak-Test", geht es nicht ohne Körper. Er ist benannt nach dem Apple-Mitbegründer Steve Wozniak, der einmal vorgeschlagen hat, ein intelligenter Roboter sollte in der Lage sein, in ein ihm unbekanntes Haus zu gehen und dort eine Tasse Kaffee zuzubereiten.

(Bild: Phonlamai Photo / Shutterstock.com)

Während diese Roadmap den Eindruck erweckt, als könne starke KI weitgehend körperlos entwickelt werden, um sie dann irgendwann auch auf physische Agenten zu übertragen, gehen andere Forscher davon aus, dass der Körper von vornherein konzeptionell einbezogen werden muss. So kritisierte David Kremelberg (Icelandic Institute for Intelligent Machines, Reykjavik) auf der AGI 2019 die Annahme, dass starke KI im Wesentlichen eine Frage der richtigen Algorithmen sei. Er verwies auf zahlreiche Erkenntnisse der Neurowissenschaft, die nahelegen, dass starke KI ohne Berücksichtigung des Körpers nicht realisiert werden kann.

Über diesen Bottom-up-Ansatz der "Embodied Intelligence, der starke KI von unten wachsen lassen will, ist im Rahmen der AGI ansonsten aber nur wenig zu erfahren. Die Forschung selbst findet woanders statt. So hat Nihat Ay bereits im Jahr 2013 in Leipzig die erste Konferenz zu "Conceptual and Mathematical Foundations of Embodied Intelligence" veranstaltet, auf der die Teilnehmer darüber diskutierten, wie aus dem Wechselspiel von Wahrnehmung und Handeln, der "sensomotorischen Schleife", Intelligenz erwachsen könne.

Die Embodied Intelligence arbeite auch mit Architekturen, sagt Ay. Diese beschrieben aber die Strukturen der neuronalen Netze, deren Konnektivität und Schichtungen, während es bei den kognitiven Architekuren um gröbere Strukturen ginge: "Die Knoten des Netzwerks sind dort nicht die Neuronen, sondern bestimmte Funktionen. Ob die von einzelnen Neuronen übernommen werden oder von einer Gruppe von Neuronen, ob diese Neuronen an einer Stelle konzentriert oder über das Gehirn verteilt sind, ist dabei völlig unklar." Ohne die Kopplung zum neuronalen Netz und seiner Mikrostruktur mache die kognitive Architektur aber wenig Sinn. Bei der Beschreibung der Kontrolle durch das Gehirn gebe es daher eine bislang unüberbrückbare Kluft zwischen den Top-down-Ansätzen zur starken KI und dem Bottom-up-Ansatz der Embodied Intelligence, den Nihat Ay im Interview näher erläutert.