"Es geht um den physikalischen Prozess"

KI-Rebell Rolf Pfeifer, Leiter des Labors für künstliche Intelligenz an der Universität Zürich, im TR-Gespräch.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 11 Min.
Inhaltsverzeichnis

Rolf Pfeifer ist Leiter des Labors für künstliche Intelligenz an der Universität Zürich. Im Laufe der vergangenen Jahre ist der auf den ersten Blick gar nicht kämpferisch wirkende Mann zur Galionsfigur einer wissenschaftlichen Rebellion geworden: Die "Neue KI" (Nouvelle AI) – eine Forschungsrichtung, die eine bunte Mischung aus Neurologen, Roboter-Forschern, Psychologen und Informatikern versammelt, hat sich von der klassischen KI-Forschung getrennt und beansprucht, deren wahres Erbe anzutreten. Im TR-Interview spricht Pfeifer über Robotik und den Zusammenhang zwischen Körper und Intelligenz.

Technology Review: Herr Pfeifer, in Ihrem neuen Buch haben Sie unter anderem angekündigt, eine Theorie der Intelligenz zu skizzieren. Nun habe ich immer gedacht, auf der Basis einer Theorie könne man auch Vorhersagen machen. Das können Sie aber nicht, oder? Ist das also wirklich eine Theorie?

Rolf Pfeifer: Ja, wir diskutieren das ja auch. Im klassischen Sinne ist es vielleicht keine Theorie. Aber wenn ich die Design-Prinzipien anwende, kann ich schon Vorhersagen machen über ein System. Ich kann beispielsweise sagen, was sinnvollerweise in einer bestimmten Umgebung gelernt werden kann. Aber etwas vorhersagen zu können, ist nicht das einzige Ziel einer Theorie.

TR: Sie haben einmal gesagt, dass Sie mit den klassischen KI-Forschern eigentlich überhaupt nicht mehr diskutieren. Nun war ja letztes Jahr das 50jährige Jubiläum der KI. Haben Sie in diesem Zusammenhang vielleicht doch erneut die Diskussion gesucht?

Pfeifer: Wir haben ja auch eine Tagung dazu gemacht und beispielsweise den Nils Nilsson als Hauptredner eingeladen. Der ist ja dieser klassischen Sichtweise verhaftet geblieben – obwohl er eigentlich ursprünglich viel mit Robotern gemacht hat. Aber ich glaube, die beiden Gebiete haben sich einfach auseinander gelebt. Sie verfolgen andere Zielsetzungen.

Der klassische Ansatz ist ja im Sinne von Anwendungen sehr erfolgreich gewesen. Schach ist ein schönes Beispiel. Das ist eine Super-Leistung, hat aber wenig damit zu tun, wie menschliche Schachspieler spielen. Wenn es mir also darum geht, ein Programm zu machen, das gut Schach spielt, dann ist das eine Super-Leistung.

Wenn es mir aber darum geht, etwas über die natürliche menschliche Leistung herauszufinden, dann lerne ich so nicht viel. Es ist die Zielsetzung, die unterschiedlich ist. Und wenn wir die Intention haben, etwas darüber zu lernen, wie sich Systeme in der realen Welt verhalten, dann muss ich mich mit der Idee des Embodiment auseinandersetzen. Dann kann ich nicht nur auf der algorithmischen Ebene bleiben.

TR: Das heißt, reine Software-Agenten bleiben in gewisser Weise immer begrenzt?

Pfeifer: Das sind eigentlich Programme, die vielleicht noch mobil sind. Aber im Prinzip sind es Programme und es werden auch Programme bleiben. Es hat ja mal einen Versuch gegeben, von Ed John glaube ich. Der hat versucht, die Konzepte von Brooks dort anzuwenden, aber das ist meines Erachtens nie von irgendjemand weiter geführt worden.

TR: Ein Problem mit Ihren Design-Regeln ist, dass ich nicht sagen kann, ich habe hier ein Problem, und wende die Design-Regeln an, dann muss ich das System so und so bauen. Sie können also hinterher erklären, wie sich ein System verhält, aber es nicht in eine bestimmte Richtung entwickeln, oder?

Pfeifer: Das ist natürlich eine berechtigte Frage. Es geht wieder ein bisschen um die Zielsetzung. Was sie beschrieben haben, ist sehr Task-orientiert. Da habe ich eine bestimmte Aufgabe. Evolutionär enstandene Systeme, und das ist ja das, wofür wir uns interessieren, die haben keine Tasks. Die funktionieren einfach in einer ökologischen Nische - oder auch nicht. Aber das Konzept der Aufgabe, das Ingenieursproblem, das gibt es dort nicht. Deswegen sind diese Prinzipen wahrscheinlich nicht gut für Probleme geeignet, bei denen ich einfach nur eine spezifische Aufgabe lösen will.

Eine ganz zentrale Erkenntnis für intelligente Systeme ist, dass diese Systeme durch die Interaktion mit der Umwelt ihre Sensorstimulation erzeugen – einerseits. Und andererseits durch diese Interaktion auch Korrelationen induzieren – was dann die Verarbeitung und das Lernen vereinfachen. Ich diskutiere beispielsweise ja auch mit den Leuten aus dem Bereich Ubiquitous Computing. Und bis jetzt ist das nur Sensor-Input. Dort wird man nie auf diese Art von intelligenten Systemen kommen, wenn man nicht eine substanzielle Handlungskomponente – die aktive Akquisition von Sensordaten – einführt.

TR: Wie könnte das aussehen?

Pfeifer: Erstens könnte man bewegliche Kameras haben. Wenn ich die Kameras bewege – das ist auch das Konzept von "Active Vision" – erzeuge ich optischen Fluss. Dieser optische Fluss enthält mehr Informationsstrukturen als wenn die Kameras nur still stehen. Das wäre ein erster, kleiner Schritt.

Man könnte sich beispielsweise auch vorstellen, dass ich in einem Museum durch Sensoren wahrnehme wo viele Leute sind, und dann vielleicht die Abtrennungen ändere, so dass ich da mehr Leute durchschleuse. Das ist auch die Idee des Embodiment: Durch einen physikalischen Prozess wird die Informationsverarbeitung verändert. Wenn ich ein Glas in die Hand nehme, wird durch das Ergreifen Sensorstimulation erzeugt – an den Fingerbeeren. Das ist das Rohmaterial für das Hirn zum Verarbeiten. Aber ich brauche diesen physikalischen Prozess dazu.

TR: Gibt es denn schon erste Experimente mit aktiven Komponenten im Ubiquitous Computing?

Pfeifer: Es gibt da verschiedene Leute. Der Alois Ferscha und andere fanden die Idee sehr spannend. Aber was jetzt daraus geworden ist, das weiß ich nicht. Aber vielleicht gibt es da auch noch ein psychologisches Problem: Sobald sich etwas physikalisch anfängt zu bewegen, wird es beunruhigend. Wenn einfach Sensoren da sitzen, dann ist das vielleicht unangenehm – aber die bewegen sich nicht.