„Produktive Faulheit“
Seit fünfzig Jahren versuchen Informatiker und Kognitionswissenschaftler, Computer mit menschenähnlichen Fähigkeiten auszustatten. Wir sprachen mit einem ihrer Vordenker über Vergangenheit und Zukunft der künstlichen Intelligenz.
Aaron Sloman wurde 1936 geboren und studierte zunächst Mathematik, promovierte dann aber in Philosophie. Anfang der 70er Jahre ließ er sich nach eigenen Worten zu der Vorstellung „bekehren“, Intelligenz in der Maschine nachzubauen sei „der beste Weg, Philosophie zu betreiben“. Von 1991 bis 2005 forschte und lehrte Sloman als Honorarprofessor für künstliche Intelligenz und Kognitionswissenschaften an der University of Birmingham. Wir unterhielten uns mit ihm am Rande des Symposiums „50 Jahre künstliche Intelligenz“ in Bremen, bei dem Sloman einer der Gastredner war.
c't: Was ist Intelligenz?
Aaron Sloman: Ich möchte das nicht gerne definieren. Intelligenz funktioniert nicht auf eine einzige Weise, sie unterscheidet sich bei Ameisen, Bienen, Reptilien oder Menschen. Die Evolution hat bestimmte Wege durch diesen Raum der Varianten von Intelligenz gefunden, andere durchläuft jeder Mensch im Lauf seiner Entwicklung. Wir können diesen Raum auch verlassen, wie die Schachcomputer zeigen: Nichts in der Natur funktioniert wie Deep Blue.
Aber es gibt ein Kernthema bei den verschiedenen Intelligenzformen, das man in zwei Worten zusammenfassen kann: „Produktive Faulheit“. Um den Aufwand zu reduzieren, versucht jede Intelligenz, Informationen darüber zu benutzen, was möglich ist und was nicht. Denn normalerweise erfordert es eine Menge Arbeit, ein System so zu ändern, dass es Dinge mit weniger Mühe erledigt.
c't: Wie kommt man der künstlichen Intelligenz auf die Spur?
Sloman: Ich versuche, Informatik und Mathematik mit den älteren Fragen der Philosophie über die Natur des Geistes zu verbinden. Dabei ist es mein Ziel, zu verstehen, auf welche Weise die Varianten im Raum der möglichen Intelligenzen funktionieren. Ich will Computer nicht für nützliche Dinge einsetzen, sondern um Ideen auszuprobieren - Wege zu suchen, wie Computer etwas vollbringen können, das vorher nur Menschen konnten.
Die Forschung zur künstlichen Intelligenz wird die Welt verändern. Nicht durch neue Techniken, sondern sie wird die Art verändern, wie wir über uns selbst denken. Wir sind informationsverarbeitende Maschinen - die kompliziertesten informationsverarbeitenden Maschinen der Welt, programmiert von der Evolution.
c't: Worin unterscheidet sich die KI-Forschung heute von der vor 50 Jahren?
Sloman: Die Maschinen sind enorm viel leistungsfähiger. Wir können heute Dinge ausprobieren, die vor 50 Jahren schlicht unvorstellbar waren. Manchmal ist das gut, manchmal schlecht, weil die Leute aufhören zu denken - sie benutzen nur noch die Maschinen und tun selbst nichts. Noch etwas: Es gab damals einige Leute, die über das gesamte Problem der künstlichen Intelligenz nachdachten, heute gibt es Tausende, die in kleinen Forschergemeinden an winzigen Teilen arbeiten. Wir haben heute beeindruckende Fragmente künstlicher Intelligenz, die nützlich für Ingenieure sind. Aber nur sehr wenige fragen: Wie können wir die Teile zusammenfügen und was sind die Voraussetzungen dafür? Vor 50 Jahren haben die Forscher das versucht, aber ihre Programme waren zu trivial. Heute haben wir beeindruckende Implementierungen, aber wir versuchen nicht, das Richtige damit zu machen.
c't: Woran liegt das?
Sloman: Einer der Gründe ist die Forschungsfinanzierung. Die übt den Druck aus, laufend publizieren und Erfolge vorweisen zu müssen. Versucht man, zwei unterschiedliche Ansätze zusammenzubringen, betritt man Neuland mit dem Risiko, dass man in den nächsten drei Jahren kein einziges wissenschaftliches Papier veröffentlicht. Wenn man Förderung eher danach verteilen würde, welche Fragen sich Forscher stellen, dann gäbe es vielleicht mehr Leute, die versuchen, die Einzelteile zusammenzusetzen. Aber ich sehe keine Anzeichen dafür, dass die Regierungen etwas in dieser Richtung ändern wollen.
c't: Welche Probleme aus der ersten Phase der KI sind inzwischen gelöst?
Sloman: Man hat Computern sehr schnell beigebracht, mathematische Theoreme zu beweisen. Solche Werkzeuge sind heute im täglichen Einsatz. Sie haben immer noch keine guten Ideen, welche Theoreme das sein sollen, aber sie helfen Mathematikern, Beweise dafür zu prüfen. Oder denken Sie an Computer, die natürliche Sprache verstehen. Mein letzter Kontakt mit einem Dialogsystem am Telefon hat mich beeindruckt, ich konnte dem Programm klarmachen, dass ich keinen Flug buchen, sondern nur einen Sitzplatz reservieren wollte. Solche Systeme sind beschränkt, aber sie funktionieren.
c't: Gab es auch Fragestellungen der ersten Stunde, die sich mittlerweile erübrigt haben?
Sloman: Der Turing-Test ist sicherlich uninteressant. Alan Turing beschrieb ihn, um eine Diskussion loszutreten. Er machte eine streng begrenzte Voraussage: Am Ende des Jahrhunderts würden Computer rund drei Vierteln der Bevölkerung fünf Minuten lang vormachen können, mit einem Menschen zu kommunizieren. Turing wollte Einwände provozieren, nicht den Test wirklich durchführen. Ich glaube, mittlerweile gibt es Maschinen, die ihn in der von Turing formulierten Art bestehen würden.
c't: Dennoch hört man oft, noch kein Programm habe den Test bestanden.
Sloman: Die Tests heute laufen länger als fünf Minuten, und die Probanden sind oft Experten, die einiges über den Test wissen. Die sind natürlich viel schwerer hinters Licht zu führen, sie können ihre Fragen verfeinern und interpretieren die Antworten.
c't: Wissen KI-Systeme, was sie nicht wissen?
Sloman: Sie sollten ihre Grenzen kennen, das ist wichtig. Manche wissen etwas darüber - die meisten nicht.
c't: Gerade in der Anfangszeit der KI-Forschung wurden vollmundige Ankündigungen gemacht, was Computer in zehn Jahren würden leisten können; Marvin Minsky tut das bis heute. Schadet das dem Ansehen des Forschungsansatzes?
Sloman: Ich glaube, Minsky denkt, dass die Disziplin festgefahren ist. Er versucht, Leute zu schockieren - sie sollen merken, dass die Vorstellung, das könnte alles nicht passieren, nicht sehr fundiert ist. Ich kann mich allerdings nicht daran erinnern, Dinge von ihm gelesen zu haben, bei denen ich dachte „Das ist dumm“, wie bei anderen Leuten.
c't: Es gibt also dumme KI-Forscher?
Sloman: Manche von ihnen sind ziemlich schlau - in technischen Dingen. Aber sie machen dumme Voraussagen. Die Forscher, die in Japan an den „Maschinen der fünften Generation“ gearbeitet haben, haben viele einfältige Ankündigungen gemacht. 1984 sagten sie: „Wir werden ganz neue Computer bauen, deren Programmierung auf mathematischer Logik beruht und die alle Probleme der künstlichen Intelligenz lösen werden.“
c't: Der Japaner Hiroshi Ishiguro baut Roboter, die Menschen täuschend ähnlich sehen. Glauben Sie, dass das sinnvoll ist?
Sloman: Das hängt von deren Einsatzzweck ab. Wenn der Roboter eine Unterhaltungsmaschine sein oder in Bildung oder bei Therapien eingesetzt werden soll, kann es sehr wichtig sein, dass er Gesichtsausdrücke beherrscht. Ich habe den Verdacht, dass es eine kulturell bedingte Anfangsphase gibt, in der Leute humanoide Roboter brauchen, um Angst oder Unsicherheit gegenüber den Maschinen zu verlieren. Wenn Roboter ähnlich wie Menschen auf Menschen reagieren, ist das ein Weg, den Menschen zu zeigen, wie sie mit den Maschinen umgehen können. Wenn die Menschen aber erst einmal gelernt haben, dass man auch mit Maschinen ganz normal deutsch reden kann, dann müssen Roboter vielleicht nicht mehr lächeln können.
c't: Dabei ist den Menschen aber immer klar, dass sie mit einer Maschine interagieren?
Sloman: Wir zeigen an Tagen der offenen Tür oft eine simple Version von Eliza und sagen den Besuchern auch, dass es sich dabei um ein ziemlich primitives Programm handelt. Aber es gibt immer wieder Leute, die sich tief in den Dialog verbeißen. Einmal hat sich eine ganze Gruppe kaputtgelacht, als Eliza auf die Aussage „Ich habe Schwierigkeiten, mit Leuten zu kommunizieren“ geantwortet hat: „Erwartest du wirklich, dass ich das verstehe?“ Die Leute fanden das lustig, ohne zu glauben, dass der Computer wirklich einen Sinn für Humor hat. Tatsächlich kam diese Antwort nur zustande, weil das Wort „communicate“ mehr als acht Buchstaben hat und eine der Regeln des Programms sagt, dass eine Entgegnung auf einen Satz mit einem solch langen Wort eben jene Gegenfrage ist.
c't: Was unterscheidet künstliche Intelligenz von anderer Intelligenz?
Sloman: Ich weiß es nicht, und niemand weiß es. Aber viele Menschen haben Vorurteile: Sie wollen nicht glauben, dass Maschinen auf Computerbasis wie Menschen funktionieren können. In Computern gibt es spezielle Hardware, die Dinge tut, welche Gehirne nicht beherrschen, etwa komplizierte Rechnungen mit Gleitkommazahlen. Dafür läuft menschliche Intelligenz auf einer Maschine mit Stoffwechsel. Das prägt die Informationsverarbeitung - im Computer ist alles einfacher. Aber wir sind noch nicht in der Lage zu sagen, welche Auswirkungen dieser Unterschied hat. Man muss sich alle Differenzen und Gemeinsamkeiten anschauen und dann untersuchen, ob und warum sie wichtig sind.
Derzeit bestehen viele Unterschiede auf einer ganz hohen Ebene. Zum Beispiel haben Menschen ein sehr kompliziertes Motivationssystem mit lang- und kurzfristigen Zielen, Vorlieben und Lösungsstrategien. Menschen finden eine Lösung für ein Problem unter Berücksichtigung ihrer Werte, aber kommen auch zu einem Schluss, wenn diese Werte keine Lösung hervorbringen. So etwas können Computer heute noch nicht, weil diese Motivationsstruktur noch nicht hinreichend charakterisiert ist.
c't: Wenn aber bekannt ist, wie dieser Mechanismus beim Menschen funktioniert, könnten Computer ebenfalls so etwas einprogrammiert bekommen?
Sloman: Ich sehe keinen Grund, warum es nicht gehen sollte. Wenn Kinder entdecken, was Leute um sie herum mögen, entwickeln sie dafür ebenfalls eine Vorliebe. Zuerst vielleicht, um den anderen zu gefallen oder akzeptiert zu werden, aber irgendwann verinnerlichen sie das Bedürfnis. Es ist besser, Ziele zu lernen als Lösungen, weil Lösungen unnütz sind, wenn sich die Umgebung ändert. Wenn man plant, einen Haushaltsroboter zu bauen, der weltweit an verschiedenste Familien in verschiedensten Kulturkreisen verkauft werden soll, will man keinen festen Katalog von Werten programmieren, sondern möchte, dass der Roboter Werte übernimmt. Dazu kann die Maschine immer versuchen zu raten, was ihrem Besitzer gefallen könnte. Aber besser wäre es, wenn der Roboter genau das gleiche will wie sein Eigner.
c't: Was passiert, wenn Roboter eigene Motive entwickeln?
Sloman: Es kann Situationen geben, in denen Maschinen wirklich eigene Bedürfnisse haben, und an diesem Punkt würde ich sagen, dass ich sie möglicherweise respektieren muss.
c't: Halten Sie für denkbar, dass es so weit kommt?
Sloman: Prinzipiell gehe ich davon aus, dass dies möglich ist. Betrachtet man die Evolution wie einen Programmierer, so ist eine ihrer Entdeckungen, dass sie die kognitiven Kompetenzen bei der überwältigenden Mehrheit der Arten im Genom ablegen kann. Spinnen haben keine Zeit zu lernen, wie man Netze baut. Die Evolution hat aber auch entdeckt, dass das für manche Arten nicht der richtige Weg ist. Fleischfresser kommen auf komplizierterem Weg zu ihrer Nahrung als Pflanzenfresser - Gras läuft eben nicht weg. Es gibt eine reiche und komplexe Bandbreite von Dingen, die man als Fleischfresser beherrschen muss, die nicht im Genom kodiert sein können. Also fand die Evolution eine neue Strategie - sie sorgte für Systeme, die sich selbst programmieren.
c't: Wie funktioniert das?
Sloman: Anders, als viele KI-Forscher glauben. Sie denken, ein Neugeborenes verfüge über gar kein Wissen, sondern nur einen Mechanismus des Lernens durch Verstärkung. Das würde aber zu lange dauern und in der Lebensspanne keine wirklichen Menschen hervorbringen. Ich glaube, es gibt auch einen viel aktiveren und kreativeren Mechanismus, der Lernen als Prozess von Forschen und Spielen, Hypothesen und Versuchen vorantreibt. Die Ergebnisse werden als Einheiten gespeichert, welche viel komplexer sind als die zugrunde liegenden Aktionen und welche als Basis für weitere Versuche dienen. Würde man für neue Experimente Aktionen der unteren Ebene benutzen, wäre der Suchraum viel zu groß, um eine Lösung zu finden. Ein solcher Mechanismus könnte auch Roboter programmieren. Dazu müssten Roboter natürlich eine Weile herumspielen und Dinge ausprobieren. Vielleicht würden sie sogar so erscheinen, als hätten sie Spaß, obwohl sie tatsächlich ihre Architektur aufbauen. Die Roboter würden uns ähnlicher werden.
c't: Sollten Menschen sich vor solchen Maschinen fürchten?
Sloman: Menschen entwer-fen Roboter, insofern stehen diese grundsätzlich noch unter menschlicher Kontrolle. Natürlich können dabei Fehler passieren. Für die ist aber der Mensch verantwortlich wie der Architekt für seine Brücke. (pek)