"Die Maschine muss fühlen lernen"

MIT-Ikone Marvin Minsky im Interview mit Technology Review über aktuelle Forschungsansätze der KI - und warum er glaubt, dass seine Kollegen über Jahre in die falsche Richtung dachten.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 14 Min.
Von
  • Wade Roush
Inhaltsverzeichnis

Top-Computerwissenschaftler aus der ganzen Welt trafen sich vor wenigen Tagen am Dartmouth College im amerikanischen New Hampshire, um den 50. Geburtstag des Forschungsgebietes der künstlichen Intelligenz (KI) zu feiern. 1956 hatte John McCarthy, ein Mitglied der mathematischen Fakultät der Universität, den Begriff erstmals geprägt, als er zum ersten "Dartmouth Summer Research Project on Artificial Intelligence" lud. McCarthy und vier andere Teilnehmer von damals, darunter MIT-Legende Marvin Minsky, nahmen nun auch beim Jubiläumstreffen teil. Dabei ging es vor allem darum, was die nächsten 50 Jahre der KI-Forschung bringen könnten.

Die Fünfzigerjahre waren ein sehr optimistisches Zeitalter im Forschungsgebiet der Maschinenintelligenz. Ein mathematischer oder philosophischer Durchbruch von großen Wissenschaftlern wie Alan Turing, John von Neumann, Herbert Simon, Allen Newell und anderen Giganten der Informatik jagte den nächsten. Damals glaubte man, mit Computern sehr bald verschiedene Formen menschlichen Denkens simulieren zu können. Expertensysteme würden dabei Wissen abbilden und selbst manipulieren können – mit Hilfe symbolischer Logik. Künstliche neuronale Netze würden derart trainiert werden, meinte man damals, dass sie bald die richtigen Antworten auf ungestellte Fragen ausspucken könnten.

Dieser KI-Optimismus schwappte auch in die Populärkultur über – man denke nur an "HAL", den sprechenden Computer aus dem Stanley Kubrick- Scifi-Klassiker "2001" (1968), der Raumfahrern das Leben schwer machte.

Doch am Ende der Sechzigerjahre zeigte sich dann, dass enorm komplexe Netze logischer Gleichungen und künstlicher neuronaler Verbindungen nötig sind, um dem Computer überhaupt das Denken auf kindlichstem Niveau beizubringen. Die Forscher fingen also an, kleinteiligere Probleme anzugehen, beispielsweise das Bewegen von Bauklötzen – voraus sich etwa das heute berühmte Programm "SHRDLU" von Terry Winograd ergab, mit dem sich ein Roboterarm durch Kommandos in natürlicher Sprache bewegen ließ.

Minsky bewunderte Winograds Arbeit, ließ solche reduzierten Ansätze jedoch bald hinter sich, um die tatsächlichen Mechanismen hinter dem menschlichem Denken erforschen zu können. Zusammen mit Seymour Papert entwickelte er in den Siebzigern am MIT-KI-Labor seine "Society of Mind"-Theorie, die besagt, dass Schichten zielgerichteter, jedoch für sich genommen eigentlich geistloser "Agenten" zusammen arbeiten müssen, um ein Bewusstsein zu erzeugen.

Minsky war nun in Dartmouth, um die Jubiläumskonferenz zusammen mit McCarthy zu eröffnen. Technology Review sprach mit ihm am 11. Juli, als er gerade dabei war, die Druckfassung seines neuen Buches "The Emotion Machine" durchzugehen. Darin interpretiert Minsky den menschlichen Geist neu - als "Wolke voller Ressourcen", Mini- Maschinen, die sich je nach Situation an und ausschalten lassen und die verschiedenen emotionalen und mentalen Stadien des Geistes erzeugen.

Sein neuestes Buch "The Emotion Machine: Commonsense Thinking, Artificial Intelligence and the Future of the Human Mind" erscheint im November 2006 im Verlag Simon & Schuster. Auf Minskys Website ist bereits ein Entwurf zu finden .

Technology Review: Können Sie fassen, dass das erste Dartmouth-KI-Treffen bereits 50 Jahre zurückliegt? Fühlt es sich wirklich so an, als seien fünf Jahrzehnte vergangen?

Marvin Minsky: Ich persönlich habe noch nicht viele 50-Jahres-Intervalle mitgemacht, dementsprechend fällt mir dazu eine Aussage schwer.

TR: Aber wie sehen Sie denn dann den aktuellen Stand der KI- Forschung, wenn man ihn einmal mit 1956 vergleicht?

Minsky: Mich überrascht vor allem, wie wenige Forscher an übergeordneten Theorien zum menschlichen Denken gearbeitet haben. Das ist eine große Enttäuschung für mich. Ich bin derzeit dabei, ein großes neues Buch herauszubringen, in dem es darum gehen wird, über was wir heute in der KI nachdenken sollten: Wie kommt es, dass drei- oder vierjährige Kinder bereits derart logisches Denken besitzen, während Maschinen dies nicht zu beherrschen scheinen? Der Hauptunterschied: Wenn wir etwas nicht verstehen, fragen wir uns normalerweise, ob etwas mit uns nicht stimmt oder zumindest, was uns dabei unsere Zeit verschwenden lässt. Wir wollen wissen, warum unser Denken in dieser Form nicht funktioniert und ob es einen besseren Weg gibt.

Doch die meisten KI-Projekte in den letzten 30, 40 Jahren beinhalteten keinerlei Nachdenken dieser Art. Es geht immer nur um das Reagieren auf Situationen und das Sammeln von statistischem Material. Wir haben vor drei Jahren erstmals eine Konferenz abgehalten, die sich mit dem notwendigen gesunden Menschenverstand für die KI beschäftigte und fanden gerade einmal ein Dutzend Forscher in der ganzen Welt, die ein Interesse daran hatten.

TR: Wie kommt es, dass sich so wenige Forscher mit diesem Problem beschäftigen?

Minsky: Die Leute schauen sich gerne auf den Gebieten um, die derzeit besonders populäre sind, denke ich, und verschwenden damit letztlich ihr Forscherleben. Wenn etwas populär ist, will man meiner Meinung nach doch gerade nicht in diesem Gebiet arbeiten! In der Physik ist das vielleicht anders. Dort schauen sich die Forscher aktuell beliebte Theorien an und hinterfragen, was hier und da gut funktioniert, dort aber nicht – und stecken dann in diese Probleme ihre Energie hinein. In der KI steht in den Studien aber immer nur, was das Programm tat und nicht, wo es fehlschlug und in welchen Bereichen Probleme noch nicht gelöst wurden. Die sind für die KI-Wissenschaftler offenbar nicht wichtig. Forscher haben schon neuronale Netze geschaffen, denen einprogrammiert wurde, dass man, wenn man ein Taxi erkennen möchte, auf ein gelbes, bewegliches Objekt achten muss. Aber andere Fragen konnten diese Netze dann nicht beantworten.

TR: Der gesunde Menschenverstand ist aber auch ein wesentlich schwereres Problem. Gehen deshalb so wenige KI-Forscher in dieses Feld?

Minsky: Das stimmt wohl. Als ich "The Society of Mind" schrieb, arbeiteten wir bereits einige Jahre daran, einen Computer eine einfache Kindergeschichte verstehen zu lassen: "Mary war zu Jacks Party eingeladen. Sie fragte sich, ob er gerne einen Drachen haben wollte." Wenn man dann die Frage stellt, warum Mary über einen Drachen nachdenkt, weiß jeder Mensch die Antwort: Wahrscheinlich ist sie zu einer Geburtstagsparty eingeladen und deshalb muss sie ein Geschenk mitbringen, dass zu einem Jungen passt. Und Jungs mögen nun mal Spielzeuge wie Baseball-Schläger, Bälle und Drachen. All das muss man wissen, um diese Frage beantworten zu können. Uns gelang es damals, eine kleine Datenbank zu erstellen, das Programm konnte damit dann einige einfache Fragen beantworten. Dann versuchten wir es mit einer anderen Geschichte, stießen dann aber an unsere Grenzen. Einige aus dem damaligen Team schlossen schließlich daraus, dass man eine Million Dinge wissen müsse, bevor man einer Maschine beibringen könne, gesunden Menschenverstand zu zeigen.

TR: Hat sich der Optimismus in der KI in den Fünfzigern und Sechzigern auch deshalb reduziert, weil immer mehr Forschern klar wurde, wie schwierig es ist, Computern sehr einfache "Common Sense"-Situationen beizubringen?

Minsky: Ich denke, Optimismus ist das falsche Wort. Wir haben damals wirklich gute Fragen gestellt, aber irgendwann begannen die meisten KI-Forscher damit, nach einer dieser berühmten Universallösungen zu suchen. In der Physik funktionierten diese ja: Da gibt es die Gleichungen von Newton und Maxwell und die Relativitäts- und Quanten-Theorie. Die meisten KI-Leute machten diesen Ansatz dann nach und wollten eine KI-Gesamttheorie finden. Doch der Mensch besitzt 100 verschiedene Hirnzentren, die alle auf leicht verschiedene Arten arbeiten. Da braucht es keine einzelne Lösung, sondern viele verschiedene.

TR: Viel Geld für die amerikanische KI kam auch aus der Pentagon-Behörde DARPA, die durchaus praktische Resultate erwartete. Auch die Dartmouth-Konferenz wurde von ihr unterstützt. Wie stark hat sie die KI-Forschung tatsächlich beeinflusst?