"Die Maschine muss fühlen lernen"
Seite 2: "Die Maschine muss fühlen lernen"
Minsky: In den frühen Tagen unterstützte die DARPA eher Menschen als Ideen. Es gab ab 1963 sehr viele Fortschritte – ungefähr zehn Jahre lang hatte man große Erfolge auf den Gebieten, die ich eben genannt habe. In den frühen Siebzigern kam es dann zu einem "Unfall". Der eigentlich sehr liberale Senator Mike Mansfield entschied, dass das Pentagon keine zivile Forschung mehr unterstützen dürfe. Er war also dafür verantwortlich, dass aus der ehemaligen ARPA (ohne "Defense") erst die DARPA wurde, die ziviler und allgemeiner industrieller Forschung keine Konkurrenz mehr machen sollte. Dadurch wurde es sehr schwer für die Behörde, visionäre Forscher zu unterstützen.
Gleichzeitig begann die Forscher-Community in den amerikanischen Konzernen in den frühen Siebzigern langsam zu verschwinden. Die Bell Labs, RCA und andere hörten nahezu auf einen Schlag mit diesen Aktivitäten auf. Dazu kam, dass viele Forscher das Unternehmervirus erfasste. Die Leute versuchten in den Achtzigerjahren, Dinge Patentieren zu lassen, Start-ups zu gründen und Produkte zu entwickeln. Gleichzeitig verschwand der Wissenschaftsnachwuchs immer mehr. Menschen, die produktive Forscher hätten werden können, wurden Anwälte und Unternehmer.
Es gab also kaum Geld für die KI. Wenn man eine gute Idee hat, ist es schwer, sie zu publizieren, weil alle immer fragen, wo denn das Experiment sei. Das Problem bei "Common Sense"-Experimenten ist aber, dass man diese erst durchführen kann, wenn man eine große entsprechende Datenbank aufgebaut hat. Es gibt eine, die sich "Cyc" nennt, sie wurde 1985 von Doug Lenat begonnen. Außerdem gibt es da noch die "Open Mind"-Datenbank, die öffentlich zugänglich ist, aber besser strukturiert werden müsste – allein dies wäre aber wohl ein eigenes Forschungsprojekt.
TR: Sie haben erwähnt, dass ein Computer erst einmal ein paar Millionen Dinge verstehen muss, bevor er "Common Sense"-Schlüsse ziehen könnte. Lenat und seine Kollegen arbeiten seit Jahren daran und füttern "Cyc" mit menschlichem Wissen. Warum ist eine weitere Datenbank wie "Open Mind" überhaupt notwendig?
Minsky: Als Lenat "Cyc" 1985 startete, war es ein sehr ambitioniertes Projekt – es gab nichts Vergleichbares. Meine Kollegen und ich sagten uns, dass wir erst einmal abwarten und sehen wollten, wie das Projekt läuft. Dann passierte eine Weile erst einmal nichts.
Lenat hat einige sehr gute Dinge erreicht. Das Problem mit "Cyc" ist allerdings, dass die Datenbank schwer zu bedienen und letztlich proprietär ist. Deshalb wird sie von Forschern wenig verwendet. Außerdem gab es später viele Probleme mit dem System, die erst deutlich wurden, nachdem es Konkurrenten gab.
"Cyc" ist außerdem in sich sehr konsistent, so dass die Datenbank im Grunde nicht besonders viel weiß. Ein Beispiel: Sollte man einen Wal als Säugetier oder als Fisch bezeichnen? Schließlich haben Wale viele Fisch-artige Merkmale, so dass viele Menschen überrascht sind, wenn sie hören, dass sie Säugetiere sind. Die richtige Antwort ist also, dass sie beides wären. Eine Datenbank, die auf gesundem Menschenverstand basiert, sollte nicht unbedingt von der Logik her widerspruchsfrei sein. Lenat wurde schließlich klar, dass er "Cyc" neu strukturieren musste, um verschiedene Kontextparameter abbilden zu können, in denen Fragen vorkommen. Doch die Grundstruktur der Datenbank hebt sehr stark auf Logik ab und ihre Sprache ist mathematisch. Wir hoffen, dass "Open Mind" natürliche Sprache verwenden können wird, die natürlich voller Mehrdeutigkeiten ist, doch diese sind sowohl gut als auch schlecht.
TR: Welche Forschungsempfehlungen geben Sie in Ihrem neuen Buch "The Emotion Machine"?
Minsky: Die Grundidee des Buches ist etwas, was ich Vielfalt der Ressourcen nenne. Bevor man eine Sache nicht auf verschiedene Arten verstanden hat, kommt man normalerweise gar nicht weiter. Der erste Punkt in meinem Buch ist also, dass man immer verschiedene Wege gehen muss, Dinge zu beschreiben. Dafür habe ich auch ein Wort erfunden: "Panalogie". Wenn man etwas darstellen möchte, sollte man es immer auf verschiedene Arten tun, so dass man von einer Art zur anderen wechseln kann, ohne dass man dabei nachdenken muss.
Der zweite wichtige Punkt: Man sollte immer verschiedene Wege besitzen, wie man denkt. Bei der KI gibt es immer das Problem, dass jeder einem sagt, er wolle ein System basierend auf bestimmten Daten wie statistischer Inferenz oder genetischen Algorithmen erstellen, aber jedes System ist dann nur für einige Probleme geeignet und nicht für andere.
Das Buch heißt deshalb "The Emotion Machine", weil es bei uns ja diese Zustände gibt, die sich Emotionen nennen und die Menschen denken, sie seien eine Art mystische Ergänzung zu rationalem Denken. Meine Sicht der Dinge ist, dass der jeweilige emotionale Zustand nur eine andere Art des Denkens ist.
Wenn man wütend ist, plant man nicht lange im Vorhinein und denkt schneller. Man aktiviert andere Ressourcen. Eine Maschine muss auf Hunderte von Arten denken können. Wir haben hingegen Hunderte von Begriffen für Emotionen, aber nicht für die verschiedenen Arten, auf die man denken kann. Mein Buch bespricht ungefähr 20 verschiedene Richtungen, in denen Menschen denken können. Aber sie benötigen zusätzliches "Metawissen", damit ihre Art des Denkens jeweils zur Situation passt.
TR: Meinen Sie also, dass Computer böse werden sollten?
Minsky: Wenn ihnen jemand im Weg steht und sich einfach nicht wegbewegen will, muss man ihm womöglich Angst einjagen. Das ist ein völlig vernünftiger Weg, das Problem zu lösen, wenn man sich beeilen muss und etwas Schlimmes passieren würde, wenn man um diese Person nicht heil herumkommt. Mein Vorschlag wäre, dass wir 20 verschiedene Worte für die Arten erfinden, wie wir in verschiedenen Situationen denken. Dann kann man das Wort "rational" endlich wegwerfen.
Übersetzung: Ben Schwan. (wst)