KI auf dem Holzweg

Seite 3: KI auf dem Holzweg

Inhaltsverzeichnis

Ein digitaler Geist

Das Ziel der Kognitivisten ist, eine künstliche Intelligenz aus Software heraus zu erschaffen, die auf einem digitalen Computer läuft.

Warum aber konzentriert sich die KI-Forschung ausschließlich auf digitale Computer und ignoriert andere Technologien? Ein Grund dafür ist, dass Computer schon zu Beginn ihrer Entwicklung als „künstliche Gehirnen“ empfunden wurden. Die ersten KI-Programme der fünfziger Jahre – der „logische Theoretiker“ oder die „Geometrie-Theorem-Beweismaschine“ – schienen regelrecht zu denken. Darüberhinaus sind Computer die charakteristische Technik unseres Zeitalters. Es ist selbstverständlich, dass wir uns fragen, wie weit wir sie noch treiben können.

Es gibt noch einen grundsätzlicheren Aspekt, warum die KI-Forschung sich vor allem um digitale Computer kümmert: Das Konzept des Rechnens ist die Grundlage unserer heutigen, allgemein akzeptierten Vorstellung von Intelligenz.

Der Philosoph Jerry Fodor – den man weder den Kognitivisten noch den Antikognivisten zurechnen kann – hat in seinem im Jahr 2000 erschienenen Buch „The Mind Doesn’t Work that Way“ seine „Neue Synthese“ vorgestellt – eine mittlerweile allgemein akzeptierte Vorstellung des Geistes, die KI und Kognitivismus mit Elementen aus der Biologie und Darwinismus verbindet: „Die Schlüsselidee der ‚Neuen Synthese’ist, dass kognitive Prozesse Rechenprozesse sind... Eine Berechnung ist in diesem Sinne eine formale Operation an syntaktisch strukturierten Repräsentationen.“ Das bedeutet: Denkprozesse hängen von der Form der Elemente ab, mit denen sie arbeiten, nicht von deren Bedeutung.

Man könnte auch sagen: Der menschliche Geist ist wie eine Fabrikmaschine in einer dieser Karikaturen aus den 1940er Jahren. Die greift eine Metallplatte, bohrt zwei Löcher rein, dreht die Platte und bohrt noch drei Löcher, schiebt sie zur Seite und klebt ein Etikett drauf, dreht sie fünfmal im Kreis und feuert sie auf einen Stapel. Die Maschine weiß nicht, was sie tut. Der Geist auch nicht.

Genauso ist es mit Computern: Sie können Zahlen addieren, haben aber keine Ahnung, was „addieren“ bedeutet, was eine „Zahl“ ist, oder wofür „Arithmetik“ gut ist. Ihre Aktionen basieren auf Formen, nicht auf Bedeutungen. Nach der Neuen Synthese von Fodor ist „der menschliche Geist ein Computer“.

Wenn das aber so ist, kann ein Computer auch intelligent sein – und ein Bewusstsein haben. Wir brauchen nur die richtige Software dafür. Genau hier fangen die Schwierigkeiten an. Bewusstsein ist notwendigerweise subjektiv: Wir allein sind uns all der Anblicke, Geräusche, Berührungen, Gerüche und Geschmäcker bewusst, die „in unserem Kopf“ herumschwirren. Diese Subjektivität des Geistes hat eine wichtige Konsequenz: Es ist nicht möglich, objektiv zu entscheiden, ob ein Gebilde Bewusstsein hat. Wir können nur raten. Testen können wir es nicht.

Gut, wir wissen, dass unsere Mitmenschen ein Bewusstsein haben – aber woher? Doch nicht, weil wir sie einem Test unterzogen hätten! Sie wissen es, weil eine Person ein Mensch ist. Sie sind ein Mensch, und Sie haben Bewusstsein – was eine fundamentale Eigenschaft Ihres Menschseins ist. Weil Ihr Nachbar ebenfalls ein Mensch ist, muss er auch ein Bewusstsein haben.

Wie können wir dann herausfinden, ob ein Computer, auf dem eine schlaue KI-Software läuft, ein Bewusstsein hat? Ganz einfach: Indem wir versuchen uns vorzustellen, wie es ist, ein Computer zu sein. Wir müssen in seinen Kopf schauen – was natürlich unmöglich ist (und das nicht nur, weil ein Computer keinen Kopf hat).

Ein Gedankenexperiment könnte uns hier weiterhelfen: das Argument des „Chinesischen Zimmers“. Es soll belegen, dass kein software-betriebener Computer echtes Verständnis oder Bewusstsein zeigen kann. Seit es der Philosoph John Searle 1980 vorgestellt hat, ist es umstritten. Ich glaube, dass Searles Argument absolut richtig ist – auch wenn es komplizierter als notwendig ist.

Stellen wir uns ein Programm vor, das einen chinesischen Turing-Test bestehen kann – und dementsprechend fließend chinesisch beherrscht. Nun wird jemand, der Englisch, aber kein Chinesisch spricht – wie Searle selbst – in einen Raum eingeschlossen. Er hat Software bei sich, die Chinesisch versteht. Diese kann er auch mechanisch, per Hand, ausführen, wenn er will.

Stellen Sie sich nun vor, Sie „unterhalten“ sich mit diesem Zimmer, indem Sie geschriebene Fragen unter der Tür durchschieben. Das Zimmer antwortet ebenfalls schriftlich. Es scheint sowohl Englisch als auch Chinesisch fließend zu beherrschen. Tatsächlich fehlt in dem Zimmer aber jedes Verständnis der chinesischen Sprache. Searle beantwortet englische Fragen selbst – um mit chinesischen zurecht zu kommen, führt er jedoch eine komplizierte Folge einfacher mechanischer Anweisungen an seiner Software aus. Wir schließen daraus, dass man chinesisch nicht verstehen muss, um sich so zu verhalten, als verstünde man es.