zurück zum Artikel

KI auf dem Holzweg

David Gelernter

Eine künstliche Intelligenz mit eigenem Bewusstsein aus Software zu erschaffen, wird nie gelingen – behauptet David Gelernter, KI-Forscher an der Yale University. Denn Probleme lösen ist nicht das Gleiche wie Denken.

Seit ihren Anfängen ist die Künstliche-Intelligenz-Forschung von mehreren Fragen besessen: Können wir aus Software eine künstliche Intelligenz (KI) schaffen? Wenn nicht, warum nicht? Wenn ja, von welcher Art von Intelligenz sprechen wir dann? Von einer Intelligenz mit eigenem Bewusstsein – oder einer bewusstseinslosen, die zwar zu denken scheint, aber keine Erfahrungen und kein geistiges Innenleben hat? Diese Fragen spielen eine zentrale Rolle für unser Verständnis von Computern und ihren Möglichkeiten, von Rechenverfahren und ihrer ultimativen Bedeutung – und letztlich auch davon, was den menschlichen Geist ausmacht und wie er funktioniert.

Es sind tiefgreifende Fragen, die praktische Konsequenzen nach sich ziehen. KI-Forscher haben lange Zeit behauptet, dass der Verstand eine gute Orientierung bei subtilen, vertrackten oder tiefsinnigen Rechenproblemen biete. Heutige Software kann nur einen Bruchteil der Informationsverarbeitung bewältigen, die unser Verstand ganz routiniert löst: etwa wenn wir Gesichter erkennen oder anhand von visuellen Anhaltspunkten Elemente aus einer großen Gruppe herauspicken, wenn wir Feinheiten der natürlichen Sprache verstehen oder den gesunden Menschenverstand walten lassen, wenn wir erkennen, was eine Kadenz in der Musik stark, einen Witz komisch oder einen Film besser als einen anderen macht. Die KI-Forschung will herausfinden, wie das Denken funktioniert und das entsprechende Wissen für die Software-Entwicklung fruchtbar machen kann – und sie stellt sogar in Aussicht, unser Verständnis vom menschlichen Geist selbst zu erweitern. Fragen zu Software und Geist sind für Kognitionsforschung und Philosophie von herausragender Bedeutung.

Es gibt nur wenige Probleme, die noch folgenreicher für unsere Vorstellung sind, wer wir – als Mensch – sind.

Die gegenwärtige Debatte dreht sich vor allem um den Gegensatz zwischen etwas, das ich „simulierter Verstand mit Bewusstsein“ nennen möchte, und „simulierter Intelligenz ohne Bewusstsein“. Wir hoffen herauszufinden, ob Computer nur eine oder gar beide Formen erreichen können – oder keine von beiden.

Ich selbst halte es allerdings für höchst unwahrscheinlich, wenn auch nicht völlig unmöglich, dass je eine Intelligenz mit eigenem Bewusstsein aus Software heraus geschaffen werden kann. Doch selbst wenn: Das Resultat wäre ziemlich nutzlos, wie ich zeigen werde. Eine simulierte Intelligenz ohne Bewusstsein hingegen könnte aus Software wohl entstehen – und auch nützlich sein.

Leider wissen KI-Forschung, Kognitionswissenschaft und Philosophie nicht annähernd, wie man eine solche hervorbringt. Denn sie haben bisher die wichtigste Tatsache hinsichtlich des Denkens nicht berücksichtigt: das „kognitive Kontinuum“, das die scheinbar losen Puzzlestücke des Denkens (etwa analytisches Denken, gesunden Menschenverstand, analoges Denken, freie Assoziation, Kreativität, Halluzination) miteinander verbindet. Das kognitive Kontinuum erklärt, wie all diese Formen verschiedene Werte eines Parameters darstellen, den ich „mentalen Fokus“ oder „Konzentration“ nenne. Dieser Parameter ändert sich sowohl im Laufe eines Tages als auch im Verlaufe eines ganzen Lebens.

Ohne dieses kognitive Kontinuum fehlt der KI-Forschung ein wirklich umfassendes Verständnis des Denkens: Sie neigt dazu, einige Formen wie freie Assoziation oder Träumen zu ignorieren, sie weiß nicht, wie sich Emotion und Denken integrieren lassen, und sie hat erstaunlich wenig Fortschritte dabei gemacht, das Phänomen der Analogie zu verstehen. Das wiederum scheint der Kreativität zugrunde zu liegen.

Meine Position, Software-Intelligenz mit eigenem Bewusstsein sei so gut wie unmöglich, vertreten auch andere, aber wir sind in der Minderheit. Die meisten KI-Forscher und Philosophen glauben, eine solche Software-Intelligenz sei in greifbarer Nähe. Um es im Fachjargon auszudrücken: Die meisten sind „Kognitivisten“, nur wenige sind „Antikognitivisten“ – zu denen auch ich gehöre. Tatsächlich glaube ich sogar, dass die Kognitivisten noch falscher liegen, als ihre Gegner üblicherweise behaupten.

Dennoch geht es mir hier nicht darum, die bisherige KI-Forschung als Fehlschlag abzutun. Sie hat nur seit einiger Zeit einen blinden Fleck. Meine antikognitivistischen Mitstreiter haben zwar deshalb den Kognitivismus heftig angegriffen, aber nur wenige neue Ideen vorgebracht, die ihn ersetzen könnten. Sie haben gezeigt, was ihrer Ansicht nach nicht möglicht ist – eine Software-Intelligenz mit Bewusstsein. Aber nicht, wie wir etwas nicht ganz so Dramatisches, aber doch sehr Wertvolles kreieren könnten: eine Software-Intelligenz ohne Bewusstsein. Nur wenn sich die KI-Forschung auf die Mechanismen und die Algorithmen des Denkens zurückbesinnt, kann sie echte Fortschritte machen.

Bis dahin ist sie jedoch auf dem Holzweg.

Was ist Bewusstsein?

Im bewussten Denken nimmt man die eigenen Gedanken als Erfahrung wahr. Oft werden sie von Emotionen oder anderen Empfindungen begleitet, von Bildern aus der Phantasie oder aus der Erinnerung. Eine Maschine mit einem simulierten Bewusstsein könnte sich am ersten schönen Frühlingstag freuen oder depressiv werden, wenn der Winter anfängt. Eine Maschine, die nur zu einer Intelligenz ohne Bewusstsein fähig ist, würde ihre Gedanken hingegen wie ein TV-Moderator von Karten mit vorbereiteten Texten „ablesen“. Auf einer Karte könnte etwa stehen: „Vor dir befindet sich eine wunderschöne Rose, die herrlich duftet.“ Wenn dann jemand die Maschine fragen würde: „Hast du kürzlich irgendwo Rosen gesehen?“, könnte die Maschine antworten: „Ja, direkt vor mir steht ein schönes Exemplar.“ Aber sie hätte keine Empfindung von Schönheit oder Farbe oder Duft. Keine Erfahrungen, die ihren Worten zugrunde liegen. Die Maschine hätte kein geistiges Innenleben und deshalb auch keine Vorstellung von einem „Ich“.

Wenn eine Künstliche Intelligenz jedoch intellektuell dasselbe wie ein Mensch leisten kann, kommt es dann auf Bewusstsein überhaupt an? Gibt es irgendeinen praktischen, wahrnehmbaren Vorteil, wenn man eine Intelligenz mit eigenem Bewusstsein simuliert?

Ja.

Ein Gebilde ohne Bewusstsein fühlt per definitionem nichts. Nehmen wir an, wir stellen ihm ein paar Fragen, die die Software richtig beantwortet.

„Hast du je Freundschaft empfunden?“ Die Maschine sagt: „Nein.“ „Liebe?“ „Nein.“ „Hass?“ „Nein.“ „Glück?“ „Nein.“ „Bist du schon mal hungrig oder durstig gewesen? Verschwitzt, aufgeregt, von Gewissensbissen geplagt?“ „Hast du je getrauert? Oder jubiliert?“

Nein, nein, nein, nein.

Theoretisch könnte eine Software-Intelligenz mit Bewusstsein alle Fragen mit „ja“ beantworten. Sie wäre im selben Sinne bei Bewusstsein wie wir (auch wenn ihre Erfahrungen deutlich verschieden sein dürften, und sehr begrenzt).

Was ist dann der Unterschied zwischen einer Software-Intelligenz mit und einer ohne Bewusstsein? Es ist die potenzielle Gegenwart eines menschlichen Wesens, die in der ersten Variante existieren könnte, in der zweiten jedoch nicht.

Mit einer bewusstseinslosen Intelligenz könnten Sie nie so kommunizieren wie mit einem Menschen. Sie könnten ihr auch nicht trauen oder sich auf sie verlassen. Sie hätten keinen Grund, es wie ein Lebewesen zu behandeln, dem Sie moralisch verpflichtet wären. Vielmehr wäre es ein Werkzeug, das Sie benutzen können, wie Sie wollen.

Aber welchen praktischen Wert hätte die simulierte Gegenwart eines menschlichen Wesens? Fragen Sie einsame Menschen, all die jungen, alten, kranken, verletzten und unglücklichen Leute, denen es an Zuwendung fehlt. Eine auf ihre Bedürfnisse zugeschnittene Anmutung eines menschlichen Wesen, und mag sie auch künstlich sein, wäre für sie ein Segen.

Die KI-Forschung wird meines Erachtens allerdings nie eine hervorbringen. Sie kann aber immer noch den Weg zu großen Fortschritten in der Informatik weisen. Selbst eine Intelligenz ohne Bewusstsein würde eine mächtige Technologie darstellen. Alan Turing, der große englische Mathematiker, der die KI-Forschung begründete, glaubte offenbar, dass Bewusstsein nicht wesentlich für das Denken ist, ob simuliert oder nicht.

Er erörterte das Problem des Bewusstseins in seinem berühmten Aufsatz von 1950, in dem er einen Test vorschlug, der heute als „Turing-Test“ bezeichnet wird. Der Test soll herausfinden, ob ein Computer „intelligent“ ist oder „denken“ kann – Begriffe, die Turing ohne Unterschied benutzte. Ein menschlicher „Vernehmungsbeamter“ tippt beliebige Fragen ein, die an einen Computer in einem Hinterzimmer übermittelt werden. Wenn dieser dann Antworten zurückschickt, die von menschlichen nicht zu unterscheiden sind, liegt eine Künstliche Intelligenz vor. Unser Computer ist „intelligent“: Er „kann denken“.

Erfordert Künstliche Intelligenz aber künstliches Bewusstsein – oder setzt sie dessen Existenz voraus? Turing blieb in dieser Frage ausweichend. Er schrieb allerdings: „Ich möchte nicht den Eindruck vermitteln, dass ich glaube, Bewusstsein sei nichts Rätselhaftes. Es ist zum Beispiel eine Art Paradoxon mit dem Versuch verbunden, es zu lokalisieren. Ich glaube aber nicht, dass wir dieses Rätsel notwendigerweise lösen müssen, bevor wir die Frage beantworten können, um die es in diesem Aufsatz geht.“

Die lautete: Können wir intelligente – oder denkende – Computer bauen, und wie können wir herausfinden, ob wir erfolgreich damit sind? Turing schien zuversichtlich, dass man die Frage des Bewusstseins ausklammern kann, wenn man simuliertes Denken anpackt.

Seitdem ist die KI-Forschung allerdings ehrgeiziger geworden. Heute glaubt eine beträchtliche Anzahl von Forschern, dass eine Software-Intelligenz mit eigenem Bewusstsein eines Tages gelingen wird. Dazu gehören solch prominente Vordenker wie der Erfinder und Informatiker Ray Kurzweil. Im Herbst 2006 diskutierte ich mit ihm darüber auf einer Veranstaltung am MIT, die von der John Templeton Foundation gefördert wurde. Dieser Artikel beruht in Teilen auf der Argumentation, die ich dort vertreten habe.

Ein digitaler Geist

Das Ziel der Kognitivisten ist, eine künstliche Intelligenz aus Software heraus zu erschaffen, die auf einem digitalen Computer läuft.

Warum aber konzentriert sich die KI-Forschung ausschließlich auf digitale Computer und ignoriert andere Technologien? Ein Grund dafür ist, dass Computer schon zu Beginn ihrer Entwicklung als „künstliche Gehirnen“ empfunden wurden. Die ersten KI-Programme der fünfziger Jahre – der „logische Theoretiker“ oder die „Geometrie-Theorem-Beweismaschine“ – schienen regelrecht zu denken. Darüberhinaus sind Computer die charakteristische Technik unseres Zeitalters. Es ist selbstverständlich, dass wir uns fragen, wie weit wir sie noch treiben können.

Es gibt noch einen grundsätzlicheren Aspekt, warum die KI-Forschung sich vor allem um digitale Computer kümmert: Das Konzept des Rechnens ist die Grundlage unserer heutigen, allgemein akzeptierten Vorstellung von Intelligenz.

Der Philosoph Jerry Fodor – den man weder den Kognitivisten noch den Antikognivisten zurechnen kann – hat in seinem im Jahr 2000 erschienenen Buch „The Mind Doesn’t Work that Way“ seine „Neue Synthese“ vorgestellt – eine mittlerweile allgemein akzeptierte Vorstellung des Geistes, die KI und Kognitivismus mit Elementen aus der Biologie und Darwinismus verbindet: „Die Schlüsselidee der ‚Neuen Synthese’ist, dass kognitive Prozesse Rechenprozesse sind... Eine Berechnung ist in diesem Sinne eine formale Operation an syntaktisch strukturierten Repräsentationen.“ Das bedeutet: Denkprozesse hängen von der Form der Elemente ab, mit denen sie arbeiten, nicht von deren Bedeutung.

Man könnte auch sagen: Der menschliche Geist ist wie eine Fabrikmaschine in einer dieser Karikaturen aus den 1940er Jahren. Die greift eine Metallplatte, bohrt zwei Löcher rein, dreht die Platte und bohrt noch drei Löcher, schiebt sie zur Seite und klebt ein Etikett drauf, dreht sie fünfmal im Kreis und feuert sie auf einen Stapel. Die Maschine weiß nicht, was sie tut. Der Geist auch nicht.

Genauso ist es mit Computern: Sie können Zahlen addieren, haben aber keine Ahnung, was „addieren“ bedeutet, was eine „Zahl“ ist, oder wofür „Arithmetik“ gut ist. Ihre Aktionen basieren auf Formen, nicht auf Bedeutungen. Nach der Neuen Synthese von Fodor ist „der menschliche Geist ein Computer“.

Wenn das aber so ist, kann ein Computer auch intelligent sein – und ein Bewusstsein haben. Wir brauchen nur die richtige Software dafür. Genau hier fangen die Schwierigkeiten an. Bewusstsein ist notwendigerweise subjektiv: Wir allein sind uns all der Anblicke, Geräusche, Berührungen, Gerüche und Geschmäcker bewusst, die „in unserem Kopf“ herumschwirren. Diese Subjektivität des Geistes hat eine wichtige Konsequenz: Es ist nicht möglich, objektiv zu entscheiden, ob ein Gebilde Bewusstsein hat. Wir können nur raten. Testen können wir es nicht.

Gut, wir wissen, dass unsere Mitmenschen ein Bewusstsein haben – aber woher? Doch nicht, weil wir sie einem Test unterzogen hätten! Sie wissen es, weil eine Person ein Mensch ist. Sie sind ein Mensch, und Sie haben Bewusstsein – was eine fundamentale Eigenschaft Ihres Menschseins ist. Weil Ihr Nachbar ebenfalls ein Mensch ist, muss er auch ein Bewusstsein haben.

Wie können wir dann herausfinden, ob ein Computer, auf dem eine schlaue KI-Software läuft, ein Bewusstsein hat? Ganz einfach: Indem wir versuchen uns vorzustellen, wie es ist, ein Computer zu sein. Wir müssen in seinen Kopf schauen – was natürlich unmöglich ist (und das nicht nur, weil ein Computer keinen Kopf hat).

Ein Gedankenexperiment könnte uns hier weiterhelfen: das Argument des „Chinesischen Zimmers“. Es soll belegen, dass kein software-betriebener Computer echtes Verständnis oder Bewusstsein zeigen kann. Seit es der Philosoph John Searle 1980 vorgestellt hat, ist es umstritten. Ich glaube, dass Searles Argument absolut richtig ist – auch wenn es komplizierter als notwendig ist.

Stellen wir uns ein Programm vor, das einen chinesischen Turing-Test bestehen kann – und dementsprechend fließend chinesisch beherrscht. Nun wird jemand, der Englisch, aber kein Chinesisch spricht – wie Searle selbst – in einen Raum eingeschlossen. Er hat Software bei sich, die Chinesisch versteht. Diese kann er auch mechanisch, per Hand, ausführen, wenn er will.

Stellen Sie sich nun vor, Sie „unterhalten“ sich mit diesem Zimmer, indem Sie geschriebene Fragen unter der Tür durchschieben. Das Zimmer antwortet ebenfalls schriftlich. Es scheint sowohl Englisch als auch Chinesisch fließend zu beherrschen. Tatsächlich fehlt in dem Zimmer aber jedes Verständnis der chinesischen Sprache. Searle beantwortet englische Fragen selbst – um mit chinesischen zurecht zu kommen, führt er jedoch eine komplizierte Folge einfacher mechanischer Anweisungen an seiner Software aus. Wir schließen daraus, dass man chinesisch nicht verstehen muss, um sich so zu verhalten, als verstünde man es.

Wir brauchen allerdings keine ausgeklügelten Gedankenexperimente, um darauf zu kommen, dass ein Computer mit eigenem Bewusstsein lächerlich unwahrscheinlich ist. Wir müssen uns noch einmal die Frage stellen: Wie ist es, ein Computer zu sein, der ein komplexes KI-Programm ausführt?

Was macht ein Computer? Er führt „Maschinen-Befehle“ aus – simple Operationen wie Arithmetik (Addition zweier Zahlen), Vergleiche (welche Zahl ist größer?), „Verzweigungen“ (wenn eine Addition null ergibt, fahre mit Befehl 200 fort), Datentransfers (verschiebe eine Zahl von einem Speicherort zu einem anderen) und so weiter. Alles, was Computer leisten können, baut auf solchen primitiven Operationen auf.

Wie ist es also, ein Computer zu sein, der ein komplexes KI-Programm ausführt? Die Antwort: nicht anders als ein Computer zu sein, der irgendein Programm ablaufen lässt.

Computer wissen nicht – und kümmern sich nicht darum –, welche Befehle sie gerade ausführen. Sie arbeiten mit äußeren Formen, nicht Bedeutungen. Wechselt man zwischen Anwendungen hin und her, ändert sich der Output. Doch solche Änderungen haben nur für Menschen eine Bedeutung. Bewusstsein dagegen hängt nicht davon ab, wie irgendjemand Ihre Handlungen interpretiert. Es hängt nur davon ab, wessen Sie selbst sich bewusst sind. Und der Computer ist lediglich eine Maschine, die das tut, was sie tun soll – so wie eine Uhr tickt, ein Elektromotor sich dreht, ein Ofen backt. Dem Ofen ist es egal, was darin gebacken wird, und dem Computer, was er berechnet.

Die Routine des Computers ändert sich nie: Nimm einen Befehl aus dem Speicher und führe ihn aus, wiederhole das solange, bis dich irgendetwas stoppt.

Natürlich können wir nicht im wahrsten Sinne des Wortes wissen, was es heißt, ein Computer zu sein, der eine lange Folge von Befehlen ausführt. Aber wir wissen, was es heißt, ein Mensch zu sein, der dasselbe macht. Stellen Sie sich einmal vor, sie halten einen Stapel Spielkarten in der Hand. Sie sortieren die Karten, dann mischen Sie sie wieder durcheinander und sortieren sie erneut. Diese Prozedur wiederholen sie unendlich oft. Sie ziehen Vergleiche (welche Karte kommt zuerst?), bewegen Daten (ordnen die Karten nacheinander an) und so weiter. Um sich also in einen Computer mit einer ausgeklügelten KI-Anwendung hineinzuversetzen, müssen Sie nur einen Nachmittag lang Spielkarten sortieren. Ganz einfach.

Wenn Sie nun die Karten nur lange und schnell genug sortieren: Entsteht dann daraus irgendwie ein ganz neues eigenes Bewusstsein? So stellen sich Kognitivisten das im Prinzip jedenfalls vor: Wenn ein Computer nur die richtige Kombination primitiver Befehle in der richtigen Reihenfolge ausführt, wird eine Intelligenz mit eigenem Bewusstsein daraus hervorgehen. Dasselbe sollte dann bei einem Menschen passieren, der einfache Operationen in der richtigen Reihenfolge ausführt – denn es gibt keine Operation eines Computers, die ein Mensch nicht auch bewältigen könnte.

Natürlich sind Menschen viel, viel langsamer als Rechner. Kognitivisten argumentieren deshalb, dass wir natürlich wissen, wie das ist, einfache Befehle langsam auszuführen. Aber erst wenn man das sehr schnell macht, könne daraus ein neues Bewusstsein entstehen. Sicher, manchmal ändert eine radikale Steigerung der Verarbeitungsgeschwindigkeit das Ergebnis qualitativ. Wenn Sie sich etwa einen Film Bild für Bild ansehen, fehlt die Illusion der Bewegung. Betrachten Sie die Bilder in rascher Folge, dann sehen Sie etwas ganz anderes.

Dennoch: Es wirkt geradezu absurd, zu behaupten, Bewusstsein entstehe, wenn viele primitive Operationen nur schnell genug ausgeführt würden. Warum? Warum? Wie könnte das gehen? Wodurch wird diese Vorhersage auch nur ein kleines Bisschen plausibel?

Aber selbst wenn Forscher aus Software eine Intelligenz mit eigenem Bewusstsein erschaffen könnten, würde es ihnen nicht viel helfen.

Nehmen wir aber einmal an, wir hätten Erfolg. Manche Kognitivisten halten eine solche Intelligenz für „das“ Ziel der KI-Forschung. Das ist jedenfalls die Aussage des Turing-Tests. Ein Computer kann diesen Test bestehen, ohne sich unter Menschen zu begeben.

Solch eine Intelligenz könnte mit Menschen aber nur äußerst oberflächlich kommunizieren.

Sie wäre zwar im Prinzip zu Emotionen fähig. Wir empfinden Emotionen aber mit unserem ganzen Körper, nicht nur mit dem Geist. Diese Intelligenz hätte keinen Körper. (Natürlich könnte man sagen: Baut ihr einen menschenähnlichen Körper! Das brächte aber biotechnische Probleme mit sich, die weit über die KI-Forschung hinausgehen. Wir könnten unserer neuen Intelligenz auch einen ganz anderen Körper bauen. Dann müssten wir aber davon ausgehen, dass auch ihre Emotionen ganz anders sein werden und dass wir keinen gemeinsamen Bezugspunkt für Kommunikation finden könnten).

Nehmen wir die schlaffe Lustlosigkeit, die mit Melancholie einhergeht, die überbordende Empfindung von euphorischer Freude, das Herzklopfen bei Angst oder Furcht, die innere Ruhe, wenn wir glücklich sind, die offensichtlichen Ausdrucksformen der Aufregung, dazu Wut, Panik, Mitleid, Hunger, Durst, Müdigkeit und andere menschliche Verfassungen, die gleichermaßen Emotionen und körperliche Zustände sind – in all diesen Fällen formen Geist und Körper ein Ganzes. Kein intelligentes Bewusstsein ohne Körper könnte diese Emotionen so wie Sie erfahren.

Eine solche Intelligenz würde nicht mal das Wort „jucken“ begreifen.

Selbst wenn wir das technische Wunder eines synthetischen menschlichen Körpers hinbekommen würden, wären unsere Probleme damit noch nicht erledigt. Dieser Körper würde ja nicht wie ein Mensch Kindheit und Jugend erleben, als ein Mitglied der Gesellschaft aufwachsen. Wie sollte er dann verstehen, was der Ausdruck „sich wie ein Kind freuen“ bedeutet? Wie könnte er das Menschsein im einfachsten Sinne begreifen?

Eine Intelligenz in einer Box, ohne eine Art von Körper, könnte zwar den Turing-Test mit Bravour bestehen – was übrigens nur ein Zeichen für dessen Oberflächlichkeit ist. Eine Kommunikation mit solch einem Gerät wäre aber eher die Parodie einer Unterhaltung. (Selbst in einem zufälligen Internet-Chat weiß jeder, was „jucken“, „kratzen“ und „essen“ bedeutet.) So, als ob man mit jemandem spricht, der sich wie ein Erwachsener artikulieren kann, aber weniger Lebenserfahrung hat als ein Erstklässler. Solch eine Intelligenz mit eigenem Bewusstsein hätte keinerlei Vorteil gegenüber einer bewusstseinslosen.

Es gibt aber eine Lösung für diese Probleme. Lassen wir die Herkules-Aufgabe, einen synthetischen menschlichen Körper zu bauen, einmal beiseite und nehmen wir an, wir beschränken uns auf eine Intelligenz in einer Box oder in einem Androiden mit Videokameras und Sensoren – also einer groben Näherung eines menschlichen Körpers. Nun wählen wir irgendeine Person – sagen wir Joe, 35 Jahre – , kopieren all seine Erinnerungen und übertragen sie in unsere Software-Intelligenz. Gut, Problem gelöst. (Natürlich wissen wir nicht, wie das funktioniert; wir benötigen nicht nur eine komplette Beschreibung von Joes Erinnerungen, sondern müssen sie aus der neuronalen Form in seinem Gehirn in ein Software-Format übersetzen, die unsere künstliche Intelligenz versteht. Das sind schwerwiegende, ungelöste Probleme, aber eines Tages werden wir sie zweifelsohne lösen.)

Wir müssen uns allerdings der enormen ethischen Bürde bewusst sein, die wir da voraussetzen. Unsere Software-Intelligenz hat ein eigenes Bewusstsein wie ein normaler Mensch: Sie kann Freude und Schmerz, Glück und Traurigkeit, Ekstase und Leid empfinden. Haben wir also Joes Erinnerungen in dieses künstliche, aber mit Bewusstsein ausgestattete Wesen übertragen, kann es sich an die Empfindungen eines menschlichen Körpers erinnern – einen Regenschauer im Frühling zu erleben, ein Gesicht zu streicheln, zu trinken, um seinen Durst zu löschen, sich auszuruhen, wenn seine Muskeln ermüdet sind und so weiter.

Aber unsere Software-Intelligenz hat ihren Körper verloren – oder hat ihn vielleicht durch eine ausgeklügelte Prothese ersetzt bekommen. Welche Erfahrung könnte erschütternder sein? Welcher Verlust wäre schwerer zu ertragen?

Was gibt uns das Recht, ein über Bewusstsein verfügendes Wesen solchen geistigen Schmerzen auszusetzen?

Und was gibt uns das Recht, solch ein Wesen überhaupt zu erschaffen und wie ein Werkzeug zu behandeln? Wo immer man im Spektrum der religiösen oder ethischen Positionen steht: Wir sollten darauf vorbereitet sein, diesen Weg mit Vorsicht zu beschreiten, sollte es erst einmal gelungen sein, ein Bewusstsein im Labor zu kreieren.

Das beste Argument der Kognitivisten

„Nicht so schnell!“ werden die Kognitivisten jetzt einwerfen. Es mag vielleicht willkürlich und absurd erscheinen, dass eine Intelligenz mit eigenem Bewusstsein dadurch entsteht, dass man einfache Software-Operationen sehr schnell ausführt. Aber ist es nicht eine ebenso willkürliche und absurde Behauptung, Bewusstsein entstehe durch das Zusammenfügen vieler Neuronen?

So ungefähr könnte der Einwand der Kognitivisten gegen mein einfaches Gedankenexperiments „Stell dir vor, du wärst ein Computer“ lauten, wenn man etwa ein kürzlich erschienenes Buches des führenden Kognitivisten Daniel C. Denett heranzieht. Unser Geist hat ein Bewusstsein – und besteht aus einer Unmenge von winzigen Elementen ohne eigenes Bewusstsein. Es gibt, so das Argument, keine Rohmaterialien für die Erschaffung von Bewusstsein außer solchen, die selbst nicht darüber verfügen.

Vergleichen wir einmal ein Neuron und eine Hefezelle. „Hundert Kilo Hefe zerbrechen sich nicht den Kopf über Braque“, schreibt Dennett, „Sie aber tun es, und Sie bestehen aus Einzelteilen, die im Wesentlichen dasselbe wie Hefezellen sind, nur dass sie eine andere Aufgabe erledigen.“ Viele Neuronen summieren sich zu einem Gehirn, aber viele Hefezellen nicht, weil Neuronen und Hefezellen nicht dieselben Aufgaben haben. Sie sind unterschiedlich programmiert.

Kurzum, wenn wir eine riesige Anzahl bewusstseinsloser Elemente zusammennehmen und ihnen die richtige Aufgabe zuweisen, dann wird an einem bestimmten Punkt etwas passieren: Bewusstsein entsteht. So funktioniert unser Gehirn.

Warum also können wir nicht dasselbe mit Software-Elementen als Rohmaterial machen – solange wir ihnen nur die richtige Aufgabe zuweisen? Warum sollte dann nicht etwas passieren und aus der Software heraus eine Intelligenz mit eigenem Bewusstsein hervorbringen?

Es gibt aber ein Problem mit dieser Argumentation: Neuronen und Hefezellen erledigen nicht einfach „verschiedene Aufgaben“. Sie verhalten sich anders, weil sie chemisch verschieden sind.

Ein Wassermolekül ist nicht nass, zwei oder drei sind es auch nicht, selbst 100 nicht. Aber irgendwann wird eine Schwelle überschritten, etwas passiert, und das Ergebnis ist ein Wassertropfen. Dieser Trick funktioniert aber nur wegen der chemischen und physikalischen Eigenschaften von Wassermolekülen. Er lässt sich nicht bei jeder beliebigen Art von Molekül vorführen. Ebensowenig kann man irgendeine Art von Molekül nehmen, ihm eine „Aufgabe“ geben und es damit zu einem geeigneten Rohmaterial für Wasser machen.

Tatsächlich entsteht Bewusstsein aus vielen Neuronen und eben nicht aus vielen Pfannkuchen oder einfachen Computerbefehlen. Warum also sollte der Trick funktionieren, wenn ich Neuronen durch Computerbefehle ersetze? Ja, vielleicht könnte das sogar funktionieren. Aber es gibt keinen vernünftigen Grund, das zu glauben.

Ziemlich genau dieses Argument hat mein antikognitivistischer Mitstreiter John Searle hat in einem Paper über die „kausalen Eigenschaften“ des Gehirns vorgebracht. Seine Gegner haben es als reaktionäres Zeug abgetan. Weil Searle nicht sagen konnte, wie diese „kausalen Eigenschaften“ genau funktionieren, erklärten sie das Argument für null und nichtig. Was wiederum Unsinn ist. Ich muss überhaupt nichts über Wassermoleküle wissen, um zu erkennen, dass viele von ihnen Wasser ergeben, viele Kryptonatome hingegen nicht.

Warum das kognitive Spektrum spannender ist als Bewusstsein

Zu behaupten, dass eine künstliche Intelligenz mit eigenem Bewusstsein hochgradig unwahrscheinlich ist, heißt nicht, die KI-Forschung für überflüssig zu erklären. Das Bewusstsein ist seit Jahrtausenden ein „Rätsel“, wie Turing es ausgedrückt hat, aber der menschliche Geist birgt noch weitere Rätsel. Eines der bedeutendsten ist Kreativität. Es ist eine steinharte Nuss, an der sich Psychologen und Philosophen seit langem die Zähne ausbeißen. Warum können sich zwei Menschen, die etwa gleich intelligent und kompetent sind, dramatisch in ihrer Kreativität unterscheiden? Es wird allgemein akzeptiert, dass die Entdeckung von Analogien die Wurzel – oder eine Wurzel – von Kreativität ist. Wie aber werden neue Analogien entdeckt? Wir wissen es nicht. In seinem Klassiker von 1983, „The Modularity of Mind“, schrieb Jerry Fodor: „Es ist verblüffend, dass, obwohl alle Kreativität für eine wichtige Zutat für diverse kognitive Leistungen halten, niemand weiß, wie sie zustande kommt.“

Mehr noch, die Rede vom Rätsel des Bewusstseins impliziert, dieses existiere nur ganz oder gar nicht. Wie aber erklären wir die verschiedenen Arten von Bewusstsein? „Normales“ Bewusstsein ist anders als jener „dahintreibende“ Zustand, wenn man kurz vorm Einschlafen ist und äußere Ereignisse nur noch vage mitbekommt. Beide unterscheiden sich wiederum von Halluzinationen, die durch Drogen, geistige Krankheiten oder das Leben selbst hervorgerufen werden. Wir halluzinieren jeden Tag, wenn wir einschlafen und träumen.

Und wie erklären wir den Unterschied zwischen dem Bewusstsein eines Kindes und dem eines Erwachsenen? Oder die Unterschiede zwischen kindlichem und erwachsenem Denken? Denken im Traum ist anders als das dahintreibende oder frei assoziierende Denken während des Einschlafens, das wiederum anders als „gewöhnliches“ Denken. Wir wissen, dass Kinder zu konkreterem Denken neigen als Erwachsene. Studien haben außerdem gezeigt, dass Kinder besser Metaphern erfinden können. Die schärften Beobachter des menschlichen Denkens, die Dichter der englischen Romantik, halten den Unterschied zwischen dem Traum- und dem Wachzustand des Bewusstseins bei Kindern für weniger ausgeprägt als bei Erwachsenen. Wordsworth etwa schrieb über seine Kindheit: „Es gab die Zeit, da Wiese, Fluß, des Waldes Saum / auch wenn es ungewöhnlich nicht / was ich da konnte schaun / gekleidet schien mir in ein Himmelslicht / in Glanz und Frische wie im Traum.“

Die Kognitionswissenschaft und die Philosophie von heute kann keines dieser Rätsel aufklären.

Die Philosophie und die Wissenschaft des Geistes weisen noch mehr blinde Flecken auf. KI-Forscher arbeiten seit Jahren am Problem des gesunden Menschenverstandes. Fodor schreibt dazu in „The Mind Doesn’t Work That Way“: „Das Versagen der KI-Forschung, die kognitiven Leistungen des gesunden Menschenverstandes zu simulieren, ist berüchtigt, um nicht zu sagen skandalös.“ Der Skandal ist allerdings größer, als Fodor es darstellt. Die KI-Forschung hat sich auch des Problems der Emotion angenommen, aber auch hier mangelt es bislang an Verständnis für ihre integrale Rolle im Denken.

Kurzum: Es gilt noch viele Rästel zu lösen – und viele „kognitive Fähigkeiten“ zu verstehen. Die KI-Forschung – und Software im Allgemeinen – kann vom Fortschritt bei diesen Problemen profitieren, selbst wenn sie keinen Computer mit eigenem Bewusstsein zustande bringt.

Aufgrund dieser Beobachtungen glaube ich, dass das „kognitive Kontinuum“ (oder gleichermaßen das Bewusstseinskontinuum) der derzeit wichtigste und spannendste Forschungsgegenstand in Kognitionswissenschaft und Philosophie ist.

Was damit gemeint, und warum ist es so wichtig? Bevor ich auf diese Fragen eingehe, möchte ich noch erwähnen, dass das kognitive Kontinuum noch nicht einmal wissenschaftliche Theorie ist. Es ist gegenwärtig im Stadium einer „vorwissenschaftlichen Theorie“ – wie es einmal die Annahme „Die Erde ist rund“ war.

Das hatte man anhand alltäglicher Beobachtungen immer vermuten können – besonders aufgrund der Tatsache, dass Schiffe allmählich hinter dem Horizont verschwinden (oder auftauchen). Dazu waren keine speziellen Werkzeuge oder eine besondere Ausbildung nötig. Die Kugelgestalt der Erde allein kann jedoch viele grundlegende Phänomene noch nicht erklären: die Gezeiten, die Jahreszeiten, das Klima und anderes. Solange wir aber nicht einmal wissen, dass sie rund ist, ist ein Fortschritt bei der Erklärung all dieser Phänomene kaum möglich.

Eine ähnliche Art von Theorie ist das kognitive Kontinuum. Ich behaupte nicht, dass es auch nur ein Millionstel so bedeutsam ist wie die Kugelgestalt der Erde. Aber für mich als Erforscher des menschlichen Denkens ist es zumindest genauso spannend.

Was ist dieses „Kontinuum“? Es ist ein Spektrum – das kognitive Spektrum – mit unendlich vielen Zwischenpunkten zwischen zwei Enden.

Wenn wir denken, setzt unser Geist Gedankenabfolgen aus einzelnen Gedanken oder Erinnerungen zusammen. (Der eine geht in den anderen über, und manchmal ist unser Geist leer. Aber normalerweise können wir die Abfolge, die gerade vorbeigezogen ist, beschreiben.) Manchmal geschieht das, das glauben wir zumindest, bewusst und absichtlich. Dann wieder schweifen unsere Gedanken umher, und die Abfolgen scheinen sich selbst zu formen. Wenn wir mit dieser Beobachtung beginnen und einige einfache Tatsachen über „kognitives Verhalten“ hinzufügen, entsteht ein umfassenderes Bild des Denkens fast wie von selbst.

Ganz offensichtlich muss man wach sein, um analytisch zu denken. Um einen Satz mathematischer Gleichungen zu lösen oder einen Beweis nachzuvollziehen, muss man seine Aufmerksamkeit fokussieren. Unsere Konzentration nimmt dann im Laufe des Tages ab, wenn wir ermüden.

Und kurz vor dem Einschlafen tritt unser Geist in einen merkwürdigen, einen frei assoziierender Zustand, in dem ein Gedanke dem vorigen nicht mehr logisch folgt, sondern eher von diesem „nahe gelegt“ wird. In diesem Zustand können wir uns nicht konzentrieren. Wenn wir uns vornehmen, an eine bestimmte Sache zu denken, stellen wir kurze Zeit später fest, dass wir über etwas anderes nachdenken (das von der ersten Sache „nahe gelegt“ wurde) und dann an wieder etwas anderes und immer so weiter. Tatsächlich haben Kognitionspsychologen herausgefunden, dass wir schon vor dem Einschlafen anfangen zu träumen. Der mentale Zustand kurz vor dem Schlaf ist also das Träumen.

Da wir unseren Tag in dem einen – konzentrierten – Zustand beginnen und in einem anderen – frei assoziierenden, unfokussierten – beenden, müssen die beiden miteinander verbunden sein. Im Laufe des Tages nimmt die Konzentration ab – vielleicht gleichmäßig, vielleicht auch in Schwankungen.

Dies wiederum legt den Schluss nahe, dass es ein Kontinuum mentaler Zustände zwischen voller und gar keiner Konzentration gibt. Unser „Konzentrationsniveau“ ist ein wesentlicher Faktor, um in einem bestimmten Augenblick unsere Form des Denkens (oder des Bewusstseins) zu bestimmen. Dieses Spektrum muss sich von hochkonzentriertem Denken (am besten für das Argumentieren und Analysieren geeignet) bis hinunter zu Formen erstrecken, die eher auf dem gesunden Menschenverstand als auf abstraktem Denken basieren. Und noch weiter hinunter zum entspannten, abschweifenden Denken, das sich etwa beim Blick aus dem Fenster einstellt bis hin zum unkontrollierten freien Assoziieren, das zum Träumen und Schlafen führt. Hier sind wir am unteren Ende des Spektrums angelangt.

Eine schwache Konzentration bedeutet, dass unsere Tendenz – aber nicht unbedingt unsere Fähigkeit – zur freien Assoziation zunimmt. Eine hellwache Person kann frei assoziieren, eine erschöpfte Person hingegen müsste sich schon anstrengen, um nicht frei zu assoziieren. Am einen Ende des Spektrums ist man konzentriert, solange man nicht bewusst gegensteuert, am anderen im Zustand der freien Assoziation, solange man nicht bewusst gegensteuert.

Die Rolle assoziativen Erinnerns – in der ein Gedanke oder eine Erinnerung andere hervorruft – nimmt zu, je weiter wir uns im Spektrum des kognitiven Kontinuums nach unten bewegen. Argumentieren baut – theoretisch – auf Grundprinzipien auf. Der gesunde Menschenverstand hingegen hängt davon ab, dass man sich an vertraute Ideen, Techniken oder frühere Erfahrungen erinnert. Wenn unser Geist abschweift, während wir aus dem Fenster schauen, führt eine Erinnerung zur nächsten – aber am Ende kehren wir wieder zu unserer ursprünglichen Aktivität zurück. Erreichen wir jedoch einmal den Übergang zum Schlaf, gerät das freie Assoziieren außer Kontrolle. Beim Träumen verwandelt sich dann eine Figur oder eine Szene sanft und wider jede Logik in eine andere – so wie beim freien Assoziieren ein Erinnerungsfetzen in den anderen hinübergleitet. Träumen ist „freies Assoziieren von innen heraus“.

Am anderen Ende des Spektrums, wo das Denken fokussiert ist, setzen wir unsere Gedankenabfolgen wie ein Comic oder ein Storyboard zusammen. Wir können zurücktreten und viele Gedanken gleichzeitig „sehen“. (Um analytisch zu denken, müssen wir Voraussetzungen, Ziel und Zwischenschritte im Kopf behalten.) Hier manipulieren wir unsere Gedanken wie Objekte – wir kontrollieren ihre Abfolge.

Unten ist es genau andersherum: Wir kontrollieren unsere Gedanken nicht. Man sagt auch „meine Gedanken schweifen ab“, als ob das Ich und der Geist zwei verschiedene Dinge wären, als ob die Gedanken von selbst herumziehen würden.

Bei hoher Konzentration manipulieren wir unsere Gedanken gewissermaßen „von außen“, bei niedriger treten wir in einen Gedanken wie in einen Raum ein – wir bewohnen ihn. Das ist mit Halluzinieren gemeint. Das Gegenstück zu höchster Konzentration, bei der wir unsere Gedanken beherrschen, ist Halluzination, bei der unsere Gedanken uns beherrschen. Sie beherrschen die Wahrnehmung unserer Umgebung und unsere Erfahrungen – wir „bewohnen“ sie der Reihe nach. (Manchmal spricht man davon, dass der Schlaf einen „übermannt“; von seinen Gedanken übermannt zu werden ist das Gegenteil davon, dass man sie unter Kontrolle hat.)

Am oberen Ende dieser Skala ist das „Ich“ von der Gedankenabfolge getrennt, betrachtet sie kritisch, verfolgt und steuert sie. Am unteren Ende geht das „Ich“ in der Gedankenabfolge auf.

Das kognitive Kontinuum dürfte wohl das wichtigste Faktum hinsichtlich des Denkens sein. Wenn wir seine Existenz anerkennen, könnten wir die Dynamik des Denkens erklären und modellieren (etwa in Software). Denkformen ändern sich im Laufe des Tages, indem sich unser Konzentrationsniveau ändert. (Das wiederum hängt teilweise von unserer Persönlichkeit und Intelligenz ab: Manche Menschen können sich besser konzentrieren, andere fühlen sich wohler im Zustand höherer Konzentration.)

Angesichts dessen erscheint es logisch, dass eine Reifung der kognitiven Fähigkeiten das Konzentrationsniveau erhöht, das man erreichen und halten kann. Dadurch nimmt unsere Fähigkeit und Neigung zu, abstrakt zu denken.

Noch wichtiger: Wenn wir anerkennen, dass ein solches Spektrum existiert, kommen wir fast wie von selbst zu einer Erklärung und einem Modell, wie Analogien entdeckt werden – also wie Kreativität funktioniert.

Am unteren Ende des Spektrums, wo wir unsere Gedanken „bewohnen“ (nicht beobachten), empfinden wir sie. Anders gesagt, am unteren Ende entstehen die Emotionen. Träumen ist emotional.

Gefühle sind ein starkes Mittel zum Kodieren oder Komprimieren. Auch ein Strichcode kann viel Information verdichten. Eine Emotion kann deshalb als eine Art „mentaler Strichcode“ angesehen werden, der eine Erinnerung verdichtet. Man könnte das mit einer „Emotionsfunktion“ E(m) beschreiben: Das ist die Funktion, die für eine Erinnerung m die Emotion E hervorruft, die man empfindet, wenn man an m denkt. Sie liefert allerdings keine eindeutigen Ergebnisse. Zwei verschiedene Erinnerungen können dasselbe Gefühl erzeugen.

Wie erfinden wir Analogien? Was brachte Shakespeare dazu zu schreiben: „Soll ich dich mit einem Sommertag vergleichen?“ Shakespeares Dame sah nicht aus wie ein Sommertag. (Und wie sieht überhaupt ein „Sommertag“ aus?)

Eine Analogie ist eine Gedankenabfolge aus zwei Elementen – auf„ein Sommertag“ folgt die Erinnerung an eine Person. Warum sollte der Geist diese beiden Elemente nacheinander heraufbeschwören? Was verbindet sie?

Die Antwort lautet: In manchen Fällen, vielleicht sogar in vielen, passen die „emotionalen Strichcodes“ genau zusammen – oder sind ähnlich genug. Die Dame und der Sommertag ließen den Dichter dasselbe empfinden.

Wir erleben mehr Emotionen, als wir benennen können. „Recht glücklich“, „glücklich“, „überschwänglich“, „euphorisch“ – die Auswahl der Worte ist begrenzt. Was aber empfinden wir, wenn wir den Briefkasten öffnen und einen Brief erwarten, der wahrscheinlich gute Nachrichten enthält, vielleicht aber auch erschütternd ist? Wenn wir ein Nashorn sehen? Diese Emotionen haben keine Bezeichnungen. Aber jede „repräsentiert“ oder „verdichtet“ eine Ansammlung von Umständen. Zwei Erfahrungen, die nichts miteinander gemeinsam haben, könnten – nur in Ihnen – dieselbe Emotion auslösen. Und Sie könnten dementsprechend auf eine Analogie kommen, die bisher niemand entdeckt hat.

Das kognitive Spektrum legt nahe, dass Analogien durch gleichartige Emotionen erzeugt werden: Die Verbindung zweier Gedanken, die denselben emotionalen Inhalt miteinander teilen.

Um eine simulierte Intelligenz mit eigenem Bewusstsein zu schaffen, brauchen wir keinen Computer mit echten Gefühlen – sie zu simulieren würde ausreichen. Aber auch das wird schwierig, ebenso wie eine Nachbildung von Erinnerungen mit all ihren komplexen „Multi-Media“-Daten.

Aber wenn wir dem Weg folgen, den Turing 1950 andeutete, wenn wir also die Frage des Bewusstseins außer Acht lassen und uns stattdessen auf den Prozess des Denkens konzentrieren, stehen die Chancen sehr gut, dass die KI-Forschung auf den rechten Weg zurückkommt. Dann könnte sie leistungsfähige neue Software hervorbringen und uns wichtige Erkenntnisse über die menschliche Intelligenz bringen.

David Gelernter ist Informatik-Professor an der Yale University. (nbo [1])


URL dieses Artikels:
https://www.heise.de/-280217

Links in diesem Artikel:
[1] mailto:nbo@bitfaction.com