KI auf dem Holzweg

Eine künstliche Intelligenz mit eigenem Bewusstsein aus Software zu erschaffen, wird nie gelingen – behauptet David Gelernter, KI-Forscher an der Yale University. Denn Probleme lösen ist nicht das Gleiche wie Denken.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Lesezeit: 39 Min.
Von
  • David Gelernter
Inhaltsverzeichnis

Seit ihren Anfängen ist die Künstliche-Intelligenz-Forschung von mehreren Fragen besessen: Können wir aus Software eine künstliche Intelligenz (KI) schaffen? Wenn nicht, warum nicht? Wenn ja, von welcher Art von Intelligenz sprechen wir dann? Von einer Intelligenz mit eigenem Bewusstsein – oder einer bewusstseinslosen, die zwar zu denken scheint, aber keine Erfahrungen und kein geistiges Innenleben hat? Diese Fragen spielen eine zentrale Rolle für unser Verständnis von Computern und ihren Möglichkeiten, von Rechenverfahren und ihrer ultimativen Bedeutung – und letztlich auch davon, was den menschlichen Geist ausmacht und wie er funktioniert.

Es sind tiefgreifende Fragen, die praktische Konsequenzen nach sich ziehen. KI-Forscher haben lange Zeit behauptet, dass der Verstand eine gute Orientierung bei subtilen, vertrackten oder tiefsinnigen Rechenproblemen biete. Heutige Software kann nur einen Bruchteil der Informationsverarbeitung bewältigen, die unser Verstand ganz routiniert löst: etwa wenn wir Gesichter erkennen oder anhand von visuellen Anhaltspunkten Elemente aus einer großen Gruppe herauspicken, wenn wir Feinheiten der natürlichen Sprache verstehen oder den gesunden Menschenverstand walten lassen, wenn wir erkennen, was eine Kadenz in der Musik stark, einen Witz komisch oder einen Film besser als einen anderen macht. Die KI-Forschung will herausfinden, wie das Denken funktioniert und das entsprechende Wissen für die Software-Entwicklung fruchtbar machen kann – und sie stellt sogar in Aussicht, unser Verständnis vom menschlichen Geist selbst zu erweitern. Fragen zu Software und Geist sind für Kognitionsforschung und Philosophie von herausragender Bedeutung.

Es gibt nur wenige Probleme, die noch folgenreicher für unsere Vorstellung sind, wer wir – als Mensch – sind.

Die gegenwärtige Debatte dreht sich vor allem um den Gegensatz zwischen etwas, das ich „simulierter Verstand mit Bewusstsein“ nennen möchte, und „simulierter Intelligenz ohne Bewusstsein“. Wir hoffen herauszufinden, ob Computer nur eine oder gar beide Formen erreichen können – oder keine von beiden.

Ich selbst halte es allerdings für höchst unwahrscheinlich, wenn auch nicht völlig unmöglich, dass je eine Intelligenz mit eigenem Bewusstsein aus Software heraus geschaffen werden kann. Doch selbst wenn: Das Resultat wäre ziemlich nutzlos, wie ich zeigen werde. Eine simulierte Intelligenz ohne Bewusstsein hingegen könnte aus Software wohl entstehen – und auch nützlich sein.

Leider wissen KI-Forschung, Kognitionswissenschaft und Philosophie nicht annähernd, wie man eine solche hervorbringt. Denn sie haben bisher die wichtigste Tatsache hinsichtlich des Denkens nicht berücksichtigt: das „kognitive Kontinuum“, das die scheinbar losen Puzzlestücke des Denkens (etwa analytisches Denken, gesunden Menschenverstand, analoges Denken, freie Assoziation, Kreativität, Halluzination) miteinander verbindet. Das kognitive Kontinuum erklärt, wie all diese Formen verschiedene Werte eines Parameters darstellen, den ich „mentalen Fokus“ oder „Konzentration“ nenne. Dieser Parameter ändert sich sowohl im Laufe eines Tages als auch im Verlaufe eines ganzen Lebens.

Ohne dieses kognitive Kontinuum fehlt der KI-Forschung ein wirklich umfassendes Verständnis des Denkens: Sie neigt dazu, einige Formen wie freie Assoziation oder Träumen zu ignorieren, sie weiß nicht, wie sich Emotion und Denken integrieren lassen, und sie hat erstaunlich wenig Fortschritte dabei gemacht, das Phänomen der Analogie zu verstehen. Das wiederum scheint der Kreativität zugrunde zu liegen.

Meine Position, Software-Intelligenz mit eigenem Bewusstsein sei so gut wie unmöglich, vertreten auch andere, aber wir sind in der Minderheit. Die meisten KI-Forscher und Philosophen glauben, eine solche Software-Intelligenz sei in greifbarer Nähe. Um es im Fachjargon auszudrücken: Die meisten sind „Kognitivisten“, nur wenige sind „Antikognitivisten“ – zu denen auch ich gehöre. Tatsächlich glaube ich sogar, dass die Kognitivisten noch falscher liegen, als ihre Gegner üblicherweise behaupten.

Dennoch geht es mir hier nicht darum, die bisherige KI-Forschung als Fehlschlag abzutun. Sie hat nur seit einiger Zeit einen blinden Fleck. Meine antikognitivistischen Mitstreiter haben zwar deshalb den Kognitivismus heftig angegriffen, aber nur wenige neue Ideen vorgebracht, die ihn ersetzen könnten. Sie haben gezeigt, was ihrer Ansicht nach nicht möglicht ist – eine Software-Intelligenz mit Bewusstsein. Aber nicht, wie wir etwas nicht ganz so Dramatisches, aber doch sehr Wertvolles kreieren könnten: eine Software-Intelligenz ohne Bewusstsein. Nur wenn sich die KI-Forschung auf die Mechanismen und die Algorithmen des Denkens zurückbesinnt, kann sie echte Fortschritte machen.

Bis dahin ist sie jedoch auf dem Holzweg.