Anzeichen von Bewusstsein bei ChatGPT und Co.?

Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft.

In Pocket speichern vorlesen Druckansicht 420 Kommentare lesen
Hacker,Artificial,Intelligence,Robot,Danger,Dark,Face.,Cyborg,Binary,Code

(Bild: LuckyStep/Shutterstock.com)

Lesezeit: 8 Min.

Ein interdisziplinäres Forscherteam hat ein Paper veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.

"Das soll nicht heißen, dass die derzeitigen KI-Systeme wahrscheinlich ein Bewusstsein haben werden – es stellt sich auch die Frage, ob sie die Techniken in der richtigen Weise kombinieren", so die Forscher. Aber es deute einiges darauf hin, dass "bewusste KI nicht nur eine ferne Möglichkeit in der fernen Zukunft ist". Eine starke Ansage also, die förmlich danach schreit, etwas näher untersucht zu werden. Welche Konzepte und Ideen stecken in diesem Paper und bedeutet das tatsächlich, dass sich Bewusstsein in einem Computer herstellen lässt?

Die Frage, ob sich das Rätsel des Bewusstseins überhaupt lösen lässt, ist umstritten. 1974 schrieb der Philosoph Thomas Nagel in einem – noch immer viel zitierten – Essay, dass wir wahrscheinlich niemals verstehen könnten, wie andere Lebewesen die Welt erleben, oder in seinen Worten, "wie es ist, eine Fledermaus zu sein". Auch der Philosoph David Chalmers war 1995 nur wenig optimistischer, als er die Suche nach einer naturwissenschaftlichen Erklärung für subjektives Erleben als "Hard Problem" bezeichnete, das sich möglicherweise niemals lösen ließe. Ungeachtet dessen haben sich in den vergangenen 30 Jahren mehrere Theorien herausgebildet, die auf verschiedenen Abstraktionsebenen versuchen zu erklären, was Bewusstsein ist.

Die meisten dieser Theorien – und die Standardannahme vieler Neurowissenschaftler – gehen dabei von einem materialistischen Standpunkt aus: So etwas wie ein "göttlicher Funke", eine "unsterbliche Seele" oder etwa "Feinstoffliches" kommt darin nicht vor. (Das war in der Geschichte der Wissenschaft lange nicht so. Über Jahrhunderte dominierte die von Descartes propagierte Idee, dass Seele und Körper quasi unabhängig nebeneinander existieren.) Das Universum besteht aus physikalischem Material, und jede Erklärung von Bewusstsein als Phänomen kann nur von mit physischer Materie und ihren Wechselwirkungen arbeiten. Als einzige moderne Theorie passt der "Pan-Psychismus" jedoch nicht ganz in das klassische Schema: Die Vertreter dieser Schule gehen davon aus, dass Bewusstsein so etwas wie eine Ureigenschaft jeder Form von Materie ist.

Mit dem Pan-Psychismus eng verwandt, aber wesentlich konkreter und mathematischer ist die Integrated Information Theory (IIT), die zuerst 2004 vom italienischen Hirnforscher Giulio Tononi vorgeschlagen wurde. IIT geht das Problem auf einer sehr viel abstrakteren Ebene an. Nach dieser Theorie lässt sich jedem physikalischen System eine Bewusstseins-Maßzahl zuordnen. Diese Zahl Φ (der griechische Buchstabe Phi) liegt zwischen 0 und 1 und beschreibt, grob gesagt, die Menge an Informationen, die ein System "als Ganzes‟ erzeugt – über die Menge an Informationen hinaus, die von seinen einzelnen Teilen erzeugt werden.

Obwohl dies sehr abstrakt und teilweise kontraintuitiv ist, ging aus der IIT ein Testverfahren hervor, mit dem gemessen werden kann, ob Koma-Patienten bei Bewusstsein sind. Dabei wird aus dem EEG des Patienten der sogenannte Perturbation Complexity Index (PCI) berechnet – indem die LZW-Komplexität der Messwerte berechnet wird. Dieser Index soll darüber Aufschluss geben, ob eine Person bei Bewusstsein ist. Die Forscher haben sogar einen Grenzwert von 0,31 errechnet, der 2016 bei einer Studie unbewusste und bewusste Zustände gesunder und hirngeschädigter Probanden unterscheiden konnte. Er stellt die genaueste Bewusstseinsmessung dar, die es bislang gibt.

Andere Theorien setzen stärker am Aspekt der abstrakten Informationsverarbeitung an. Die Aufmerksamkeitsschema-Theorie des Bewusstseins (AST) beruht auf dem Konzept der "Meta-Kognition" (Denken über das Denken). Das Modell geht davon aus, dass Bewusstsein ein Modell von Aufmerksamkeit konstruiert, das Fakten über die aktuellen Objekte der Aufmerksamkeit repräsentiert und hilft, Aufmerksamkeit zu kontrollieren, "ähnlich wie ein Körperschema bei der Kontrolle von Körperbewegungen hilft", heißt es in dem Paper. "Bewusstes Erleben hängt von den Inhalten des Aufmerksamkeitsschemas ab. Ich erlebe zum Beispiel bewusst, dass ich einen Apfel sehe, wenn das Schema repräsentiert, dass ich mich gerade mit einem Apfel beschäftige."

Die "Global-Workspace-Theorie" wurde von dem Psychologen Bernard Baars erstmals 1988 verschlagen und von dem Neurowissenschaftler Stanislas Dehaene erweitert. Nach dieser Theorie werden mentale Inhalte (Wahrnehmungen, Gedanken, Emotionen etc.) in verschiedenen Hirnregionen autonom verarbeitet. Sie gelangen in das Bewusstsein, wenn mehrere verschiedene Hirnregionen synchronisiert auf diese Inhalte zugreifen, die dann in einem "globalen Arbeitsbereich" zur Verfügung stehen. Die bewusste Wahrnehmung eines Objektes erlaubt es, mit dem Objekt Aktionen zu planen, oder durchzuführen. Die Theorie gehört damit zu den "funktionalen" Erklärungen, nach denen Bewusstsein in erster Linie über seinen Nutzen erklärt werden muss.

"Predictive Processing"-Theorien beschreiben in verschiedenen Variationen das Gehirn als selbstständig lernende Prognose-Maschine. Nach dieser Theorie bildet das Gehirn ständig Hypothesen über die Ursachen und den weiteren Verlauf der eingehenden Daten – und zwar so, dass der Unterschied zwischen der Hypothese und den Sinnesdaten möglichst klein wird. Bewusstsein sei, schreibt beispielsweise Anil Seth in seinem Buch "Being You: Eine neue Wissenschaft des Bewusstseins", das Resultat dieses Abgleichs, eine "kontrollierte Halluzination", eine Vorstellung darüber, wie die Welt ist, basierend auf den Signalen der Sinne. Mathematisch lässt sich das beispielsweise durch das Free Energy Principle des britischen Hirnforschers Karl Friston beschreiben ("Free Energy and the Brain").

Darüber hinaus gibt es eine Reihe Theorien, für die das "Embodiment", also das Vorhandensein eines physischen Körpers, wichtig ist. Nach der sensomotorischen Theorie des Bewusstseins beispielsweise entstehen bewusste Erfahrungen aus der Interaktion mit der Umwelt. Das Bewegen des Kopfes beispielsweise ermöglicht uns, ein Objekt aus einer anderen Perspektive zu sehen. Das Bild sieht anders aus, obwohl es sich immer noch um dasselbe Objekt handelt – die bewusste Wahrnehmung des Objektes ist eine Abstraktion aus verschiedenen Perspektiven. Eine notwendige Voraussetzung dafür ist "Agency", die Fähigkeit, körperlich mit der Umgebung zu interagieren.

Die Forschenden nehmen laut dem Paper eine "computational functionalist‟-Perspektive ein. "Funktionalismus" bedeutet, dass Bewusstsein etwas ist, das eine Funktion hat – also einem bestimmten Zweck dient. Das Wort "computational" bedeutet in diesem Zusammenhang, dass die Funktion von Bewusstsein darin besteht, Information zu verarbeiten – in der Regel Informationen aus den Sinneseindrücken. Eine direkte Folgerung aus dieser These ist, dass Bewusstsein etwas ist, das nicht ausschließlich auf biologische Gehirne beschränkt ist. Eine zweite Folgerung ist, dass Bewusstsein in einem Computer simuliert werden kann.

Dass die Autoren diese Hypothese vertreten, ist bei näherem Hinsehen nicht wirklich erstaunlich. Der Hauptautor der Studie, der Philosoph Patrick Butlin, ist Fellow am "Future of Humanity Institute" in Oxford, das seit Jahren zu "existenziellen Gefahren" für die Menschheit forscht. Er hat unter anderem einen offenen Brief initiiert, in dem führende Silicon-Valley-Größen einen sechsmonatigen Entwicklungsstopp für große Sprachmodelle forderten, weil KI-Systeme mit "menschenähnlichen Fähigkeiten ein großes Risiko für die Gesellschaft und die Menschheit" darstellten.

Ideengeber und ursprünglicher Initiator der Studie ist denn auch der britische Philosoph Nick Bostrom – einer der intellektuellen Köpfe des effektiven Altruismus. Das Paper lässt sich nicht allein deshalb einfach so abtun. Allein dieser kurze – und notwendigerweise unvollständige – Überblick zeigt aber, dass die Diskussion um Bewusstsein als solches und Bewusstsein im Computer sehr viel komplexer und breiter ist, als in dem Paper angerissen. Überspitzt formuliert könnte man sagen: Die Autoren sind zu Ergebnissen gekommen, die in der sorgfältig ausgewählten Fragestellung bereits angelegt waren.

(bsc)