Geist in der Maschine

In Lausanne wollen Biologen und Informatiker auf einem der schnellsten Rechner der Welt ein detailgetreues Abbild des der Großhirnrinde schaffen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 22 Min.
Von
Inhaltsverzeichnis

Markus Bärtschi wird den Tag unseres Besuches so schnell nicht vergessen. Denn an diesem warmen Spätsommertag in Lausanne wurde sein zweites Kind geboren. In einem guten Jahr wird der Kleine wohl schon laufen, einzelne Worte sprechen, wie selbstverständlich nach Gegenständen greifen – und damit die besten und am weitesten entwickelten Roboter, die die Wissenschaft derzeit hervorbringen kann, locker ausstechen. Aber vielleicht hat sein Vater in diesem Frühjahr und Sommer nicht unerheblich dazu beigetragen, den Rückstand der Maschinen zu verringern. Denn Bärtschi hat im Auftrag von IBM an der Eidgenössischen Technischen Hochschule in Lausanne einen Rechner installiert, mit dem Biologen und Informatiker Großes vorhaben: Sie wollen auf der Maschine ein detailgetreues Abbild der Großhirnrinde installieren. Und irgendwann soll auf einem noch besseren Rechner ein komplettes menschliches Hirn aus Einsen und Nullen entstehen.

Vier schwarze, mannshohe Schränke stehen in den Tiefen des Rechenzentrums wie gegen den ewig rauschenden Fahrtwind der Lüftung geneigt. Diese Blue-Gene-Maschine gehört zum Feinsten, was man im Supercomputing-Bereich bekommen kann. Mit 8192 Prozessoren und einer Spitzenleistung von knappen 23 Teraflops – das sind tausend Milliarden Fließkomma-Operationen pro Sekunde – steht sie zurzeit auf Platz 13 in der Rangliste der schnellsten Computer der Welt. Wir stehen angemessen beeindruckt vor dem schwarzen Ungetüm, das uns Bärtschi, seine zappelnde Erstgeborene an der Hand, vorführt. Bevor er zu seiner Frau ins Krankenhaus enteilt, gewährt er einen kleinen Einblick in die Eingeweide der Maschine.

„Was mir daran besonders gut gefällt“, erklärt Bärtschi fast liebevoll, „ist, wie ordentlich das alles aufgebaut ist.“ Hier also, in diesem Kellerraum, der von Summen und Brummen und vielerlei Gerätschaften erfüllt ist, soll die Basis- Einheit des Säugetier-Gehirns simuliert werden – für den Anfang wurde eine Ratte als Vorbild gewählt. Und auch wenn sich die Forscher erst einmal nur einen halben Millimeter Hirn vorgenommen haben, geht das Projekt weit über das hinaus, was bei bisherigen Arbeiten zu sehen gewesen ist: Das ausgewählte Hirnstück gilt als universeller Schaltkreis von Intelligenz schlechthin, als entscheidender Baustein in der Evolution des Primatengehirns. Auf Bärtschis Mega-Rechner soll es all das tun, was es auch in einem echten Lebewesen leisten würde.

An dem überaus ehrgeizigen Vorhaben sind Dutzende von Arbeitsgruppen in Frankreich, Israel und den USA beteiligt. Sein Chefdenker ist Henry Markram, ein in Südafrika geborener Experimentalbiologe mit israelischer Staatsbürgerschaft. Der Co-Direktor des Brain Mind Institute an der Lausanner Hochschule sitzt in einem in kühlem Schwarz-Weiß gehaltenen Büro, an der Wand steht ein Ständer mit einer kleinen Auswahl an Krawatten für den schnellen offiziellen Auftritt. Markram spricht ruhig und leise, erklärt unaufgeregt, wie er das „Neuron in seiner natürlichen Umgebung“ zu studieren gedenke: Das ist ganz und gar nicht der Prototyp des verrückten Wissenschaftlers, kein Frankenstein-Erbe mit wirren Haaren und stechendem Blick; viel eher der abgeklärte Manager eines erfolgreichen Unternehmens. „Das kleinstmögliche Netzwerk, das man sinnvollerweise untersuchen muss, besteht aus mindestens 1000, besser noch 10 000 Neuronen“, sagt Markram. „Da gibt es keine Grenze nach oben.“ Und: „Dabei kann durchaus so etwas wie Intelligenz entstehen.“ Das klingt, als sei der Geist in der Maschine reine Fleißarbeit.

An der Wand hinter Markrams Besprechungstisch hängt ein rund zwei Meter langes Foto, auf dem einzelne, leuchtend gelb eingefärbte Nervenzellen zu sehen sind. Es handelt sich um einen Schnitt durch die „kortikale Kolumne“ einer Ratte, um eben jenes universale Hirnmodul, das in Lausanne zu virtuellem Leben erweckt werden soll. „Wir haben uns für diese Struktur entschieden, weil sie den evolutionären Sprung von den Reptilien zu den Säugetieren darstellt“, erklärt Markram. Entdeckt wurde der Hirnbaustein erstmals von Vernon Mountcastle in den fünfziger Jahren. Der amerikanische Neurowissenschaftler untersuchte damals mittels Elektroden den Teil der Hirnrinde von Katzen, der auf Berührungsreize reagiert. Als er seine Elektrode durch den Kortex bewegte, fand er zylindrisch geformte Strukturen, innerhalb derer alle Nervenzellen auf den gleichen Reiz reagierten. Kurze Zeit später erkannten David Hubel und Torsten Wiesel ein vergleichbares Prinzip im visuellen Kortex von Katzen, wofür sie 1981 den Nobelpreis für Medizin erhielten. Die bahnbrechende Erkenntnis: Visuelle Reize werden in der Sehrinde zunächst anhand ihrer „Modalitäten“ aufgeschlüsselt und dann weiterverarbeitet.

So reagieren einzelne Kolumnen zum Beispiel, wenn eine Linie mit einer bestimmten Neigung ins Blickfeld gerät, andere Kolumnen bei einer bestimmten Farbe oder Bewegung. Tatsächlich hat es den Anschein, als sei unser großes, tief gefurchtes Großhirn entstanden, weil sich das Hirnmodul ab einem bestimmten Zeitpunkt in der Evolution wie eine autonome Einheit vervielfältigte und die Hirnrinde sich so immer weiter ausdehnte. Besonders die Primaten konnten dadurch Sinnesreize immer aufwendiger verarbeiten und ihre Umwelt in immer höherer Auflösung wahrnehmen.

Der eigentliche Clou der Kolumnen, die man inzwischen auch mit bildgebenden Verfahren sichtbar machen kann, besteht dabei nach Ansicht vieler Neurowissenschaftler in ihrer universalen Konstruktion. So haben zum Beispiel amerikanische Forscher vor einigen Jahren bei neugeborenen Frettchen die Sehnerven zu dem Teil der Großhirnrinde umgeleitet, der normalerweise Höreindrücke verarbeitet. Die neu verdrahteten Frettchen verarbeiteten nun visuelle Eindrücke mit einem Hirnareal, das dafür ursprünglich gar nicht vorgesehen war – fast wie Computer-Prozessoren, die je nach Software unterschiedliche Aufgaben erfüllen können.

Nicht nur für eine hochaufgelöste Wahrnehmung der Welt, auch für kognitive Prozesse, Gedächtnisleistungen, sogar für Bewusstsein machen manche Forscher das allgegenwärtige Modul verantwortlich. „Nur der Input entscheidet über die Funktion der Kolumne“, sagt Markram. „An der einen Stelle verarbeitet sie visuelle Eindrücke, aber wenn man sie herausnimmt und an eine andere Stelle platziert, kann sie genauso gut über Mathematik nachdenken.“

Die Kolumne, die das Team um Markram zunächst simulieren will, ist dem sensorischen Kortex junger Ratten abgeschaut und enthält etwa 10000 Neuronen. Sie ist damit vergleichsweise einfach gebaut – manche der Hirnmodule sind rund zehnmal so groß. Aber jedes einzelne Neuron besitzt fein verästelte Fortsätze, die Kontaktstellen mit 1000 bis 10 000 anderen Nervenzellen ausbilden und dort mittels chemischer Botenstoffe aktivierende oder dämpfende Signale senden. Wird ein bestimmter Schwellenwert erreicht, so lösen die vielen Einzelsignale einen aktiven Impuls, ein „Aktionspotenzial“ aus – die Nervenzelle feuert und trägt dieses Signal wiederum an tausende andere Zellen weiter. Dabei werden die Inputs jedoch nicht einfach aufsummiert: Jede Nervenzelle ist eine eigene Informationsbearbeitungs-Maschine, die auf vieltausendfachen Input an vielen unterschiedlichen Orten mit komplexem Timing nach verschiedensten Regeln mit einem aktiven Output antworten kann.

Wie kommt ein solcher aktiver Impuls zustande? Jede Zelle, so auch die Nervenzelle, ist durch eine Außenhaut gegen die Umwelt abgegrenzt, die allerdings gewissermaßen löcherig ist: Durch so genannte Ionenkanäle können selektiv und geschaltet Kalium- und Natrium-Ionen strömen. Ionenpumpen genannte Proteine in der Membran transportieren fortlaufend Kalium ins Zellinnere und Natrium aus der Zelle heraus. Angetrieben von dem Konzentrationsgefälle strömen die positiven Kaliumionen durch geöffnete Kaliumkanäle nach außen, sodass an der Membran bereits im Ruhezustand eine Spannung anliegt. Wenn sich nun entweder durch chemische Botenstoffe oder durch einen elektrischen Impuls auch die Natriumkanäle öffnen, dann kann Natrium einströmen und die Potenzialdifferenz ausgleichen. Aus dem ganzen Geschehen ergibt sich ein zeitlich veränderliches Ungleichgewicht der Ionen, das sich entlang der langgezogenen Zellfortsätze wie eine Welle auf einem Seil zu den anderen Zellen fortpflanzen kann.

Die Simulation soll das Zusammenwirken all dieser Zellen nun detailgetreu abbilden. Den Großteil der vergangenen zehn Jahre hat Markram mit seinem Team damit verbracht, die genaue Lage der einzelnen Nervenzellen in der Ratten-Kolumne zu ermitteln und ihre Verschaltung zu untersuchen. Dabei setzt er eine besondere Methode ein: Mit der Patch-Clamp- Technik kann man durch eine trickreiche Anordnung mittels einer haarfeinen Pipette den Stromfluss durch einzelne Ionenkanäle messen.

Die Gruppe um Markram hat mit dieser Technik eine Virtuosität erreicht, die auch sonst kritische Kollegen neidlos anerkennen. „Wir können bis zu zwölf Neuronen gleichzeitig messen“, erklärt Markram. Dazu schneiden seine Mitarbeiter eine dünne Scheibe aus dem Gehirn junger Ratten und halten die Zellen in einem Nährmedium am Leben. Mit Hilfe eines Laserstrahls können sie an bestimmten Punkten aus einer photosensitiven chemischen Verbindung einen Neurotransmitter wie Glutamat freisetzen und so gezielt einzelne Neuronen stimulieren. Unter dem Mikroskop untersuchen sie dann, welche weiteren Zellen auf diesen Reiz reagieren, und ergründen so das Zusammenspiel der 10 000 Neuronen. „Nervenzellen sind wie Bäume mit Wurzeln und Zweigen, die in alle Richtungen im Raum wachsen“, sagt Markram, „in all der Komplexität scheint zunächst kein Sinn zu stecken, aber man muss nur tief genug graben, dann werden die Regeln, nach denen sich die unterschiedlichen Typen von Neuronen verknüpfen, plötzlich klar.“

Und genau dieses experimentelle Wissen bildet die Grundlage für das Hirn im Computer: Die Blue-Brain-Simulation wird mit den erhobenen Datenmassen gefüttert und soll dann die elektrische und chemische Kommunikation unter den Zellen für die gesamte Kolumne so originalgetreu wie möglich wiedergeben. Jedes Messergebnis bei der Stimulation des echten Hirngewebes an einem bestimmten Punkt soll mit dem übereinstimmen, was der Computer als Ergebnis eines Reizes am Modell an derselben Stelle berechnet.

Die spannende und auch umstrittenste Frage dabei lautet: Was bedeutet „so originalgetreu wie möglich“? Denn schon einmal, in den achtziger Jahren, glaubte man sich auf dem besten Weg, die Informationsverarbeitung des Gehirns im Computer nachbilden zu können. Die Informatiker reduzierten die komplexe neuronale Maschinerie auf die ihrer Meinung nach eigentliche Aufgabe: Reize zusammenfassen, mathematisch verarbeiten und weiterleiten.

„Im Prinzip könnte man neuronale Netze auch umbenennen in Funktionennetze“, erklärt Raúl Rojas, Professor für Künstliche Intelligenz an der FU Berlin, „Netze von sehr vielen einfachen kleinen Berechnungseinheiten, die miteinander verbunden sind.“ Die Stärke der Verbindungen zwischen den einzelnen Neuronen wird zunächst in einer Anfangsmatrix festgelegt. Ein Neuron wird aktiviert, wenn die Summe aller Inputs, die von den anderen Neuronen kommen, einen bestimmten Schwellenwert überschreitet. In diesem Fall erzeugt das Neuron einen Output, der wiederum seinen Anteil am Input für die mit ihm verbundenen Neuronen darstellt. Der Lernprozess solcher einfachen Netze besteht darin, die Gewichtungen der Verbindungen zu verändern.

Das Resultat ist erstaunlich: Ohne dass man explizite Vorschriften programmieren müsste, ist so ein neuronales Netz beispielsweise in der Lage, Tendenzen aus Börsenkursen abzulesen, Gesichter zu klassifizieren oder eine Armprothese zu steuern – oder ganz generell Muster zu erkennen. Die Konnektionisten waren begeistert: Es schien erwiesen, dass Intelligenz sich wie von selbst aus dem Zusammenwirken großer Netze einfacher Einheiten manifestiert. Doch die Forschung auf dem Gebiet der neuronalen Netze konnte die anfänglichen hohen Erwartungen nicht erfüllen. Kein neuronales Netz, egal wie groß und kompliziert, fängt einfach an zu denken.

In den technischen neuronalen Netzen werde die „komplexe Biologie des Neurons auf einen Punkt reduziert“, kritisiert Markram, der mit seinem Team nun möglichst viel dieser Komplexität erfassen will. Anstatt Neuronen weiterhin als Punkt abzubilden, will er sie in all ihren Verästelungen darstellen, die Ausbreitung der Aktionspotenziale, ja sogar die einzelnen Ionenkanäle in mathematische Gleichungen bringen – immer getreu der detaillierten Messungen im Rattenhirn-Gewebe. Im Prinzip lassen sich Aktionspotenziale durch Diffusionsgleichungen, beziehungsweise die nahe verwandte so genannte Kabel- Gleichung, berechnen: Damit beschreibt man die zeitliche und räumliche Änderung der Spannung entlang der Nervenzelle durch zeitlich veränderliche Größen wie etwa die Leitfähigkeit der Zellmembran. Der Computer integriert diese Gleichungen numerisch, und man erhält die zeitliche und räumliche Änderung des Zellpotenzials ausgeworfen. Die Simulation modelliert nun das komplexe räumliche und zeitliche Zusammenspiel tausender unablässig feuernder Nervenzellen. Markram und seine Kollegen müssen dabei das Rad nicht neu erfinden. Sie benutzen zum einen ein Simulationspaket namens NEURON, das von Michael Hines and John Moore an der Duke University entwickelt wurde, um einzelne Nervenzellen detailliert zu modellieren. Ein Benutzer von NEURON kann mit einer eigenen Modellbeschreibungssprache zunächst die Morphologie einer Zelle eingeben, indem er sie in kurze zylindrische Abschnitte aufteilt. Dann gibt er entsprechend weitere Eigenschaften ein, zum Beispiel welche Ionenkanäle die Zellmembran enthält. Letztlich kann NEURON zum Beispiel berechnen, ob eine Nervenzelle bei einem bestimmten Input mit einem Aktionspotenzial reagiert.

Für das Blue-Brain-Projekt wird NEURON mit einer Simulationssoftware namens NCS verheiratet, die von Philip Goodman an der Reno University für die Simulation großer Verbände von Neuronen entwickelt wurde und die mit verhältnismäßig einfachen neuronalen Modellen arbeitet. Das Ergebnis soll Neuradamus heißen und Masse mit Klasse vereinen. Ein speziell entwickeltes Interface namens BlueStim soll es dem Benutzer ermöglichen, die rund 100 Millionen Synapsen der simulierten Kolumne gezielt zu stimulieren und zudem Reize aus benachbarten Kolumnen und anderen Hirnregionen einzugeben. Im Endergebnis soll die Simulation berechnen, wie sich ein Stimulus in dem Netz fortpflanzt und das Geschehen auch grafisch wiedergeben können.

In einem ersten Testlauf haben Markram und sein Team bereits im September 2005 eine Simulation von 25 000 einfachen Neuronen laufen lassen. Im Herbst schlossen die Wissenschaftler auch einen ersten Lauf mit rund 8000 Neuronen in einer laut Markram bereits „morphologisch detaillierten Kolumne“ mit drei bis fünf Sorten von Ionenkanälen ab, bis Ende 2005 wollten die Forscher diese Simulation schließlich weiter verfeinern und jedes Neuron mit bis zu zwölf verschiedenen Ionenkanälen rechnen, die aus einer Basis von 100 Grundmodellen ausgewählt werden. Die Hauptschwierigkeit, so Markram, liegt nicht in der eigentlichen Simulation, sondern in der zeitaufwendigen Eingabe der Verbindungen zwischen den Neuronen, die die Wissenschaftler aus ihren Experimenten gewonnen haben. „Das ist mehrere Millionen Mal komplexer als alle Simulationen, die bislang gemacht worden sind“, verkündet Markram stolz, „aber wir liegen gut in unserem Zeitplan.“

Großen Anteil daran hat der Blue-Gene-Supercomputer. Er eignet sich aufgrund seiner Architektur mit vielen Einzelprozessoren relativ gut für das Vorhaben – ist allerdings nicht speziell dafür konstruiert worden. Die Problematik: Wenn man 1000 Steine 1000 Meter weit transportieren muss, kann man einen Arbeiter damit beschäftigen, tausend Mal hin und her zu rennen. Man kann aber auch tausend Arbeiter damit beschäftigen, jeweils einen Stein zu transportieren. Das Beispiel illustriert die grundlegende Idee von Supercomputern: Weil man einen Prozessor auch heute noch nicht beliebig schnell rechnen lassen kann, teilt man die Rechenaufgabe so auf, dass sie von möglichst vielen bearbeitet wird, um so möglichst schnell zum Resultat zu kommen. Bei Blue Gene hat IBM sich dafür entschieden, sehr, sehr viele, aber vergleichsweise langsame Prozessoren sehr dicht miteinander zu vernetzen. Die einzelnen Prozessoren sind durch drei verschiedene Netzwerke miteinander verkoppelt, die es Markram und Kollegen erlauben, gerade das Zusammenwirken und die Kommunikation der einzelnen Neuronen sehr genau zu modellieren.

Für Markram ist aber selbst der mächtige Blue Gene nur ein Schritt auf dem Weg zu seiner großen Vision: Das gesamte menschliche Gehirn zu simulieren. Noch berechnet Blue Gene mit jedem Prozessor nur eine Nervenzelle, für das menschliche Gehirn würde er also mindestens zehn Milliarden Prozessoren benötigen. Doch Markram ist überzeugt, dass sich die Modelle abstrahieren lassen, und setzt zudem auf die zunehmende Rechenkraft künftiger Supercomputer. „Mit der nächsten Generation des Blue Gene können wir vielleicht schon einige tausend Neuronen mit einem Prozessor betreiben. Dann können wir schon mit dem Mäusegehirn beginnen, das besteht nur aus etwa zehn Millionen Nervenzellen.“ Das menschliche Gehirn, so Markram, sei im Grunde zu 80 Prozent aus kortikalen Kolumnen aufgebaut: „Wenn wir erst einmal eine Kolumne haben, dann kann man sie auch vervielfältigen – ich sehe eigentlich keine prinzipiellen Hindernisse, warum diese Strategie nicht funktionieren sollte.“

Pure Rechenkraft gepaart mit detaillierten Aufzeichnungen – fertig ist das künstliche Menschenhirn? Andere Forscher sind skeptisch. „Das Blue-Brain-Projekt ist ein guter Ansatz, aber im Grunde verstehen wir die Kolumne noch lange nicht“, sagt etwa Dirk Feldmeyer vom Forschungszentrum Jülich, der wie Markram schon lange die Verschaltung der Kolumne erforscht. Noch deutlicher wird Klaus Pawelzik von der Universität Bremen, der Markram aus gemeinsamen Arbeiten gut kennt: „Wir sammeln jetzt seit hundert Jahren Daten, ohne wirkliches Verständnis“, beschreibt der theoretische Physiker die Fleißarbeit der Neurobiologen. „Als Galilei seine erste Formel hingeschrieben hatte, da verstand man plötzlich besser, was fallende Steine so machen. Wir aber befinden uns noch in einer prä-galileiischen Phase. Markram will alle Daten in eine massive Computersimulation stecken, und er hofft, dass dadurch auf mysteriöse Weise plötzlich Verständnis entsteht. Aber selbst wenn die Simulation der Realität gleicht, was haben wir damit schon gewonnen? Das heißt doch nur, dass wir Phänomene reproduzieren können. Aber ich kann intelligentes Leben schaffen, indem ich ein Kind zeuge. Damit habe ich noch lange nichts verstanden. Das ist Kochrezept-Wissenschaft.“

Der Einwand verdeutlicht die Kluft in der Denkweise von Biologen und Physikern, die auf dem Gebiet der „Computational Biology“ eng zusammenarbeiten müssen. Auch Markram spart nicht mit deutlichen Worten. „In den Neurowissenschaften gibt es eine Krankheit, die lautet: Mach es einfach, auch wenn es falsch ist, denn dann funktioniert es. Ich aber will nicht vereinfachen. Mathematische Theorien sind ein nützliches Werkzeug, sie können aber nie das Gehirn beschreiben. Will man Komplexität verstehen, dann gibt es keinen anderen Weg, als sie systematisch zu erfassen. Es muss einen Grund für hundert verschiedene Typen von Nervenzellen geben.“ Immerhin freuen sich die Theoretiker doch auch über das ambitionierte Vorhaben in Lausanne: „Allein die Aufregung, die es um das Projekt gibt, das hat Markram schon gut hingekriegt“, sagt Pawelzik. „Und die Provokation, die für uns Theoretiker da drin steckt, die hat ja auch etwas Inspirierendes. Er wird viele Leute anziehen, er wird Leute wie mich dazu bringen nachzudenken.“

Was also, wenn Markram Recht behält? Wenn es eines Tages gelingt, das gesamte menschliche Gehirn bis ins Detail zu simulieren – was wird dann geschehen? Wird dann in den Kellerräumen eines Instituts ein großer schwarzer Schrank stehen, der plötzlich ausgibt „Ich denke, also bin ich“? Die Pioniere der künstlichen Intelligenz, die jahrzehntelang betont haben, eine denkende Maschine sei nur eine Frage der Rechenkapazität, bekämen auf diesem Wege doch noch Recht.

Der bekannteste Einwand gegen die Vision einer denkenden Maschine dürfte wohl das 1980 von dem amerikanischen Philosophen John Searle aufgestellte Gedankenexperiment des „chinesischen Zimmers“ sein: Ein Mensch, der Chinesisch weder sprechen noch lesen kann, sitzt in einem verschlossenen Raum. Durch einen Schlitz in der Wand erhält er ein Blatt mit ihm unverständlichen chinesischen Schriftzeichen. Nun befinden sich in dem Raum auch Handbücher mit Regeln, wie die unverständlichen Zeichen mit anderen kombiniert werden müssen. Nur mit Hilfe dieser Handbücher kann der Mann scheinbar intelligente Antworten auf ein Blatt schreiben, das er durch den Schlitz nach außen schiebt. Der Raum, argumentiert Searle, hat die Information bearbeitet, ohne sie wirklich zu verstehen. Ein Computer aber könne ebenfalls nur auf diese Weise funktionieren.

Wäre also ein künstliches Bewusstsein nicht nur genau das? Eine Art geschickte Täuschung, eine Imitation? Mit letzter Sicherheit werden wir es nie wissen. Und weil wir ein anderes Bewusstsein nur durch äußere Merkmale erkennen können, müssten wir eines Tages vielleicht auch Blue Brain ein solches zubilligen – findet Michael Pauen, Professor für Philosophie, der sich mit diesen Fragen in seinen Büchern eingehend beschäftigt hat. Auch Searles vielzitiertes Gedankenexperiment lässt sich seiner Ansicht nach leicht entkräften: „Sie brauchen nur Fragen zu stellen wie etwa: Widerspricht diese Antwort nicht der, die du mir vorhin gegeben hast? So können Sie das System überführen – es kann keine rekursiven Fragen beantworten oder gar neue Lösungen hervorbringen.“

Prinzipiell gebe es kein Argument, das die Existenz einer denkenden Maschine verbieten würde, sagt Plauen – sie wäre wahrscheinlich nur sehr viel komplexer, als wir uns das ausmalen könnten: „Stellen Sie sich vor, in einem Fußballstadion formt sich aus den Armen der Zuschauer eine Welle“, erklärt Pauen. „Wenn Sie nur die Bewegung der einzelnen Moleküle beschreiben, dann würden Sie in dem Wust von Daten wahrscheinlich das Wesentliche übersehen. Auf der Ebene von Einsen und Nullen können Sie kein Bewusstsein entdecken, entscheidende Dinge werden erst auf einer bestimmten Beschreibungsebene sichtbar.“

Realitätsabgleich am Genfer See: Mit einer kleinen Zahnradbahn steigen wir aus der Höhe der Universität zum Ufer hinab. Am sorgfältig manikürten Promenaden-Park ist ein nostalgisches Kettenkarussell installiert; auf dem blauen Genfer See rauschen weiße Ausflugsdampfer in die goldgefärbte Abendstimmung. Eine Frau in einem Rollstuhl fährt vorbei und wirft ihrem Hund eine leere Plastikflasche zu. Das Tier springt hinterher, kämpft mit der Flasche, bekommt sie schließlich zu fassen. Schwanzwedelnd legt es Frauchen die Beute zu Füßen, und seine Begeisterung spiegelt sich in dem Gesicht der Frau wider. Fühlen beide die gleiche Freude? Wie viel interpretieren wir in diese Verhaltensweise hinein? Macht dem Hund das Spielen Spaß? Erkennt er überhaupt, dass er spielt? „Bewusstsein ist eine Größe, die objektiver wissenschaftlicher Erkenntnis nicht zugänglich ist“, sagt Markrams Kollege Pawelzik. „Niemand außer Ihnen kann sicher sagen, ob Sie überhaupt ein Bewusstsein haben.“ Dem spielenden Hund ist dieses Argument anscheinend egal – aber wer weiß.

(Dieser Artikel ist entnommen aus TR 01/2006. Das Heft können Sie hier bestellen.) (wst)