Neuronales Upgrade

Wie Rätsel des Gehirns im Computer entwirrt werden

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Manchmal macht das Gehirn Sachen, von denen keiner recht weiß, warum. Wir sind gewohnt, das Gehirn als organische Rechenmaschine zu sehen. Das ist zwar eine Metapher mit Hinkefuß, aber sie hoppelt doch recht weit. Die Trennung von Hard- und Software eines klassischen von Neumann-Rechners gibt es im Gehirn freilich nicht, doch gibt es längst künstliche neuronale Netzwerkarchitekturen, die uns das Gehirn als ein großes, vielschichtiges, parallel arbeitendes und rückgekoppeltes Netz vorstellbar machen. In solchen Netzen ist die Übertragungsstärke der Verbindungen zwischen zwei Neuronen - der sog. Synapsen - Hardware und Software in einem. Die Neuronen sind nach bestimmten Regeln miteinander verbunden - nur vorwärts oder auch rückgekoppelt, mehrschichtig oder einschichtig, konvergent oder divergent -, und man kann sie lehren, Muster zu speichern, zu erkennen und zu klassifizieren.

Alle Neurobiologen, die sich mit synaptischen und plastischen Prozessen beschäftigen, glauben letztlich, dass das Gehirn so ähnlich funktioniert wie ein künstliches neuronales Netz. Nur über die Art der Lernregeln und die Bedeutung biologischer Parameter gibt es Uneinigkeit.

Geht man so an das Gehirn heran, dann können Mathematiker unversehens etwas mit dem weißen Glibberklumpen anfangen. Sie knöpfen sich sein computerbasiertes Surrogat vor und beweisen, was ein künstliches neuronales Netz unter welchen Bedingungen kann, oder sie programmieren Simulationen und beobachten in silico, wie man das dann nennt, Vorgänge, die in vivo der Untersuchung nicht zugänglich sind, weil sie zu schnell, zu klein oder zu parallel sind. Auf die eine oder andere Weise kommen sie zu Vorhersagen, welche Neurobiologen experimentell zu überprüfen versuchen können.

Pionier in dieser mathematischen Richtung war David Marr, der schon in den 70ern Vermutungen darüber anstellte, wie verschiedene Bereiche des Gehirns als Netzwerk funktionieren. Unter anderen nahm er sich den Hippokampus vor, jene etwas altertümliche Struktur in beiden Schläfenlappen, die Neues erkennt und ins Langzeitgedächtnis überführt. Der Hippokampus ist ein wundervolles Spielfeld für Mathe- und Informatiker, weil er ganz klar in hintereinandergeschaltete Schichten gegliedert ist. Marr schrieb der Eingangsschicht, dem Gyrus dentatus, u.a. die Funktion zu, ankommende Muster zu orthogonalisieren, d.h., in voneinander linear unabhängige Vektoren zu überführen. Dazu, so Marr, ist nichts als Divergenz nötig, also ein Übergang von relativ wenigen Neuronen zu relativ vielen. Das entspricht dem anatomischen Befund - fertig war die Theorie.

Wozu werden neue Zellen gebraucht?

Seltsam nur, dass schon einige Jahre zuvor, nämlich 1965, die Forscher Altman und Das entdeckt hatten, dass im Gyrus dentatus auch nach der Geburt noch neue Neuronen gebildet werden. Das war sensationell, denn bis dahin war man davon ausgegangen, dass der große Ramón y Cajal mit seinem damals 40 Jahre alten Diktum recht hätte, wonach das Gehirn bei der Geburt vollständig sei. Trotzdem ließen die neurobiologischen Methoden der 60er Jahre nicht zu, der Sache weiter nachzugehen. Die Entdeckung verschwand in den Archiven, wurde in den 80ern einmal bestätigt und fand erst in den 90ern plötzlich größere Beachtung. Plötzlich explodierte die Literatur zu dem Thema. Tausend Einflüsse auf die Bildungsrate neuer Zellen wurden gefunden, und man begann sich zu fragen: Wozu sind diese neuen Zellen eigentlich gut?

Bis zum Anfang dieses Jahrzehnts konnte man darüber nur spekulieren. Es war unmöglich, die Neubildung von Zellen gezielt zu unterbinden. Im Jahre 2001 versuchte es Tracy Shors mit einem Zellteilungshemmer und fand erwartungsgemäß, dass hippokampusabhängige Lernfunktionen gestört waren. Aber Zellteilungshemmer sind ziemlich üble Gifte, und niemand war sicher, ob die gefundenen Beeinträchtigungen nicht an irgendwelchen Nebenwirkungen lagen. Erst im Jahr darauf entdeckte die Arbeitsgruppe von Theo Palmer an der Stanford University, dass Röntgenbestrahlung, wie sie zur Krebstherapie eingesetzt wird, die Zellteilung unterbindet. Und nun hagelt es endlich Untersuchungen, die röntgenbestrahlte Tiere durch verschiedene Lerntests schicken und meistens überall dort Beeinträchtigungen finden, wo man den Hippokampus beteiligt weiß.

Nur: Die eigentliche Frage ist damit noch lange nicht beantwortet. Wie machen die neuen Neuronen das? Warum braucht das Gehirn für räumliche Gedächtnisbildung neue Neuronen, warum ausgerechnet im Gyrus dentatus, wenn es für andere Aufgaben und fast im gesamten restlichen Gehirn (nur der Riechkolben erhält auch Frischzellen) mit seinem festen Vorrat an Nervenzellen auskommt? Wo hatte sich Marr geirrt?

Die Modelle der Neuroinformatik

Die experimentelle Neurobiologie ist weit davon entfernt, diese Frage beantworten zu können. Also verwies man sie wieder an die Neuroinformatiker. Die gingen hin und nahmen jeder sein Lieblingsnetzwerk - die einen ein Perzeptron, die anderen ein McCulloch-Pitts-Netz, die dritten einen Autoencoder - und probierten aus, was passiert, wenn man Zellen austauscht oder hinzufügt. Und fanden tatsächlich Antworten.

In der Arbeitsgruppe von Ralph E. Hoffman and der Yale University School of Medicine lehrte man mehrschichtige Perzeptrons das Alphabet, oder genau genommen zwei Alphabete: erst das lateinische ABC, dann das griechische alpha-beta-gamma. Bevor das Umlernen begann, wurde ein unterschiedlicher Teil der Zellen in der mittleren Schicht (auch „hidden layer“ genannt) erneuert. Das Ergebnis konnte eigentlich nicht sehr überraschen: Je mehr Zellen in der mittleren Schicht ausgetauscht wurden, desto schneller wurde das alte Alphabet vergessen und das neue gelernt. Immerhin haben aber auch andere Simulationen und experimentelle Daten herausgestellt, dass Lernen nur eine Seite der Medaille ist: Um Informationen aufbereiten zu können, muss ein System auch imstande sein, vergangenes und unwichtiges Wissen zu vergessen. Vielleicht liegt hier der Hauptnutzen des Neuronenaustauschs.

Andererseits sind künstliche neuronale Netze auch sonst gerne vergesslich, und meistens sieht man das eher als Problem: „Katastrophale Interferenz” nennt man das Problem, dass mehrschichtige Netze beim Lernen neuer Muster die vorher gelernten vergessen, weil alle Synapsen sich nun anders einstellen. Laurenz Wiskott von Institut für Theoretische Biologie in Berlin glaubt, dass neue Neuronen dazu dienen, diese Katastrophe zu vermeiden: Er sieht das hippokampale Netzwerk als einen „Autoencoder“, also ein mehr- (hier: drei-)schichtiges Netzwerk, in dem die Ausgangsschicht dasselbe Muster liefert wie die Eingangsschicht, während die hidden layer eine kleinere Anzahl von Zellen hat. Diese mittlere Schicht setzt er mit dem Gyrus dentatus gleich und lässt ihr Zellen zuwachsen, nimmt aber keine weg. Tatsächlich hilft diese Aufstockung dem Netz, alte Muster zu behalten und neue dazu zu lernen.

Markus Butz von der Abteilung Neuroanatomie in Bielefeld schließlich geht die Frage ganz anders an. Er fragt nicht, was ein Netzwerk mit neuen Neuronen rechnen kann, sondern, wie es störende Einflüsse verkraftet. Seine Neuronen sind nicht einfach Recheneinheiten, sondern homöostatische Zellen in einem selbstorganisierenden Netz, die über ihre Ein- und Ausgänge ihren Erregungszustand regeln. Butz fragt, wie die zusätzlichen Neuronen dabei helfen. Tatsächlich ist diese Frage im Hippokampus von Belang, denn er besteht aus einer rückgekoppelten Hintereinanderschaltung von erregenden Neuronen. Geraten diese außer Kontrolle, dann kann sich eine Erregung aufschaukeln - in der Medizin kennt man diesen Zustand als Epilepsie. Gerade hier ist es also sehr wichtig, dass Stabilität in das Netzwerk gebracht wird - zum Beispiel durch neue Neuronen. Sie können gerade zu Anfang ein bisschen mehr Anregung ganz gut gebrauchen, um sich fest einzuknüpfen, und puffern damit Störeinflüsse in Maßen ab. Steckt man jedoch zu viele neue Zellen in das Netz, während die Belastung allzu stark wird, dann passiert im künstlichen dasselbe wie im natürlichen Netzwerk: Die meisten Zellen sterben ab und das Netzwerk bricht zusammen.

Ist der Nutzen neuer Neuronen damit geklärt? Wirklich wissen werden wir das erst, wenn es gelingt, die tatsächlichen Netzwerkprozesse in vivo oder wenigstens ex vivo, also in Gehirnpräparationen, zu beobachten. Man darf nie vergessen, dass die Wissenschaftler im Computer nicht das Gehirn nachbilden, sondern ihre Vorstellungen vom Gehirn. Ob Zellen tatsächlich homöostatische Einheiten sind, ob der Hippokampus tatsächlich ein Autoencoder ist - die Fragen gelten letztlich den Erkenntnistheoretikern. Aber da alle Wissenschaft letztlich nie die Welt erklärt, sondern die Welt in einer Erklärung abbildet, sind Computermodelle nicht schlechter als jede Theorie. Indem wir sie verstehen, verstehen wir vielleicht nicht, warum das Gehirn tut, was es tut - wohl aber, warum wir denken, wie wir denken.