Der Hirn-Simulator
Die dürftige Faktenlage könnte damit zusammenhängen, dass Markram und seine Kollegen konkurrierenden Forschern nicht zu viel verraten wollen. Schließlich sind sie nicht die Einzigen, die versuchen, das Gehirn nachzubauen. Die wohl ernsthafteste Konkurrenz stellt das Team um Dharmendra Modha vom IBM Research Lab in Almaden (Kalifornien) dar. Modhas Team verfolgt freilich einen anderen Ansatz: Statt biologische Abläufe eins zu eins abzubilden, setzen die Forscher auf ein künstliches neuronales Netz, das um einige typische Funktionen aus dem Gehirn erweitert wird. Womöglich reichen die bisherigen Ergebnisse aus Lausanne aber auch einfach noch nicht für eine Veröffentlichung aus. Markram selbst spricht von fast 40 publizierten Arbeiten – räumt jedoch ein, dass es darin weniger um die Ergebnisse der Simulationen geht, sondern vor allem um die Technologie dahinter. "Wir müssen das Schreiben von Artikeln, die unsere Kritiker besänftigen, mit der eigentlichen Hauptaufgabe, dem Bauen des Simulators, ausbalancieren", erklärt er wolkig.
Das Human Brain Project soll nicht nur helfen, die Geheimnisse des Gehirns zu lüften. Es soll auch dazu beitragen, die mehr als 500 bekannten Hirnkrankheiten zu verstehen. "Das ist ein ernstes Problem", sagt Markram. Die Pharmabranche ziehe sich mehr und mehr aus der Forschung zurück, weil das Gehirn zu komplex sei und die Entwicklung neuer Medikamente zu riskant und zu teuer. Etwa 100000 wissenschaftliche Fachaufsätze würden pro Jahr in der Hirnforschung publiziert. Markram nennt das einen "Daten-Tsunami". Er will der Flut der Paper mit dem avisierten Hirnsimulator begegnen, an dem Forscher ihre Hypothesen testen können. Und an dem sie womöglich die Mechanismen von Alzheimer und anderen Krankheiten entdecken. Markrams lautstarkes Werben um die EU-Forschungsmilliarde stößt manchen Forschern angesichts der dürftigen Ergebnisse übel auf. Viel PR, wenig Substanz – lautet der Vorwurf. Heftige Kritik musste Markrams Team von Kollegen aus Zürich einstecken, die in dem Vorhaben in erster Linie die Verschwendung öffentlicher Gelder sehen. ETH-Forscher Richard Hahnloser nannte es "ungeheuerlich", dass für ein Projekt mit derart ungewissem Ausgang Hunderte von Millionen ausgegeben werden sollen.
Skeptisch äußert sich auch der Berliner Informatiker Raúl Rojas. Er glaubt, dass die Forscher die Komplexität des Gehirns schlicht unterschätzen. "Markram und Modha versuchen zum Mond zu fliegen, dabei ist gerade eben erst das Rad erfunden worden." Man wisse nicht, wie viel man immer noch nicht wisse. Rojas kritisiert zudem, dass die Forscher aus Lausanne bislang mit einem geschlossenen System arbeiten: "Was ist mit der Sensorik?", fragt er. "Ein System kann erst intelligent werden, wenn es mit der Welt interagiert und sich dadurch verändert." Zu den Zweiflern gehörte ursprünglich auch Stanislas Dehaene, Hirnforscher am Institut national de la santé et de la recherche médicale (INSERM) in Paris. Dehaene, Autor diverser Bücher wie "Der Zahlensinn", gehört mittlerweile zum Team des Human Brain Project, er soll den Bereich Verhalten und Kognition leiten. "Das Human Brain Project ist nicht so futuristisch, wie es erscheint", erklärt er.
Das Problem der gewaltigen Komplexität hoffen die Beteiligten mit der sogenannten Multiskalensimulation in den Griff zu bekommen. "Manchmal müssen wir jedes Detail sehr genau simulieren", erklärte Dehaene, "bei anderen Prozessen können wir Abstraktionen vornehmen." Die Ergebnisse einer Detailsimulation werden dann beispielsweise in Form von Parametern in abstraktere, weniger detaillierte Modelle eingespeist, die den großen Zusammenhang abbilden sollen. Derartiges Simulieren in verschiedenen Skalen ist beispielsweise in der Wirtschaft schon lange üblich. Um eine Volkswirtschaft zu simulieren, muss nicht jeder einzelne Kunde und jedes einzelne Geschäft berücksichtigt werden. Es reicht aus zu wissen, wie viel Prozent der Konsumenten welche Produkte kaufen. Wer aber verstehen will, wie eine umgestaltete Innenstadt das Einkaufsverhalten beeinflusst, muss bis auf die Ebene von Personen gehen. "Es wird keine Simulation geben, die alles beinhaltet", sagt Dehaene. Manche Teile werden abstrahiert sein, andere detailliert.
Sorge, dass ihr Projekt scheitert, weil die erforderliche Rechenpower fehlt, haben die beteiligten Wissenschaftler jedenfalls nicht. Mit Thomas Lippert, Leiter des Supercomputing Zentrums am Forschungszentrum Jülich, hat das Human Brain Project einen Wissenschaftler an Bord geholt, der über reichlich Erfahrungen mit großen Rechnern verfügt: Der Supercomputer "Jugene" am Forschungszentrum Jülich, bestehend aus IBMs Blue Gene/P, hat 73000 Vierkernprozessoren mit 850 Megahertz. Jugene liegt damit auf Rang 13 der weltweiten Top-500-Liste der Supercomputer – Stand November 2011. Der Computer, auf dem die ersten Simulationen der neokortikalen Säule in Lausanne durchgeführt wurden – einem IBM Blue Gene/L mit rund 8000 Prozessoren –, ist dagegen richtiggehend klein. Lippert räumt zwar ein, dass es Prozesse im Gehirn geben könnte, bei denen man noch nicht weiß, wie man sie in großem Maßstab simulieren soll. "Womöglich brauchen wir dafür eine spezielle Hardware wie den Com-puter ,Anton', der von dem New Yorker Institut D. E. Shaw Research speziell für Protein-Faltungen entwickelt wurde." Es könne auch sein, dass man sogenannte neuromorphe Chips benötige – Prozessoren, die Hirnstrukturen direkt in Hardware abbildeten. "Diese Entscheidung können wir heute aber noch nicht treffen." Generell sieht er die Herausforderungen bei der Hirnsimulation aber sogar als wichtigen Motor für die Informatik: "Die Rechner sind über Anwendungen entwickelt worden – das war schon immer so. Das Human Brain Project soll zeigen, wie man solche Rechner bauen kann", sagt Lippert.
Er und seine Kollegen träumen dennoch bereits den Traum von einem intelligenten Roboter, dessen Steuerung dann der Hirnsimulator übernimmt. Der Computer Watson aus der Quizshow "Jeopardy" sähe im Vergleich dazu aus wie ein besserer Taschenrechner. Womöglich bringt das Human Brain Project die Menschheit ja tatsächlich der sogenannten Singularität ein großes Stück näher. Darunter verstehen Informatiker den Zeitpunkt, an dem sich die Geschwindigkeit und Richtung des technischen Fortschritts nicht mehr abschätzen lassen: Wenn Roboter beispielsweise in der Lage wären, sich selbst zu verbessern, wäre dies ein solcher Singularitätspunkt. Der amerikanische Informatiker Ray Kurzweil hat 2006 die Prognose abgegeben, dass die erste Singularität im Jahr 2045 erreicht wird. Markram und seine Kollegen steuern auf 2020 zu. (bsc)