Hardware mit Hirn
Lernen, verstehen, schlussfolgern: Mit bioinspirierten Systemen wollen Forscher das Erfolgskonzept des menschlichen Denkorgans kopieren.
- Holger Dambeck
Lernen, verstehen, schlussfolgern: Mit bioinspirierten Systemen wollen Forscher das Erfolgskonzept des menschlichen Denkorgans kopieren.
Der Mensch ist ein miserabler Kopfrechner. Eine einfache Multiplikation kann bis zu einer Sekunde dauern – und das Ergebnis stimmt auch nicht immer. Ein Taschenrechner arbeitet deutlich schneller und zudem in der Regel fehlerfrei. Trotzdem bewundern Computerexperten das menschliche Gehirn. Denn es kann, woran Chips bislang schei-tern: lernen, komplexe Zusammenhänge verstehen, aus bruchstückhaften Informationen ein Gesamtbild konstruieren, Prognosen für Zukünftiges abgeben. Und dafür benötigt es nur lächerlich wenig Energie: Rund 20 Watt beanspruchen die grauen Zellen und vollbringen dabei Kunststücke, die Supercomputer mit bis zu 12 Megawatt Leistung – also 600000-mal so viel – bislang vollkommen überfordern.
Da nützt es auch nichts, dass Computerprozessoren in den vergangenen Jahrzehnten stetig komplexer und leistungsfähiger geworden sind. Intel-Gründer Gordon Moore stellte bereits 1965 fest, dass sich die Zahl der Transistoren pro Fläche auf integrierten Schaltungen alle zwei Jahre verdoppelt. Das nach ihm benannte "Mooresche Gesetz" gilt im Prinzip bis heute. Doch die Miniaturisierung lässt sich nicht unendlich weitertreiben. Je kleiner ein Transistor ist, desto größer werden die Verlustströme im Chip und desto geringer ist seine Effizienz.
Wenn Ingenieure nicht so recht weiterkommen bei der Lösung eines technischen Problems, hilft oft ein Blick in die Natur. Haifischhaut, Flügeldesign oder Lotuseffekt – im Laufe der Evolution sind in der Tier- und Pflanzenwelt geniale Materialien und raffinierte Technikkonzepte entstanden, die sich nutzen lassen. Inzwischen versuchen Forscher, das Prinzip Bionik auch auf Chips und Computer zu übertragen. Sie fragen sich: Was macht ein Gehirn so leistungsfähig? Kann man diese Mechanismen nicht nutzen, um ganz neuartige Hardware zu entwickeln? Und könnte ein solcher sogenannter neuromorpher Computer dann all das, was der Mensch mit seinem Gehirn hinbekommt? Lernen, analysieren, fremde Sprachen verstehen, sich in einer fremden Umgebung zurechtfinden?
Für Chipentwickler bedeutet das allerdings nicht weniger als eine Revolution, denn der prinzipielle Aufbau von Gehirn und Computer könnte unterschiedlicher kaum sein. Klassische Computer sind zentralistisch: Schon seit der Entwicklung der allerersten Röhrenrechner gehorcht der grobe Aufbau eines Computers der Von-Neumann-Architektur: Der Prozessor lädt Daten aus dem Speicher in sein Register, verarbeitet sie nach den im Programm festgehaltenen Instruktionen und legt das Ergebnis wieder im Speicher ab – Schritt für Schritt. Die Informationen werden digital verarbeitet, in Form von Einsen und Nullen.
Der Vorteil: Die Prozessoren arbeiten "deterministisch" – bei identischem Input sind auch die berechneten Ergebnisse gleich. Der Nachteil: Die Computertechnik ist sensibel. Ein kleiner Fehler in der Hardware genügt, und das ganze System funktioniert nicht mehr.
Ein Biocomputer wie das Gehirn ist das komplette Gegenteil: Es verarbeitet Informationen dezentral. Seine Nervenzellen, die Neuronen, sind untereinander über sogenannte Synapsen verbunden, wobei ein einzelnes Neuron mit bis zu 10000 anderen Neuronen verknüpft sein kann. Es gibt keine Trennung von Speicher und Informationsverarbeitung. Die Synapsen dienen als Informationsablage, gemeinsam mit den Neuronen verarbeiten sie aber zugleich auch Informationen. Das System kommt mit kleineren Ausfällen meist problemlos klar. Sind ein paar Neuronen beschädigt, dann springen benachbarte Zellen ein.
Neuromorphe Systeme könnten daher für einen Paradigmenwechsel in der Informatik sorgen. "Das Gehirn kennt keine lineare Abarbeitung von Befehlen", erklärt IBM-Forscher Dharmendra Modha, einer der Pioniere in Sachen neuromorphes Computing. "Wenn Sie so wollen, sind die heute existierenden Computer Maschinen, die wir der Funktionsweise der linken Gehirnhälfte zuordnen können: rational, analytisch, textorientiert, gut im Umgang mit abstrakten Zahlen und Symbolen. Was wir schaffen wollen, sind Computer, die arbeiten wie die rechte Gehirnhälfte: parallel, nichtlinear, ereignisgesteuert, verteilt und fehlertolerant."
Das hätte weitreichende Folgen: "Stellen Sie sich zukünftige kognitive Systeme vor, die Informationen aus der realen Welt verdauen können", schwärmt Modha. "Informationen, die unvollständig sind, uneindeutig, fehlerbehaftet. Trotzdem können die Systeme daraus koordinierte, kontextabhängige Aktionen in Echtzeit ableiten." Anwendungen sieht der Informatiker überall dort, wo Software auf solche fehlerbehafteten, unvollständigen Daten zugreift, um daraus so etwas wie Sinnzusammenhänge zu erzeugen. "Sie könnten die Ozeane der Welt mit vernetzten Sensoren versehen. Sie könnten damit genauso vor Tsunamis warnen wie Fischereiflotten lenken", sagt Modha. "Oder stellen Sie sich den Handschuh eines Gemüsehändlers vor, der mit Sensoren ausgestattet ist, um Feuchtigkeit und Temperatur zu messen. Mit einer Berührung könnte man verdorbene Ware aufspüren."
Das Gehirn zum Vorbild zu erheben, ist allerdings in einem Punkt problematisch: Wie genau der Bio-Rechner funktioniert, ist noch nicht geklärt. Einig sind sich die Wissenschaftler aber mittlerweile darin, dass die Synapsen eine zentrale Rolle spielen. Jedes Neuron sendet, wenn es angeregt wird, kurze Spannungspulse aus. Über die Synapsen erreichen diese Pulse andere Neuronen. Wenn ein Neuron genügend Spikes anderer Neuronen empfängt, beginnt es selbst zu feuern, sendet also einen Spike aus. Doch die Synapse entscheidet darüber, ob der Spike von einem Neuron zu einem anderen übertragen wird. Eine Synapse kann Spikes weiterleiten, aber auch unterdrücken. Wenn wir lernen, ändert sich die Stärke dieser Verbindungen – Neuroforscher bezeichnen dies als Plastizität.