Chips jetzt mit Hirn

Bald kommen die ersten neuromorphen Chips aus dem Labor ins richtige Leben. Die nach dem Vorbild von Gehirnen gebauten Chips erkennen Muster, sind lernfähig und brauchen extrem wenig Energie.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Christian Honey

Den IBM-Forschern konnte man nicht übertriebenes Marketing vorwerfen. Im August 2014 stellten sie ihren neuartigen Prozessor namens TrueNorth im Fachmagazin "Science" vor und schrieben lediglich von seiner "neuromorphen" Architektur, die den Elementen des Gehirns nachempfunden sei. Ansonsten aber waren die Autoren mit futuristischen Versprechen eher zurückhaltend: "Vielleicht können wir die heute existierenden Algorithmen für neuronale Netze effizient auf die Architektur übertragen." Dieses Jahr soll zeigen, dass sie falsch lagen – im positiven Sinn. Denn in den ersten neuromorphen Systemen wird sehr viel mehr stecken als ursprünglich vermutet.

Die Zurückhaltung rührte aus den Ursprüngen von TrueNorth. Sie liegen im 2005 gegründeten SyNAPSE-Projekt der Forschungseinrichtung Darpa des US-Militärs und damit lange vor den jüngsten Erfolgen in der künstlichen Intelligenz. Erst sieben Jahre später, im Jahr 2012, sollte eine Gruppe um Geoffrey Hinton von der Universität Toronto den ImageNet-Wettbewerb für die automatische Bilderkennung mit einem tiefen neuronalen Netzwerk gewinnen und dem "Deep Learning" zu einem Durchbruch verhelfen.

Theoretisch ist TrueNorth wie kein anderer Chip prädestiniert für solche Deep-Learning-Anwendungen. Denn sein Aufbau ist dem Nervensystem nachempfunden. Seine "neurosynaptischen" Cores bestehen aus Axonen (Input-Bahnen), die mit beliebig vielen Nervenzellen (Verrechnungspunkten) im selben Core verbunden werden können. Sie verarbeiten Inputs ähnlich wie echte Nervenzellen und kommunizieren auch über die gleichen binären Signale, sogenannte Spikes.

Ironischerweise gab es aber gerade für diesen hirnartigen Aufbau noch keine Version des Lernalgorithmus, mit dem heute praktisch alle neuronalen Netze arbeiten, von Googles Bildklassifizierung über Apples Siri-Sprachassistent bis zu AlphaGo von DeepMind. Yann LeCun etwa, der KI-Chef von Facebook und ehemaliger Mitarbeiter von Geoffrey Hinton, formulierte denn auch eine vernichtende Kritik an TrueNorth auf Facebook: "Es konnte noch nie gezeigt werden, dass Integrate-and-Fire-Netzwerke […] bei irgendeiner der Aufgaben, die heute interessant sind, akkurate Ergebnisse liefern."

Nun aber ist es IBM gelungen, genau jene Netzwerke, auf die sich LeCun bezog, auf TrueNorth mit guten Ergebnissen zu übertragen, inklusive des Lernalgorithmus. Im Fachjournal "PNAS" berichteten sie im August, dass TrueNorth "trotz seiner neuen Architekturelemente" die Genauigkeit der besten verfügbaren Klassifikationen "nahezu erreicht" – dabei allerdings sehr viel schneller ist als tiefe neuronale Netze auf herkömmlichen Computern.

Die Durchsatzrate in ihrem Bildklassifizierungstest lag bei atemberaubenden 1200 bis 2600 Bildern pro Sekunde. Der Chip könnte also die Bilder von 100 Kameras gleichzeitig in Echtzeit auswerten. Der Energieverbrauch lag bei nur 25 bis 275 Milliwatt und damit etwa tausendmal effizienter als bei herkömmlichen Computerchips.

"Ich bin überzeugt davon, dass wir bald schon die ersten Anwendungen von neuromorpher Hardware sehen werden", sagt dazu Karlheinz Meier, Experimentalphysiker an der Universität Heidelberg, der die Studie für "PNAS" begutachtet hat. Im Projekt BrainScaleS arbeiten er und sein Team selbst an neuromorpher Hardware. "Das Killerargument ist, dass sie viel schneller lernen und dabei wenig Energie verbrauchen." In Zukunft würden sie es erlauben, neuronale Netze auch offline zu nutzen. Das Kräfteverhältnis in der digitalen Welt würde sich spürbar verschieben. Denn bisher benötigen neuronale Netze gigantische Rechnerparks in der Cloud, was den großen Digitalkonzernen wie Google, Facebook oder Amazon in die Hände spielt.

Physiker Meier könnte recht behalten: Wenige Tage nach der "PNAS"-Veröffentlichung hat IBM bei einem Research-Event gemeinsam mit Samsung den Prototyp einer Gestensteuerung vorgestellt, die auf TrueNorth basiert. Sie arbeitet mit einem Dynamic Vision Sensor (DVS), der nur dann Signale erzeugt, wenn sich in der Szene vor ihr etwas ändert. Das DVS-Prinzip, das der Retina eines Auges nachempfunden und damit ebenfalls "neuromorph" ist, sorgt dafür, dass sehr viel weniger auszuwertende Daten anfallen. Bildverarbeitung wird damit noch schneller und braucht weniger Rechenkapazität.

Im November stellte der Leiter des SyNAPSE-Projekts, Dharmendra Modha, auf der Supercomputing-Konferenz SC16 im US-amerikanischen Utah ein ganzes "Ökosystem" vor: ein Hardware-Board mit einem TrueNorth-Chip, das mit mehreren anderen zusammengeschaltet werden kann, ein zweites Board mit 16 TrueNorth-Chips und eine darauf angepasste Software, mit der verschiedenste neuronale Netze simuliert und trainiert werden können.

Mit dieser Plattform haben Partner von IBM bereits Anwendungen entwickelt, die auf einen Endnutzermarkt hinweisen, darunter einen Handschrift-Taschenrechner für Android. Viele weitere dürften folgen. Insgesamt arbeiten 35 Partnerlabore mit den neuen Hirnchips, darunter je eines an der Universität München und Ulm. Ihre Entwicklungen reichen von Methoden zur Detektion von Supernovas über die Robotik bis zur Echtzeit-Verkehrsüberwachung. Das vollmundige Versprechen einer "integrierten, intelligenten, vom Gehirn inspirierten Informationsverarbeitung" im "PNAS"-Paper vom August könnte Wirklichkeit werden. (bsc)