Bilderkennung: US-Militär interessiert sich für neuromorphe Chips

Neuromorphe Chips sollen bei der Bildverarbeitung deutlich weniger Strom als konventionelle benötigen. Erste Tests der US-Luftwaffe mit dem TrueNorth-Chip von IBM sind "vielversprechend" verlaufen.

In Pocket speichern vorlesen Druckansicht 12 Kommentare lesen
Militär interessiert sich für neuromorphe Chips
Lesezeit: 2 Min.
Von

Die US-Luftwaffe testet die neuromorphe Plattform TrueNorth von IBM für die Bilderkennung. Bei Vergleichen mit einem Jetson TX-1 von Nvidia hätte der IBM-Chip nur ein Zwanzigstel der Energie verbraucht, erklärte einer der Luftwaffen-Ingenieure gegenüber Technology Review.

Der im August 2014 im Fachmagazin Science erstmals vorgestellte Chip, ist das Ergebnis der IBM-Beteiligung am 2005 begonnenen SyNAPSE-Projekt der Forschungseinrichtung Darpa. Seine "neurosynaptischen" Cores bestehen aus Axonen (Input-Bahnen), die mit beliebig vielen Nervenzellen (Verrechnungspunkten) im selben Core verbunden werden können. Sie verarbeiten Inputs ähnlich wie echte Nervenzellen und kommunizieren auch über die gleichen binären Signale, sogenannte Spikes.

Die effiziente Hardware steht allerdings erst jetzt vor dem Durchbruch, berichtet Technology Review in seiner aktuellen Ausgabe (jetzt im Handel und im heise shop erhältlich). Denn dem TrueNorth stand lange ein Software-Problem im Weg: Erst 2016 gelang es IBM-Forschern auf der neuromorphen Hardware eine Fehlerrückführung (Backpropagation) zu implementieren.

Im Fachjournal PNAS berichteten sie im August 2016, dass TrueNorth "trotz seiner neuen Architekturelemente" die Genauigkeit der besten verfügbaren Klassifikationen "nahezu erreicht" – dabei allerdings sehr viel schneller ist als tiefe neuronale Netze auf herkömmlichen Computern. Die Durchsatzrate in ihrem Bildklassifizierungstest lag bei 1200 bis 2600 Bildern pro Sekunde bei maximal 275 Milliwatt Leistungsaufnahme.

Experten wie der Physiker Karlheinz Meier, von der Universität Heidelberg, der im Projekt BrainScaleS selbst an neomorpher Hardware arbeitet, rechnen schon bald mit praktischen Anwendungen für diese Chips. "Das Killer-Argument ist, dass sie viel schneller lernen und dabei wenig Energie verbrauchen", sagt Meier. In Zukunft würden sie es erlauben, neuronale Netze auch offline zu nutzen. Das Kräfteverhältnis in der digitalen Welt würde sich damit spürbar verschieben.

Mehr zur Bilderkennung des IBM-Chips bei Technology Review online:

(jle)