Chiptechnik: Pi mal Daumen

Die Darpa finanziert einen Chip, der besonders ungenau rechnet. Das passt bestens zu den Computer-Herausforderungen von heute.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 5 Min.
Von

Ihr Mathelehrer hat gelogen: Manchmal ist es eine gute Sache, nicht so genau zu rechnen. Das sagt jedenfalls Joseph Bates, Mitgründer und CEO von Singular Computing – einem Unternehmen, dessen Computerchips absichtlich so verschaltet sind, dass ihre mathematischen Berechnungen nicht ganz richtig sind. Wenn man 1+1 eingibt, bekommt man Antworten wie 2,01 oder 1,98.

Das Unternehmen hat den Chip im Auftrag der Darpa entwickelt, der Forschungsagentur des Pentagons. Der Grund: Die Ungenauigkeit spielt bei manchen schwierigen Computerproblemen keine Rolle – die ungenauen Chips können aber sehr viel schneller rechnen und verbrauchen sehr viel weniger Energie. "Nur weil die Hardware Mist ist, muss das von der Software gelieferte Ergebnis nicht auch Mist sein", sagt Bates. Ein Chip, der nicht garantieren könne, dass jede Berechnung perfekt ausfällt, könne bei vielen Problemen immer noch gute Ergebnisse liefern, brauche aber weniger Energie.

Bates ist nicht der Erste mit der Idee, Daten mit ungenauer Hardware effizienter zu verarbeiten. Mit Approximate Computing besitzt das Konzept auch bereits einen eigenen Namen. Aber sein Projekt könnte der noch jungen Forschungsrichtung erheblich mehr Schwung verleihen.

"Im Grunde genommen waren Chipentwickler schon immer gezwungen zu akzeptieren, dass Computer nicht beliebig genau rechnen können", sagt Christian Plessl, der an der Universität Paderborn an der Anwendung von Approximate Computing für wissenschaftliches Rechnen forscht. "Der kulturelle Bruch ist jetzt aber, diese Ungenauigkeit als Vorteil zu betrachten und zu überlegen, was können wir damit gewinnen?"

Betreibt man zum Beispiel die Recheneinheiten konventioneller Chips mit einer zu niedrigen Spannung, kann man viel Energie sparen. Die Rechenwerke auf dem Chip funktionieren dann zwar nicht mehr zuverlässig, aber ein gewisser Prozentsatz wird – statistisch gesehen – das richtige Ergebnis liefern. Lässt man viele solcher ungenauen Recheneinheiten parallel arbeiten und bildet den Mittelwert der Ergebnisse, erhält man trotzdem ein brauchbares Ergebnis – bei deutlich geringerem Stromverbrauch.

Mit dem Sandia National Lab, der Carnegie Mellon University, dem Office of Naval Research und dem MIT hat Bates in Simulationen getestet, ob das Konzept tatsächlich aufgeht. Laut Bates sind die Ergebnisse seines "S1" genannten Chips vielversprechend – bei Anwendungen wie hochaufgelöstem Radar-Imaging, dem Extrahieren von 3D-Informationen aus 2D-Fotos und der Technik Deep Learning, die zuletzt sprunghafte Fortschritte bei künstlicher Intelligenz ermöglicht hat. Bei einem der Versuche wurde beispielsweise simuliert, bestimmte Objekte, etwa Autos, auf Videos zu verfolgen. Dabei verarbeitete das Konzept die einzelnen Frames fast 100-mal schneller als ein konventioneller Prozessor. Der Stromverbrauch sank um 98 Prozent.

Derzeit baut Bates einige Computer, in denen jeweils sechzehn seiner Approximate Processing Elements (APE) miteinander vernetzt und mit einem konventionellen Prozessors gekoppelt sind. Die Darpa soll in diesem Sommer fünf dieser Maschinen bekommen und will sie online stellen. Forscher der Regierung und von Universitäten sollen sie ausprobieren können. Die Hoffnung ist, das Potenzial der Technologie zu belegen und Interesse bei der Chipindustrie zu wecken. Die Darpa-Finanzierung ist Teil eines Programms namens Upside, das auf die Erfindung neuer und effizienterer Methoden zur Videoverarbeitung abzielt. Denn Militärdrohnen können zwar riesige Mengen an Luftaufnahmen liefern, doch die lassen sich aus der Luft nicht immer versenden, und für die Verarbeitung an Bord ist konventionelle Technik zu schwer.

Damit ungenaue Hardware wirklich ihren Platz in der IT-Welt findet, wird es allerdings noch einige bemerkenswerte Leistungen in der Software-Entwicklung brauchen – und einen Kulturwandel. Programmierer, die an superpräzise Chips gewöhnt sind, müssten sich erst einmal umstellen, sagt Christian Enz, Professor an der ETH Lausanne, der selbst Chips für Approximate Computing entwickelt hat. Sie werden zudem neue Hilfsmittel benötigen, sagt er. Dazu gehört etwa Software, um die Arbeitsteilung im Computer zu organisieren:

Welche Teilaufgaben können die schlampigen Chips erledigen, und welche sind bei den hochpräzisen besser aufgehoben? Für viele Anwendungen ist zudem bisher unklar, wie groß die Ungenauigkeit einzelner Rechenschritte werden darf, damit das Gesamtergebnis immer noch brauchbar ist. "Einfache Fehlerabschätzungen sind schon lange bekannt", sagt Plessl. "Aber was passiert, wenn Sie in Ihrem Programm Rückkopplungsschleifen haben oder nichtlineare Abhängigkeiten? Wir haben noch keine mathematischen Werkzeuge, um zu berechnen, wie ungenau das Ergebnis dann wird."

Für Deb Roy, Professor am MIT Media Lab und der Chef-Medienwissenschaftler von Twitter, verbessern neuere Entwicklungen in der Informatik die Chancen von Approximate Computing dennoch beträchtlich. Es passe gut zur derzeit wichtigsten Entwicklung in der Informatik: Daten zu berechnen, die von Natur aus verrauscht sind, etwa für die Analyse von Fotos und Videos oder bei Versuchen, mit Computern menschliches Verhalten zu verstehen. (wst)