Schlampiger rechnen: Approximate Processing Elements sollen IT-Herausforderungen besser meistern

"Pi mal Daumen" als Computing-Grundlage: Ungenauer rechnende Chips können für bestimmte Anwendungen sinnvoller sein als stets perfekte. In den USA arbeiten mehrere Start-ups an der Technik.

In Pocket speichern vorlesen Druckansicht 114 Kommentare lesen
Approximate Processing Elements sollen IT-Herausforderungen besser meistern
Lesezeit: 2 Min.

Singular Computing arbeitet an neuartigen Prozessoren, die ihre Aufgabe schlampiger erledigen als die Konkurrenz von Intel, ARM und Co. Die Chips sind absichtlich so verschaltet, dass ihre mathematischen Berechnungen nicht ganz richtig sind. Wenn man 1+1 eingibt, bekommt man Antworten wie 2,01 oder 1,98, berichtet Technology Review in seiner Juli-Ausgabe ("Chiptechnik: Pi mal Daumen"), die ab Donnerstag am Kiosk liegt oder online bestellt werden kann.

Unlogisch ist das nicht: Die Ungenauigkeit spielt bei manchen schwierigen Computerproblemen keine Rolle – die ungenauen Chips können aber sehr viel schneller rechnen und verbrauchen sehr viel weniger Energie. "Nur weil die Hardware Mist ist, muss das von der Software gelieferte Ergebnis nicht auch Mist sein", sagt Joseph Bates, Chef des Start-ups. Ein Chip, der nicht garantieren könne, dass jede Berechnung perfekt ausfällt, könne bei vielen Problemen immer noch gute Ergebnisse liefern, brauche aber weniger Energie.

Bates ist nicht der Erste mit der Idee, Daten mit ungenauer Hardware effizienter zu verarbeiten. Mit Approximate Computing besitzt das Konzept auch bereits einen eigenen Namen. Aber sein Projekt könnte der noch jungen Forschungsrichtung erheblich mehr Schwung verleihen.

Mit dem Sandia National Lab, der Carnegie Mellon University, dem Office of Naval Research und dem MIT hat Bates in Simulationen getestet, ob das Konzept tatsächlich aufgeht. Laut dem Singular-Computing-Chef sind die Ergebnisse seines "S1" genannten Chips vielversprechend – bei Anwendungen wie hochaufgelöstem Radar-Imaging, dem Extrahieren von 3D-Informationen aus 2D-Fotos und der Technik Deep Learning, die zuletzt sprunghafte Fortschritte bei künstlicher Intelligenz ermöglicht hat.

Mehr dazu bei Technology Review Online:

(bsc)