Obama verlangt schnellere Entwicklung von Exaflop-Supercomputern

Per Executive Order hat der amerikanische Präsident US-Behörden und -Einrichtungen "verdonnert", eine "National Strategic Computing Initiative" zu gründen, die einen gangbaren Weg zu Exascale-Rechnern finden soll.

In Pocket speichern vorlesen Druckansicht 47 Kommentare lesen
Supercomputer Cray XC40

Supercomputer Cray XC40

(Bild: Cray)

Lesezeit: 3 Min.
Von
  • Andreas Stiller

Mit der nun von Präsident Obama per Executive Order befohlenen nationalen strategischen Computing-Initiative (NSCI) wollen die USA den Wettlauf um den ersten Exaflops-Supercomputer gewinnen. Im Lauf der kommenden 15 Jahre soll ein passabler Weg gefunden werden, selbst wenn die Halbleitertechnik nicht mehr dem Moore'schen Gesetz folgen kann ("Post-Moore's Law Era").

Vor allem geht Obamas Auftrag an die drei bei Supercomputing führenden Agenturen der USA, das Department of Energy (DoE), das Verteidigungsministerium (DoD) und an die National Science Foundation (NSF). Mitarbeiten sollen aber auch die beiden großen Forschungs- und Entwicklungseinrichtungen Intelligence Advanced Research Projects Activity (IARPA) und das National Institute of Standards and Technology (NIST). Darüber hinaus werden explizit auch "ausführende Agenturen" wie NASA, FBI, Homeland Security angesprochen.

Für die Koordination wird ein Executive Council zusammengesetzt, der binnen der nächsten 90 Tage einen Implementierungsplan vorlegen soll. Jährlich ist dieser Plan dann zu überprüfen und anzupassen. Es geht letztlich darum, gezielt Firmen und akademische Einrichtungen zu unterstützen, Möglichkeiten in Richtung Exascale-HPC (High-Performance Computing) auszuloten.

Schon vorher gab es hierzu entsprechende Einzelprogramme, etwa FastForward 2 des DoE und der National Nuclear Security Administration NNSA. Daraus bekommt unter anderem auch AMD 32 Millionen US-Dollar für Escascale-Forschung. Weitere 67 Millionen Dollar dieses Programms verteilen sich auf IBM, Intel, Nvidia und Cray.

Dabei ist das Problem gar nicht so sehr, jetzt schon ein Exascale-System aufzubauen, wenn man das nötige Kleingeld dazu hat – einige Milliarden US-Dollar – und die nötige Energieversorgung von etwa 1 Gigawatt bereitstellt. Ziel der Initiative dürfte es daher vor allem sein, Energieverbrauch und Kosten in handhabbare Größenordnungen zu senken.

Auf den neusten Stand hat der ehemalige IBM Fellow Dr. Peter Kogge von der University of Notre Dame die Energiemodelle für zukünfige Exascale-Systeme. Für sein Paper bekam er auf der ISC'15 den Gauss-Preis des deutschen Gauss Center for Supercomputing verliehen. Seine Studie beschränkt sich allerdings auf "Heavyweight Systems", also etwa Systeme der Intel-Xeon- oder IBM-Power8-Klasse. Unter günstigsten Annahmen kommen solche in die Zukunft fortgeschriebene Systeme bis etwa 2025 auf 180 MW, unter ungünstigen auf 425 MW, also weit weg von den als Ziel angepeilten 20 MW. GPUs, Rechenbeschleuniger und neue Architekturen wie ARM hat Kogge noch nicht untersucht, daran arbeitet er jetzt.

Optimistisches und pessimistisches Szenario der Energieverbrauchs pro Flop für "Heavyweight"-Systeme -- bis 2015 weit weg von 20 MW.

(Bild: Peter Kogge)

Bereits 2018 soll zum Beispiel der Cray-Supercomputer Aurora für 200 Millionen US-Dollar bei den National Argonne Labs in Dienst gehen, der mit 50.000 Knoten mit Intel Xeon Phi bei geplanten nur 13 MW mindestens 180 PFlops leisten soll. Dieser Wert basiert vermutlich auf einem etwas beschleunigten Xeon Phi Knights Landing als Minimalausstattung. Eigentlich hofft man, auf den dann etwa dreimal so schnellen Xeon Phi Knights Hill zurückgreifen zu können, also mithin 450 Pflops zu erreichen. Aber Intel hat den diesem Prozessor zugrundeliegenden 10-nm-Prozess erst einmal verschoben. Das wird also ein bisschen länger dauern. (as)