Der Energie-Ausstieg

Gelingt er nicht, werden in zehn Jahren die Stromkosten eines Supercomputers dessen Anschaffungskosten übersteigen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Wer seinen getunten Heimcomputer am liebsten auf der neuen Top500-Liste gesehen hätte, wird sich ärgern. Letzte Nacht verstrich die Frist, seine Benchmarks für die amtierenden Supercomputer des nächsten halben Jahres einzureichen. Auch das Forschungszentrum Jülich, jüngst durch den Nobelpreis für den Physiker Peter Grünberg in den Schlagzeilen, musste sich für diesen Termin ganz schön ins Zeug legen. Während im Institut für Festkörperforschung die Sektkorken knallten, liefen im Jülich Supercomputing Centre die Vorbereitung für den eigenen Imagegewinn auf Hochtakt.

Auf zwei großen Lastern direkt vom Flughafen Amsterdam kommend traf vor knapp 3 Wochen eine Lieferung aus Amerika ein, die jedes Computerbastlerherz höher schlagen lassen würde. Schwere Kisten gefüllt mit der puren Kraft des Siliziums: Gestelle für 16 telefonzellengroße Computerschränke, 512 Platinen-Einschübe, 10 000 Meter Kabellage und 65.000 Prozessoren.

In aller Eile wurden die Schränke („Racks“) aufgebaut, 4 Prozessoren auf einem Chip, 32 Chips auf einem Einschub, 32 dieser „node cards“ in einem Rack. Parallel geschaltet ergeben die Module eine Rechenleistung von 220 Teraflops, das sind 220 Billionen Rechenoperationen pro Sekunde! Seit wenigen Tagen erst steht das Gerät. Vieles spricht dafür, dass es auf der Top500-Liste ganz weit oben stehen wird: als schnellster Computer Europas und als zweitschnellster in der Welt.

Der JUBL aus der Blue Gene-Familie kam noch in vier Doppelschränken unter, der neue Blue Gene/P ist in 16 Schränken untergebracht. Bild: Forschungszentrum Jülich

Bemerkenswert ist der neue rheinländische Supercomputer allerdings auch noch in anderer Hinsicht. Der Massenparallelrechner aus IBMs „Blue Gene/P“-Familie (BG/P, das P steht für die prinzipielle Erweiterbarkeit des Systems auf Petaflop-Geschwindigkeit) ist nicht nur unglaublich schnell - er ist auch ungewöhnlich sparsam. Mit geschätzten 500 kWatt wird er weniger als ein Zehntel des Stroms verbrauchen, den vergleichbare Computer benötigen würden. Pro eingesetztem Watt schafft BG/P an die 360 Megaflops. Zum Vergleich: IBMs Super-Maschine „ASC Purple“ kommt nur auf 20 Megaflops per Watt. Der Höchstleistungscomputer, der seit zwei Jahren im Lawrence Livermore National Laboratory in Kalifornien vor sich hinrechnet und derzeit mit 76 Teraflops Rang 6 auf der Weltrangliste der Supercomputer einnimmt, benötigt inkl. des Kühlsystems ganze 7,5 Megawatt. So viel wie ein ICE.

Die Blue Gene-Reihe ist IBMs Antwort auf das drängendste Problem der Supercomputing-Zukunft: Wie gelangt man zu neuen Rechen-Olymps, ohne, wie bisher, den Energieverbrauch aus dem Höhenruder laufen zu lassen?

Supercomputing ist ein mächtiger Faktor im Wissenschaftsbetrieb geworden. Neben den klassischen Erkenntnismethoden - der Theorie und dem Experiment - gilt die Simulation komplexer Vorgänge mittels massiven number crunchings inzwischen als dritter Weg der Forschung. Die angewandte Voraussicht „in silico“ anstatt des Versuchs im Reagenzglas („in vitro“) oder im Tier („in vivo“). Oft genug, weil viele große und kleine Problemstellungen der Wissenschaft nur durch numerische Näherungen lösbar sind, avancieren Höchstleistungsrechner zu wesentlichen Laborinstrumenten. Will man lokale Klimaveränderungen prognostizieren, die Faltung von Proteinen analysieren oder Materialeigenschaften von Gelenkprothesen optimieren, kommt man um die kostenintensive Miete von Rechenpower nicht mehr herum.

„Was nützt denn auch eine Theorie, wenn man sie nicht berechnen kann, so dass sie Vorhersagekraft gewinnt?“, fragt der Leiter des Jülicher Supercomputing Centres (und damit Super-Admin von Super-BG/P), Prof. Thomas Lippert. „Wir in Jülich sind der Meinung, dass in der Zukunft eine vom Supercomputer abgekoppelte Theorie- und Modellbildung immer weniger erfolgreich sein wird.“

Lippert hat guten Grund zu seiner Annahme. Das bereits vor zwei Jahren in Jülich installierte Vorgängermodell Blue Gene/L (L für light) ist völlig überbucht. Um das Zehnfache! Schon jetzt prasseln Anfragen für die BG/P-Maschine auf ihn ein, auch wenn das offizielle Antragsverfahren für die kostbare Rechenzeit erst nächstes Jahr im Juli beginnt. Selbst die Politik hat schon reagiert. Ab dem Jahr 2009 soll eine permanente Supercomputerinfrastruktur entstehen, mit 4 paneuropäischen Petaflop-Zentren sowie mehreren nationalen TeraFlop-Rechnern.

25-50 Megawatt für 200 Petaflops

Doch wie soll eine solche Peta-Zukunft mit Energie versorgt werden? IBM ist sich bewusst, dass trotz aller Effizienz die Blue Gene-Technologie nur eine vorläufige Antwort darstellt. BG-Chefentwickler Alan Gara rechnet damit, dass zwischen 2015 und 2020 die kritische Rentabilitätsmauer durchbrochen sein wird. Nach seinen Schätzungen wird man dann bei 200 Petaflops pro Sekunde sein und dafür eine Leistung von 25-50 Megawatt benötigen. Damit wird der Betrieb eines Supercomputers genauso viel kosten wie die Anschaffung. Eine zwanzigfache Steigerung der Energie-Effizienz ist da bereits einkalkuliert; steigende Strompreise allerdings nicht. Würde man den Earth-Simulator in Japan, lange Jahre die Nummer 1 der Supercomputer, auf diese Leistung hochtunen, wäre man bereits bei ca. 40 GigaWatt. Doppelt so viel wie sämtliche deutsche Kernkraftwerke produzieren würden. Wenn sie nicht gerade wegen Störfällen vom Netz genommen sind.

Anhand dieser ohne viel Rechenaufwand zu erstellenden Prognose warnt Gara eindringlich vor einer fundamentalen „power crisis“ des Supercomputing. Die Halbleitertechnik allein ist nicht in der Lage, den steigenden Energiebedarf bei steigendem Rechenbedarf abzufedern. Sie stößt bald an die Grenze des physikalisch Machbaren, das Ende der Ära Moore, in welcher die Leistung eines Systems durch die exponentielle Steigerung der Prozessor-Performance gewachsen ist. Mehr Rechenleistung ist in Zukunft nur noch mit noch mehr Chips, also einer exponentiellen Skalierung der Parallel-Systeme, zu bewerkstelligen.

Einsparpotentiale böten sich dabei immer weniger an. „Das Problem ist ein grundsätzliches und es muss jetzt angegangen werden“, fordert Gara. Seinem fortschrittsverwöhnten Berufsstand gerecht werdend ist er jedoch zugleich optimistisch, dass den Ingenieuren schon noch irgendetwas einfallen wird. „Wenn erst einmal der Stromverbrauch das Problem Nummer 1 ist, dann werden auch exotische Stromspartechniken schnell praktikabel werden.“