Auf der Jagd nach Petaflops

Mit seinem neuen Blue-Gene-Rechner erhält das Forschungszentrum Jülich den schnellsten Supercomputer Europas. Doch der Ruhm dürfte nur von kurzer Dauer sein.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von

"Die Maschine ist ein Formel-1-Wagen, keine Limousine", sagt Professor Thomas Lippert. Der Mann muss es wissen, denn als geschäftsführender Direktor des Zentrums für Angewandte Mathematik (ZAM) des Forschungszentrum Jülich verfügt er ab heute über den schnellsten Rechner Europas. 46 Teraflops Rechenleistung – das sind 46 Billionen Rechenoperationen pro Sekunde – bringt der neuste Superrechner in Jülich. Doch die geballte Rechenkraft der 16384 Prozessoren steht nicht auf Knopfdruck zur Verfügung: "Der User muss was tun, um die großen Leistungen herauszuholen", sagt Lippert. "Da ist Gehirnschmalz gefragt. Sie haben hier keinen komfortablen Rechner."

Obwohl sich genau das sicherlich viele Forscher wünschen würden, denn die Welt des Supercomputing ist mit Arbeiten verbunden, die einem PC-Nutzer seltsam archaisch vorkommen muss: So muss ein Programm bei einem Wechsel von einer zur nächsten Maschine erst sorgfältig neu optimiert werden, damit es optimal schnell läuft.

Das hängt im Wesentlichen mit dem Funktionsprinzip von Supercomputern zusammen: Weil man einzelne Prozessoren nicht beliebig hoch takten kann, werden die Rechenaufgaben in einem Supercomputer auf mehrere Schultern verteilt. Wenn man 1000 Steine 1000 Meter weit transportieren muss, kann man einen Arbeiter damit beschäftigen, tausendmal hin und her zu rennen. Man kann aber auch tausend Arbeiter damit beschäftigen, jeweils einen Stein zu transportieren.

Das Bild zeigt jedoch auch die Grenzen von Supercomputern. Es nützt nämlich in dem oben beschriebenen Beispiel gar nichts, weitere 1000 Arbeiter zu beschäftigen – sie werden nichts dazu beitragen, die Aufgabe schneller zu bewältigen. Der intelligenten Verteilung der Rechenaufgaben kommt somit eine entscheidende Rolle zu.

Wie die Architektur eines Supercomputers konkret aussieht, ist mittlerweile allerdings fast mehr eine philosophische, als eine technische Frage: Einzelne Hersteller wie NEC oder Cray setzen auf wenige, dafür aber extrem leistungsfähige Parallelprozessoren, die in der Lage sind, in einem Rechenschritt gleich sehr viele Zahlen gleichzeitig zu verarbeiten. Die Hersteller von PC-Prozessoren propagieren eher über spezielle Hochgeschwindigkeitsnetze miteinander verbundene PC-Cluster. Mit Blue Gene hat IBM sich dagegen entschieden, sehr sehr viele, aber vergleichsweise langsame Prozessoren sehr dicht miteinander zu vernetzen; vor allem um den überproportional wachsenden Energiebedarf der Superrechner und das damit verbunde Problem der Abwärme in den Griff zu bekommen. In jüngster Zeit propagieren Wissenschaftler wie der Japaner Ryutaro Himeno dagegen eine hybride Architektur, bei der jedes Programm mehr oder weniger automatisch auf die Art von Rechner umgeleitet wird, auf dem es optimal läuft.

Die Idee Blue Gene hat sich jedoch zunächst als sehr erfolgreich erwiesen: Seit nunmehr rund zwei Jahren dominiert der Konzern mit der Blue-Gene-Architektur – ursprünglich entworfen, um Proteinfaltungen zu simulieren – die Rangliste der Top500-Supercomputer.

Wie leistungsfähig ist solch ein Großrechner? "Die Rechenleistung ist 15- bis 40-tausendmal so stark wie die eines PC. Das hängt von dem Problem ab, das Sie zu berechnen haben", sagt Lippert. Tatsächlich ist die in den technischen Daten oft genannte Spitzenleistung von 46 Teraflops eine große Vereinfachung – das Ergebnis eines so genannten Linpack-Benchmarks, einem speziellen Testprogramm, bei dem umfangreiche Matrizen-Berechnungen durchgeführt werden. Der Benchmark, nach dessen Ergebnissen die Top500 sortiert wird, steht seit über zehn Jahren in der Kritik, weil der Test beispielsweise Speicherbandbreite und Latenzzeit nicht abfragt. Soll heißen: Manche Anwendungen laufen auf einer Blue Gene-Maschine möglicherweise schneller, als auf einem Vektorcomputer, andere dafür wieder langsamer.

Weil die Wissenschaftler, die auf diesen Rechen-Dinosaurieren eigentlich nur ihre wissenschaftlichen Probleme lösen wollen, immer mehr nach "Usability" verlangen, und den sportlichen Wettstreit der Computerbauer mit zunehmender Distanz betrachten, wird möglicherweise schon bald ein komplexerer Test eingeführt, um die Rangliste der weltschnellsten Computer zu ermitteln. Die Frage nach der Leistungsfähigkeit wird sich dann vielleicht nicht einfacher, aber genauer beantworten lassen. Eins ist jedoch heute schon so gut wie sicher: Wenn im Sommer die neuste Top-500-Liste der Supercomputer ermittelt wird, wird JUBL höchstwahrscheinlich schon nicht mehr auf Platz sechs stehen.

Bis 2010 soll die nächste Größenordnung in der Rechenleistung geknackt werden: ein Supercomputer mit der Rechenleistung von mindestens einem Petaflop (tausend Teraflops) pro Sekunde. Der rasante Fortschritt der Rechnertechnologie lässt diesen Sprung fast leicht erscheinen, aber „Wenn wir den Rechner noch größer machen, darf die Leistungsaufnahme nicht linear steigen“, sagt David Turek, President Deep Computing bei IBM. „Der zweite Punkt ist, dass ich die wirklichen Probleme eher auf der Seite der Software, der Administration und der Programmierbarkeit erwarte. Wenn Ihr System einige hundertausend Prozessoren enthält, wird die Verwaltung ein ernsthaftes Problem, genauso wie die Fehlersuche.“ (wst)