Japanische Supercomputer bleiben im Rennen
Der japanische Elektronikkonzern NEC hat mit der SX-8 die neuste Generation seiner Supercomputer vorgestellt. In der größtmöglichen Ausbaustufe kann die Maschine eine maximale Rechenleistung von 65 Billionen Fließkommaoperationen pro Sekunde erreichen.
Der japanische Elektronikkonzern NEC hat mit der SX-8 die neueste Generation seiner Supercomputer vorgestellt. In der größtmöglichen Ausbaustufe kann die Maschine eine maximale Rechenleistung von rund 65 Teraflops (Billionen Fließkommaoperationen pro Sekunde) erreichen und wäre damit laut NEC der derzeit schnellste Vektorrechner der Welt.
Ob Teilchenbahnen, Auswertung seismischer Messungen für Ölbohrungen, Crashtest-Simulationen oder Data Mining -- der Bedarf an Rechenleistung wird weiter wachsen und auch mit der neusten Supercomputergeneration noch lange nicht gestillt sein. Tetsuya Sato, Chef des Earth Simulator, glaubt, dass das auch noch einige Zeit so bleiben wird. Das Problem liegt nach seiner Meinung in der immensen "Scale Range", also der Spannbreit der kleinsten und der größten Dimension, die bei einer Rechnung berücksichtig werden müsste, um wirklich realistische Simulationen rechnen zu können. Bei Klimarechnungen beispielsweise müsste man eigentlich Tröpfchenbildung berücksichtigen, damit ist die minimale Dimension in der Größenordnung von Millimetern. Die größte Dimension liegt bei 107 Metern. Die derzeit schnellsten Rechner können jedoch bislang nur eine Scale Range von 103 abdecken. Bis 2010 erwarten die Spezialisten, die halbjährlich die Rangliste der schnellsten 500 Supercomputer der Welt zusammenstellen, die ersten Petaflop-Systeme, mit denen man allerdings vorerst auch höchstens zwei oder drei Größenordnungen gewinnen würde.
Trotzdem ist das Rennen um die weltweit schnellsten Rechner eine prestigeträchtige Angelegenheit -- sowohl für Firmen als auch Regierungen. Seit im Juni 1993 ein Team von Wissenschaftlern auf die Idee kam, die Rechenleistung der großen Maschinen über einen -- mittlerweile allerdings umstrittenes -- Testprogramm zu ermitteln, in einer griffigen Zahl festzuschreiben und die Liste zu veröffentlichen, hängt über den halbjährlichen Supercomputing-Konferenzen ein Hauch von Formel-1-Atmosphäre. Und für Spannung ist noch immer gesorgt, denn wie man möglichst schnelle Rechner baut, darüber gibt es mittlerweile wieder verblüffend viele verschiedene Ansichten. Das Grundprinzip ist einfach: Da man einzelne Prozessoren nicht beliebig schnell laufen lassen kann, muss man größere Aufgaben parallel auf viele verschiedene Rechner verteilen. Wie diese Aufteilung jedoch konkret aussieht -- wie die so genannte Granularität des Systems aussieht -- darüber gibt es fast so viele Ansichten wie Systemhersteller.
Je nach Anwendungsprofil kann es von Vorteil sein, viele Prozessoren auf einen gemeinsamen Speicher (Shared Memory) zugreifen zu lassen, die Daten im System zu verteilen und parallel zu verarbeiten, oder sie auf vielen einzelnen vernetzten Systemen mit verschiedenen Teilaufgaben zu bearbeiten, wie in einem Clustersystem. Und je nach Geldbeutel kommen Produkte von der Stange in Frage oder auf das Anwendungprofil zugeschnittene teure Speziallösungen. Die SX-8 nutzt weiterhin die so genannte Vektorarchitektur, die mit den SX-6-Prozessoren unter anderem bereits beim Earth Simulator eingesetzt wurde, der über zwei Jahre die Rangliste der 500 schnellsten Supercomputer der Welt angeführt hat. Vektorrechner können mit einem einzigen Befehl gleich mehrere Register und Recheneinheiten ansprechen (SIMD, Single Instruction Multiple Data). Der im 90-Nanometer-Prozess gefertigte SX-8 wird mit einer Taktfrequenz von 2 GHz doppelt so schnell getaktet wie sein Vorgänger, die SX-6. Außerdem haben die NEC-Entwickler die Bandbreite für die Datenübertragung zwischen CPU und Arbeitsspeicher auf 64GB/s pro CPU erhöht -- das macht für 4096 CPUs 262 TBit/s -- und dem Prozessor eine Vektoreinheit für das Ziehen von Quadratwurzeln spendiert. Insgesamt erreicht der Rechner eine Spitzeneistung von 16 GFlops pro CPU, kommt laut NEC dafür aber mit 25 Prozent der Grundfläche und 50 Prozent des Energieverbrauchs seines Vorgängers aus.
NEC will innerhalb der nächsten drei Jahre weltweit rund 700 SX-8-Systeme verkaufen. Unter den ersten Bestellungen, die dem Konzern bereits vorliegen, ist auch das Höchstleistungsrechenzentrum Stuttgart HLRS , das eine Maschine mit 64 Knoten und insgesamt 512 CPUs geordert hat und das britische Met Office, mit 15 Knoten und 120 CPUs. Zu Preisen wollte sich NEC nicht äußern, diese seien projektgebunden und stark von der jeweiligen Konfiguration abhängig.
Der letzte Schrei bei der Konkurrenz ist dagegen IBMs BlueGene/L, der bislang aus 16000 verkoppelten Embedded-PowerPC-440-Prozessoren besteht. Der Prototyp konnte erst kürzlich im Testprogramm 36,01 TFLOP/s Rechenleistung erreichen und ist damit schneller als der Earth Simulator. Wenn der Rechner voll ausgebaut ist, soll er mit 130000 Prozessoren arbeiten und 360 TFlops Rechenleistung erreichen. Makoto Tsukakoshi, Chef der europäischen Supercomputing-Abteilung von NEC, hält die Konkurrenz von IBM dennoch nur für bedingt gefährlich. BlueGene sei ursprünglich entworfen worden, um das spezielle Problem der Proteinfaltung zu lösen und daher auf die Lösung molekulardynamischer Gleichungen optimiert, erklärte Tsukakoshi. Mit dem vergleichsweise kleinen Arbeitsspeicher und dieser einseitigen Optimierung sei es sicherlich nicht einfach, für beliebige Anwendungen auf solchen Maschinen eine hohe Nutzleistung zu erzielen. Von Wolfgang Stieler (wst)