ISC 2004: Markt der Supercomputer-Möglichkeiten

HP kommt mit einem Scalable File System, IBM setzt auf Blue Gene Light, IBM und AMD fördern Standardkomponenten -- Rechenkapazität anzuhäufen scheint kein echtes technisches Problem mehr zu sein.

In Pocket speichern vorlesen Druckansicht 19 Kommentare lesen
Lesezeit: 2 Min.

Schaut man nur oberflächlich, hat sich die Supercomputing-Welt im vergangenen Jahr nicht dramatisch verändert -- Thomas Sterling diagnostizierte bereits gestern "keine dramatischen Änderungen, aber konstruktiven Fortschritt". Der Earth Simulator steht immer noch auf Platz eins der Liste der 500 schnellsten Rechner der Welt -- auch wenn damit noch immer ein Vektorrechner diesen Platz einnimmt, scheinen dessen Tage gezählt.

Rein zahlenmäßig dominieren längst relativ preisgünstige Cluster die Szene. Rechenkapazität anzuhäufen scheint kein echtes technisches Problem mehr zu sein: Man nimmt einen Haufen Server vom Hardware-Händler um die Ecke, vernetzt sie mehr oder weniger geschickt und hat Ruckzuck ein Teraflop/s zur Verfügung. Sowohl der diesjährige Hauptsponsor AMD als auch dessen Erzkonkurrent Intel sind überzeugt, dass "common off-the-shelf"-Komponenten aus dem High Performance Computing nicht mehr wegzudenken sind.

Auf den zweiten Blick differenziert sich dieses Bild jedoch -- wer nachfragt, warum dieses oder jenes Produkt dem der Konkurrenz vorzuziehen sei, hört oft, "there's no one size that fits it all". HP beispielsweise verkündet, Bandbreite bei der I/O sei der maßgebende Flaschenhals. Mit einem auf der Open-Source-Software Lustre basierenden Scalable File System SFS will der Konzern praktisch unbegrenzt skalierbare Bandbreite für Cluster liefern. IBM setzt dagegen mit Blue Gene Light auf Platz- und Energieersparnis -- bereits im kommenden Jahr will man den Prototypen bereits vermarkten. Intel und AMD setzen dagegen auf ein günstiges Preis-/Leistungsverhältnis (Dollars/Flops).

Dass es wirklich schwierig ist, die Performance einer Maschine zu beurteilen demonstrierte David H. Bailey schließlich mit einem Update seines 1991 erstmals publizierten Aufsatzes Twelve Ways to fool the Masses. Immer noch finde man, erklärte Bailey, selbst in seriösen wissenschaftlichen Aufsätzen die Tendenz, Ergebnisse zurechtzubiegen. So würden Performance-Messungen beispielsweise auf völlig sauberen, unbeschäftigten Systemen gefahren -- im Extremfall beispielsweise mit einem Prozessor per Node, was die benötigte Bandbreite extrem reduziere. Die Wissenschaftsgemeinde müsse sich immer wieder vor Augen halten, dass solches Verhalten nicht nur unwissenschaftlich sei, sondern letztendlich Erwartungen wecke, die man in Wirklichkeit nie erfüllen könnte.

Zur 19th International Supercomputer Conference siehe auch:

(Wolfgang Stieler) / (jk)