ISC 2004: Superlative, Standards und Softrons

Der Stand der Technik und zukünftige Konzepte für Supercomputer diskutieren 428 Teilnehmer aus 24 Ländern auf der Fachtagung ISC2004.

In Pocket speichern vorlesen Druckansicht 5 Kommentare lesen
Lesezeit: 3 Min.

438 Teilnehmer aus insgesamt 24 Ländern diskutieren noch bis Freitag, den 25. Juni den Stand der Technik und zukünftige Konzepte für Supercomputer auf der Fachtagung ISC2004. Umrahmt wird die Diskussion von 49 Ausstellern -- im Vergleich zu den USA, wo die Veranstaltung im Wechsel mit Heidelberg stattfindet, eher ein "Boutique-Event", wie Organisator Hans Meurer frotzelte. Obwohl die Top500-Liste der 500 schnellsten Supercomputer bereits am Montag veröffentlicht worden ist, und in den Gängen der Veranstaltung wieder einmal diskutiert wird, dass der Linpack-Benchmark für die Kapazität einer großen Maschine eigentlich nicht wirklich aussagekräftig ist, genießt die Supercomputer-Szene doch die Formel-1-Aura, die über diesem Treffen hängt. Und obwohl die ISC in Heidelberg nicht von einer großen Messe, sondern eher einer kleinen Ausstellung begleitet wird, haben Hersteller von Hard- und Software auf dieser Tagung einen ungleich höheren Einfluss als bei einer rein wissenschaftlichen Fachkonferenz. Das fängt schon beim Hauptsponsor an: Nach Intel im vergangenen Jahr fiel nun Intels Erzkonkurrent AMD diese Rolle zu. Und so wurde denn auch auf diversen Sessions das hohe Lied des 64-Bit-Prozessors Opteron gesungen.

Für Gesprächsstoff sorgte auch die Ankündigung von Microsoft, in das HPC-Geschäft einsteigen zu wollen. Der Konzern peilt den Markt kleiner und mittlerer Cluster an und will "Supercomputing to the masses" bringen. Lizenziert werden soll das Paket pro Node -- insgesamt sollen die Software-Kosten "nur einen kleinen Teil der Gesamtkosten" ausmachen. Neben der Spezial-Edition von Windows 2003 Server will der Software-Riese eine MPI-Bibliothek, einen Scheduler und Cluster-Managing-Software mitliefern. Die Fallstudie von Gerd Heber vom Cornell Theory Centre zu Windows HPC rief jedoch nur wenig Diskussionen wach -- in der Hauptsache interessierte das anwesende Publikum, warum man denn von einem funktionierenden System zu neuer Software wechseln sollte, die sich noch bewähren muss.

Statt über nackte Rechenleistung wird auf der Tagung mehr und mehr über das diskutiert, was die PC-Szene Usability nennt. Hier heißt es stattdessen "capability" und meint einen gesunden Mix aus Verlässlichkeit, Programmierbarkeit, Rechenleistung und Kosten/Nutzen-Verhältnis -- wobei unter Kosten nicht nur Finanzen, sondern auch Energie und "Footprint" auftauchen. Schließlich schlage auch erheblich zu Buche, wenn man für einen neuen Cluster gleich ein neues Rechenzentrum bauen müsse. Was diese capability angehe, so sei die Supercomputing-Szene "mindestens ein Größenordnung" hinter dem zurück, was technisch möglich sei, kritisierte auch Thomas Sterling, der als "Vater" der Linux Beowulf-Cluster gilt.

Stephen J. Wallach, Mitbegründer von Data General und Convex, schlug -- mit bemerkenswerter Selbstironie -- vor, dass die Community "Hochenergieforschung" einsetzen solle, um nach dem Softron zu suchen. Man müsse sich endlich mit dem Gedanken vertraut machen, dass es notwendig sei, einen Teil der möglichen Rechenkapazität für eine bessere capability zu opfern. Schließlich könne man sich nicht ewig darauf verlassen, dass Moores Law einem die notwendige Rechenpower sozusagen auf dem Silbertablett serviere. Auf der anderen Seite tendiere "Software wie ein Gas" dazu, den vorhandenen Raum einfach auszufüllen, werde also immer komplexer. Es sei daher nicht möglich die vorhandenen Codes beständig umzuschreiben. Wallach schlägt daher vor, die Infrastruktur-Informationen sollten als Meta-Informationen direkt vom Compiler mit umgesetzt werden. Die neue Sprache, die das kann, muss allerdings noch entwickelt werden. (Wolfgang Stieler) / (jk)