ProzessorgeflĂĽster
Da feiert IBM 100 Jahre Firmenjubiläum, 50 Jahre KugelkopfschreIBMaschine und 30 Jahre PC – und muss dann kleinlaut das prestigeträchtige Blue-Waters-Projekt aufgeben. Aber die anderen der Szene verschieben ihre Projekte auch munter weiter nach hinten.
- Andreas Stiller
Das war ein Knaller, als IBM und das National Center for Supercomputing Applications (NCSA) in Illinois den Abschied vom geplanten Supercomputer Blue Waters bekannt gaben. Die aktuelle US-Finanzkrise dürfte dafür wohl kaum als Schuldiger herhalten, IBM hatte jedenfalls zuletzt mit 3,7 Milliarden Dollar Quartalsgewinn genügend in der Kasse, um mögliche Engpässe der National Science Foundation als Geldgeber von Blue Waters zu kompensieren.
Aber das ehrgeizige 10-Petaflops-Supercomputerprojekt mit 320 000 Power7-Prozessorkernen lief offenbar kostenmäßig völlig aus dem Ruder, so wie anderswo Philharmonien, Opernhäuser oder demnächst Tiefbahnhöfe. Zwar sicherte der 2007 geschlossene Vertrag mit dem NCSA 208 Millionen Dollar zu, aber für diese Peanuts kann man so ein Projekt nicht stemmen. Unerwartete technische Schwierigkeiten werden hier wie dort ins Feld geführt.
Doch schlimmer noch, das Prestigeduell mit Fujitsu musste IBM schon im Vorfeld verloren geben – hier haben die Japaner mit dem K Computer einfach zu stark vorgelegt. Seit Juni führt er in nur 85-prozentigem Ausbau mit 8,2 PFlops ganz klar die Top500-Liste der Supercomputer an. Blue Waters würde wohl nie die Nummer 1 werden. Und vielleicht gab es ja auch nur Streit, weil das NCSA nicht bereit war, einen Linpack-Lauf durchzuführen.
Blue Waters ausgelaufen
Der einst für 2011 vorgesehene Starttermin war ohnehin schon auf Mitte 2012 verschoben. Angesichts der nicht weiter spezifizierten technischen Probleme wäre es wohl noch deutlich später geworden. Doch während Opernhäuser à la Sydney auch nach achtjähriger Verzögerungszeit prächtig dastehen, sind Supercomputer, die das kurze Zeitfenster verfehlen, schon obsolet, noch bevor sie in Betrieb gehen.
Geld verdient hat IBM mit dem Bereich „Deep Computing“ ohnehin nicht, dieses obere High-End der Computertechnik diente hauptsächlich Prestigezwecken. Den Controllern bei IBM war das schon länger ein Dorn im Auge. So hatte Herb Schultz, Marketing Manager für IBMs Abteilung für Deep Computing, im November letzten Jahres eine Umgestaltung des HPC-Geschäfts hin zum profitableren Midrange angekündigt.
Dennoch, ganz raus aus der Formel 1 der Supercomputer will IBM auch nicht, hat man doch noch einen anderen erfolgversprechenden Flitzer im Rennen. Der ist zwar nicht so spektakulär, bereitet aber weniger Probleme, ist preiswerter und auch weitaus schneller: Sequoia für das Lawrence Livermore National Laboratory soll mit seinen 1,6 Millionen BlueGene/Q-Kernen im nächsten Jahr über 20 PFlops erzielen.
So wie einst Sauber (von BMW zu Ferrari) oder Williams (von BMW zu Toyota und Cosworth) muss sich jetzt auch der NCSA-Rennstall nach einem anderen Partner umsehen, denn mit IBM konnte man sich auch nicht auf eine mögliche Alternative einigen. Hier werden nun Cray und SGI ins Feld geführt. Es müssen aus Staatsraisongründen wohl amerikanische Firmen sein, sonst könnte man ja mal mit Fujitsu Kontakt aufnehmen …
IBM erstattet nun jedenfalls die geleisteten Anzahlungen zurĂĽck und das NSCA muss die bereits gelieferte IBM-Hardware wieder herausrĂĽcken.
Ob und wie sich IBMs Neuorientierung bei dem vom Leibnizrechenzentrum bestellten Supercomputer SUPERMUC auswirken wird, ist derzeit unklar. Der beruht jedoch auf einer völlig anderen Hardware: iDataPlex mit Intel-Prozessoren. Verzögerungen könnte es hier aus anderen Gründen geben, denn in der Gerüchteküche schiebt sich der Erscheinungstermin der Sandy-Bridge-E- und EP-Prozessoren mit sechs und acht Kernen auf der Zeitachse lustig hin und her. Letzter Stand: Die Desktop-Versionen kommen Ende des Jahres, die Dualprozessor-Versionen für Server erst im Verlaufe des ersten Quartals 2012.
Schiebung
AMD, so hört man, will seine Bulldozer-Prozessoren für Server eine Woche nach den FX-Versionen, also am 26. September herausbringen. Das ist zwar etwas später als ursprünglich geplant, aber früh genug, um wenigstens mal ein paar Monate Vorsprung vor der Konkurrenz zu haben. Schließlich bieten die dicken Planierraupen nicht nur bis zu 16 Integer-Kerne, sondern sie sind auch die ersten AVX-tauglichen, echten Serverprozessoren für mehr als einen Sockel. Schon lustig, dass hier mal der Nachbauer schneller ist als das Original.
Ähnlich wie bei Sandy Bridge E verhält es sich auch mit dem Starttermin von Nvidias Kepler: heute hier, morgen dort. Ich glaub ja weiterhin, dass er ganz zufällig passend zu der auf Mai 2012 verschobenen GPU Technology Conference erscheinen wird.
Auch der chinesische Loongson- oder Godson-2H-Prozessor wird sich erheblich verzögern. Das bestätigte Professor Yunji Chen vom Institute of Computing Technology (ICT) der chinesischen Wissenschaftsakademie gegenüber Semiaccurate.com. Die chinesischen Prozessorbauer sind bei ihrem ersten System on a Chip (SoC), inklusive Speichercontroller und in Lizenz eingekauftem Grafikprozessor von Vivante, ohnehin erst in der Tapeout-Phase, das dürfe also noch ein erkleckliches Weilchen dauern. Immerhin sind jetzt alle rechtlichen Animositäten mit MIPS vom Tisch; prinzipiell hatte man sich schon im letzten Jahr geeinigt, nun bekam Loongson Technology offiziell die Architekturlizenzen für MIPS32 und MIPS64.
Auf der Mitte August tagenden Hot-Chips-Konferenz an der Stanford University wird dann wohl wieder der Godson 3C mit seinen beeindruckenden Features im Mittelpunkt stehen. Doch der ist bis mindestens 2013 ein Papiertiger. Zunächst einmal müsste sich der von STMicroelectronics noch in bewährter 65-nm-Technik gefertigte Godson 3B in richtigen Stückzahlen materialisieren, der den Supercomputer Dawn 6000 in Petaflops-Sphären bringen soll. Den hatte man eigentlich schon im letzten Jahr erwartet und dann hieß es, dass jetzt im Sommer eine kleinere Vorversion mit etwa 300 Teraflops herauskäme – da muss man sich in China also langsam sputen. Bis man Intel mit eigenen Prozessoren das Wasser reichen kann, ist es aber noch ein langer Marsch. Chefarchitekt Professor Hu spricht gar von 20 Jahren.
Ach ja, fast hätte ich es vergessen: Intel will auf der Hot Chips auch mit ein paar Neuigkeiten zum nächsten Itanium-Prozessor Poulson aufwarten. Da wird es dann irgendwann eine vielleicht interessante Hardware, aber so gut wie keine aktuelle Software geben, nachdem sich unter anderem Microsoft, Red Hat und Oracle – letztere sehr zum Verdruss von HP – von der Weiterentwicklung ihrer Software für Itanium verabschiedet haben. (as)