Supercomputer der nächsten Generation

Ein neues Rechnerdesign soll bald enorm hochauflösende Klimamodelle der Erde möglich machen.

vorlesen Druckansicht 3 Kommentare lesen
Lesezeit: 5 Min.
Von
  • Kate Greene

Trotz der Leistungsfähigkeit heutiger Supercomputer sind sie noch immer nicht in der Lage, Algorithmen auszuführen, die das Wetter in einer Auflösung bis herunter auf einem Kilometer vorhersagen können. Wäre dies möglich, könnten die Meteorologen auch das lokale Wolkenverhalten in ihre Modelle einbeziehen, was die Genauigkeit bestehender Klimamodelle deutlich verbessern würde. Das würde auch der Politik helfen, die seit Langem nach Wegen gegen die globale Erwärmung sucht.

Forscher am kalifornischen Lawrence Berkeley National Laboratory haben nun ein Design für einen neuartigen Supercomputer vorgeschlagen, der erstmals leistungsfähig genug sein soll, das Wetterverhalten in einer Kilometer-Auflösung zu berechnen. Er soll außerdem hunderte Male energieeffizienter als heutige Hochleistungsmaschinen werden, was auch die Kosten im Betrieb deutlich senken soll. Der Trick: Die Architektur nutzt stromsparende Chip-Design-Technologien, die sonst in Handys oder MP3-Spielern Verwendung finden.

"Wenn wir größere Supercomputer bauen wollen, um schwerere Aufgaben angehen zu können, stoßen wir derzeit schnell an finanzielle Grenzen", sagt der Berkeley-Computerwissenschaftler John Shalf. Mit der heutigen Technologie würde ein Supercomputer mit der angestrebten Klimamodell-Auflösung allein Energiekosten von 150 Millionen Dollar im Jahr erzeugen, hat er errechnet. Mit Prozessoren, die auf das Stromsparen getrimmt sind, ähnlich wie man das aus dem Mobilgerätebau kennt, würden die Kosten nur noch einen Bruchteil ausmachen.

Der Berkeley-Supercomputer ist Teil einer größeren Initiative von US-Klimaforschern, mit mehr Rechenleistung komplexe Klimamodelle aufzubauen. Das National Center for Atmospheric Research in Boulder, Colorado, kündigte so beispielsweise an, einen IBM-Supercomputer neuer Generation zu nutzen, um die Auswirkungen der globalen Erwärmung besser zu berechnen. Die Berkeley-Hochleistungsmaschine wäre diesem Rechner jedoch deutlich überlegen, weil sie so viel energieeffizienter ist.

Standardprozessoren, wie man sie in heutigen PCs vorfinden, sind inzwischen leistungsfähig und kostengünstig genug geworden, dass Forscher sie nur noch zu so genannten Clustern zusammenfassen müssen, um große Berechnungsaufgaben auszuführen. Dieser Ansatz funktioniert bei einigen wissenschaftlichen Problemen längst problemlos und hat Forschern bereits zu allerlei neuen Erkenntnissen verholfen. Hochauflösende Klimamodelle sind jedoch zu leistungshungrig, als dass die jetzige Technologie finanzierbar nutzbar wäre.

Während Standardprozessoren die verschiedensten Jobs erledigen können, sind Chips, die sich beispielsweise in MP3-Spielern befinden, auf eine kleine Anzahl von Aufgaben spezialisiert. Die Berkeley-Forscher nutzen eine Software des kalifornischen Chip-Herstellers Tensilica, der bereits Halbleiter für Motorola entwirft, um einen Prozessorkern zu entwickeln, der nur die notwendigsten Funktionen enthält. Außerdem gestalteten sie eine speziell angepasste Speicher- und Kommunikationsinfrastruktur, um Ineffizienzen erst gar nicht aufkommen zu lassen. Das spart viel Energie.

Insgesamt soll der neue Supercomputer aus 20 Millionen Prozessorkernen bestehen. Die Forscher schätzen, dass der gesamte Rechner ungefähr die Fläche eines Tennisplatzes einnehmen wird – 32 Kerne auf einem Chip sind dabei ungefähr so groß wie ein Streichholzbriefchen. Bis Ende des Jahres wollen die Forscher beginnen, Klimamodelle mit einigen Dutzend Kernen zu testen. Dieser Ansatz soll es ihnen erlauben, die Hardware gegebenenfalls weiter zu optimieren, damit sie genau auf die Aufgabe abgestimmt ist. Gleichzeitig soll auch die Software-Seite nahtlos angepasst sein. "Statt einen Computer zu bauen und ihm dann eine wissenschaftliche Aufgabe zu stellen, schauen wir uns das Problem an und bauen dann einen Computer, der dazu passt", sagt Shalf.

Das spezielle Klimamodell, das von Forschern an der Colorado State University kommen wird, unterteilt den Globus in 20 Millionen Zellen – eine für jeden Prozessorkern. So lassen sich Bewegungen von Sturmsystemen und Wetterfronten abbilden. "Wolken sind der bislang am schlechtesten simulierte Teil innerhalb von Klimamodellen", sagt Michael Wehner, Klimaforscher in Berkeley. Genau das habe enorme Konsequenzen.

Derzeit bilden die Modelle das Wolkenverhalten in einer Auflösung von mehreren hundert Kilometern ab. Das bedeutet, dass ähnliche Klimamodelle trotzdem nicht selten drastische Unterschiede aufweisen. Hochauflösende Modelle wären außerdem für die Entscheidungsfindung auf lokaler Ebene wichtig, meint Wehner. Mit genaueren Vorhersagen könnten Regierungen entscheiden, ob sie den Ackerbau in andere Regionen verlagern, mehr Geld in die Wasserversorgung im Falle von Dürren investieren oder die Infrastruktur in Küstenregionen anpassen sollen. "Verbesserte Modelle erlauben es der Politik, solche Entscheidungen besser zu begründen", meint Wehner.

Noch ist allerdings unklar, ob der Berkeley-Supercomputer auf lange Sicht wirklich Kosten sparen wird. Allein die Entwicklung und Herstellung wird Millionen verschlingen. Der Designprozess könnte zudem schnell zum Erliegen kommen, wenn Kommunikationsprobleme zwischen den einzelnen Prozessorkernen nicht zu lösen sind. "Wenn man so viele Kerne bündelt, ergeben sich oft auch ineffiziente Bereiche", meint Mark Horowitz, Professor für Elektrotechnik an der Stanford University. "Die Idee ist wirklich interessant, doch man kann einfach noch nicht sagen, ob sie wirklich ein Erfolg werden wird." (bsc)