Sonne und Erde

Die Stanford University hat nach einem halben Jahr Testphase ein neues Zentrum für Computational Earth and Environmental Sciences (CEES) eingeweiht, das einen interdisziplinären und lukrativen Brückenschlag leisten soll.

vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 7 Min.
Von
  • Steffan Heuer

Das neue Rechen- und Simulationszentrum auf dem Stanford-Campus in Silicon Valley wurde mit einer Sach- und Geldspende von Sun Microsystems in Höhe von drei Millionen Dollar aus der Taufe gehoben. Es soll zunächst 75 Studenten, Doktoranden und Professoren die Arbeit an rechenintensiven Modellen und Simulationen erlauben. Weitere Firmensponsoren sind Cisco Systems und die Firma 3DGeo, die Bildgebungsverfahren für die Öl- und Gasindustrie herstellt. Im Aufsichtsgremium des neuen Zentrums sitzen unter anderem Chevron und BP. Von Regierungsseite ist die US Geological Survey beteiligt.

"Wir haben eine einzigartige Kombination hergestellt, bei der Computerwissenschaften die Naturwissenschaften vorantreiben werden und Naturwissenschaften im Gegenzug das Computerdesign beeinflussen", sagte CEES-Direktor Jerry Harris bei der Einweihung. Um die für Modellierung und Simulation von klimatischen Veränderungen, Ozeanströmungen, Tektonik oder Seismologie nötigen massiven Datensätze zu bearbeiten, verfügt das Zentrum über drei Sun-Cluster. Sie wurden in der School of Earth Sciences installiert und liefen seit September vergangenen Jahres ohne Unterbrechung im Probebetrieb.

Das Zentrum hat bereits von der Konzeption her eine klare wirtschaftliche Ausrichtung, um neue Technologien schneller in den Markt zu bringen. Sun Microsystens, der angeschlagene Wegbereiter vernetzter Rechnersysteme, kann auf dem Gebiet der Umweltforschung und Exploration fossiler Brennstoffe seine neueste Hard- respektive Software testen und vorführen, während Öl- sowie Gaskonzerne Einblick in neueste Technologien erhalten und ihre Nachwuchssorgen bei hochspezialisierten Geowissenschaftlern an einer Eliteuniversität lösen können.

"Wir sehen uns als Drehkreuz im Zentrum von Hochschule und Industrie, bei der unsere Partner auch direkt in Verbindung treten sollen", so Harris. "Die Öl und Gasindustrie ist ein vertikaler Markt von vielen, der von wissenschaftlichen Anwendungen getrieben wird. Das wird Sun helfen, sich in diesen Märkten neu zu etablieren." Das Zentrum soll etwa Software zur dreidimensionalen seismischen Bildgebung entwickeln, die anschließend von Firmen lizenziert und kommerzialisiert werden. Von den Energiekonzernen meldete sich pikanterweise bei der Eröffnungsveranstaltung kein Vertreter zu Wort.

Das neue Rechenzentrum besteht aus drei Clustern mit unterschiedlichen Aufgaben: ein Block aus 64 Rechnern mit je zwei Opteron-Prozessoren für Distributed Programming; ein fast zwei Meter hoher Turm oder Sparc SMP-Cluster mit 48 Prozessoren und 192 Gigabyte Speicher zum Symmetric Multiprocessing massiver Datenmengen, sowie ein kleinerer "Werkzeug"-Cluster. Ergänzt wird die Infrastruktur von einer Grid-Engine, die ebenfalls von Sun stammt, sowie Distributed Memory Systems mit zehn Terabyte Kapazität und einem InifiniBand-Netz von Cisco. Jeder Student oder Dozent an Stanford kann sich anmelden, um in CEES zu arbeiten und Simulationen durchzurechnen.

Das neue Geo-Rechenzentrum ist ein wichtiges Aushängeschild für Suns Ambitionen, sich als Meinungsmacher beim Super Computing in einem flexiblen Grid zu präsentieren. Die Stanford-Installation wird als "High Productivity Technical Computing" (HPTC) bezeichnet, wobei der Unterschied zwischen Productivity und Performance vor allem mit der Verlässlichkeit zu tun hat, so der Leiter der Anlage, Dennis Michael. "High Performance ist oft das Neueste vom Neuen, aber nicht unbedingt die produktivste oder stabilste Technik. Unser Ziel ist, dass die Rechner so lange, wie möglich, ohne Probleme laufen, um die Jobs durchzuziehen."

Für Sun, das in den letzten Jahren vor allem mit Verlusten und der anstehenden Entlassung von mehr als einem Zehntel seiner Angestellten in die Schlagzeilen geraten ist, stellt HPTC einen Silberstreif am Horizont dar. Das Unternehmen plant, neben dem Geo-Rechenzentrum in Stanford und einem gerade eingeweihten Supercomputer-Zentrum in Ontario gemeinsam mit Chiphersteller AMD Mitte Juli in Dresden den leistungsstärksten Supercomputer außerhalb der USA vorzustellen.

Das massive Netz ist am Tokio Institute of Technology installiert worden. Das System besteht aus Sun-Fire-x64-Servern mit insgesamt 10.480 Opteron-Prozessoren, die 10 TFLOPS Rechenleistung erbringen. Sun-GrĂĽnder und Verwaltungsratsvorsitzender Scott McNealy bezeichnete sich auf der Stanford-Einweihung deswegen nur halb im Scherz als "Kronprinz des Super-Computing."

Die massiven Demoprojekte fallen mit einem bedeutenden Datum zusammen. Voraussichtlich am 10. Juli wird die Defense Advanced Research Projects Agency (DARPA), der Entwicklungsarm des Pentagon, die dritte Phase seiner Ausschreibung und Entwicklung des Supercomputer-Grids der Zukunft einläuten. Um die Entwicklung und Implementierung der "High Productivity Computing Systems" buhlen derzeit noch drei Firmen: IBM, Cray und Sun. Mitte Juli wird das Feld auf zwei Wettbewerber schrumpfen, die mit einem Auftrag von jeweils 250 Millionen Dollar rechnen können.

Bei den hochgradig skalierbaren, möglichst energiesparenden, distributed Systemen geht es um eine neue Rechnerarchitektur für militärische und später kommerzielle Anwendungen. Eine der DARPA-Vorgaben ist ein Leistungsgewinn um den Faktor 10 bis 40 für Anwendungen zur nationalen Sicherheit wie Überwachung und Krypto-Analyse, Waffenanalysen oder Bioterror-Modelle. Dementsprechend martialisch klingen die Namen der Projekte, an denen Sun arbeitet: die Programmiersprache Fortress (Festung) und Hero (Held) File System. Ein großes HPCS-System, so Suns Programm-Manager David Douglas, würde theoretisch eine Fläche von 78 mal 72 Metern einnehmen.

Wer den Zuschlag vom Pentagon bekommt, hat bis Ende 2010 ein einsatzfähiges System zu entwickeln. Im Vorfeld dieser DARPA-Initiative überbieten sich Hersteller mit neuen Rekorden. Für die um neue Vorkommen ringende Erdöl- und Gasindustrie bietet der Zugriff auf die kleinen Verwandten eines derart hochgezüchteten Rechenzentrums handfeste Vorteile. Dank der Partnerschaft mit der USGS können Forscher an Stanford auf umfangreiche, nicht in Firmen-Safes verschlossene Daten zugreifen, die weit über die sonst in der Industrie üblichen Modelle für kleinere Parzellen hinausgehen.

Wie Ken Peters von der US-Geologiebehörde sagte, lassen sich an CEES ganze Beckensimulationen in drei Dimensionen im Zeitverlauf durchrechnen und interpretieren. Wer etwa die Daten für den gesamten nördlichen Küstenstreifen von Alaska auf 620 mal 320 Kilometer modelliert, kann die Prognosen für mögliche Funde erhöhen und Interpretationsmuster für die Zukunft schaffen, die allen Firmen zugute kommen.

Und wer daran ausgebildet ist, hat eine großartige Karriere vor sich. "Die Energiekonzerne suchen händeringend nach solchen Spezialisten und werben sich die Leute gegenseitig ab. Dieser Bereich ist einer der größten Wettbewerbsvorteile, aber der Industrie fehlt der qualifizierte Nachwuchs", so Peters.

USGS plant deswegen, an Stanford gemeinsam mit Energiefirmen ein Ausbildungsprogramm mit eigenem Lehrstuhl für die "Modellierung von Petroleum-Systemen" einzurichten. Die nötige Software namens PetroMod steuert die deutsche Firma Integrated Exploration Systems (IES) aus Aachen bei. Was einen kommerziellen Nutzer sonst um die 200.000 Dollar für eine einzige Lizenz kostet, so IES-Geologin Carolyn Lampe, können künftig Dutzende von Studenten und Dozenten an Stanford kostenlos benutzen. "Und sie können ausnahmsweise über die Daten und Modelle reden, weil die Forschung öffentlich ist." (wst)