Jagd nach dem Gott-Partikel

Seite 4: Jagd nach dem Gott-Partikel

Inhaltsverzeichnis

Die einzelnen Komponenten arbeiten mittlerweile sauber zusammen. So gibt es bereits einen so genannten Resource Broker, der die Aufgaben automatisch verteilt. Dieser Resource Broker überprüft die Verfügbarkeit der Daten, der Rechenleistung und Anwendungen und schickt die Rechenaufgabe an die optimale Maschine. Eventuell noch fehlende Daten werden mit dem so genannten Replika-Manager auf dieser Maschine repliziert.

Als besondere interkulturelle Herausforderung, sagt Schulz, habe sich die "Etablierung einer gemeinsamen Sicherheitsstruktur" herausgestellt. Insbesondere die US-Institute hatten eine ganz andere Vorstellung davon, wie viele Daten man über die User sammeln darf, als die Europäer. "Viele der großen USInstitute, die Hochenergiephysik betreiben, stehen in Verbindung mit dem Departement of Energy und haben in ihrer Vergangenheit mal was mit Kernphysik zu tun gehabt", erklärt Schulz. "Und die haben einfach ihre Prozeduren aus der Vergangenheit obwohl sie jetzt keine Kernwaffenforschung mehr betreiben - mitgeschleppt, obwohl es keinen rechtlichen Grund mehr dafür gab."

Gerade die "kulturelle Vielfalt" verschiedener Informations- Infrastrukturen birgt laut Schulz eine besondere Herausforderung. Es entbehrt daher nicht einer gewissen Ironie, dass LCG-Chef Les Robertson höchstpersönlich seinen Vortrag bei der diesjährigen Konferenz "Computing in High Energy Physics" mit den Worten beendete, die Multi-Disziplinarität der Grid-Projekte sei wichtig, aber die Hochenergiephysik habe im Unterschied zu anderen Projekten "2007 eine echte Deadline". Im LHC-Zeitplan sollen 2007 die Arbeit der Ingenieure, die den Beschleuniger fertig gestellt haben, die Arbeit von tausenden Wissenschaftlern, die Riesenexperimente wie den CMS-Detektor vorbereiten, und die Entwicklung des Grid zusammen fließen. Wenn dann nur eine Komponente nicht funktioniert, scheitert das ganze Projekt.

"Im Jahr 2007, wenn der Beschleuniger anspringt, kommt die Flut der Daten", sagt Bernd Panzer-Steindel, der "Computing Fabric Area Manager" des CERN. "Im Moment sind das so etwa 150 Megabyte pro Sekunde. Dann werden es Gigabyte pro Sekunde sein." Im krankenhausweißen Tiefgeschoss des CERN Computer Center stehen in endlosen Reihen auf weißen Regalen dicht an dicht gepackt zwei große Rechner-Cluster, die von den Physikern zur Auswertung ihrer Experimente verwendet werden - über 2000 handelsübliche PCs. Über allem dröhnt die Klimaanlage.

Hinter einer Batterie von Plattensystemen stehen die Silos der Bandlaufwerke, aus denen Roboterarme in Sekundenschnelle Bänder mit den ältesten experimentellen Daten hervorzaubern und mit 30 Megabyte pro Sekunde in den Arbeitsspeicher der Cluster schaufeln. "Wir haben ein kumulatives Speicherproblem", erklärt Panzer-Steindel, "denn wir werfen keine Daten weg." Alle Daten müssen im Schnitt alle vie Jahre kopiert werden. Zuletzt haben die Datenhüter des CERN sämtliche Messwerte von Bändern mit 60 auf Bänder mit 200 Gigabyte Kapazität kopiert. Voraussichtlich wird auch die Silozahl erhöht werden, aber die Einzelheiten dafür sind noch nicht geplant. Denn zunächst muss die Basis-Infrastruktur für den Ausbau geschaffen werden, und das heißt erst einmal Kabel ziehen: Die elektrische Infrastruktur des Zentrums wird gerade von 600 Kilowatt auf 2,5 Megawatt umgestellt.

Wie die Infrastruktur aufgebaut sein muss, die die kommende Datenflut speichert und in die richtigen Kanäle umleitet, ist zurzeit bestenfalls theoretisch klar. Aber die ersten praktischen Erfahrungen zeigen, dass es äußerst schwierig wird: "Wir haben in einem ersten Challenge vor drei Jahren ein System aus 20 Linux-Boxen mit 100 Megabyte pro Sekunde belastet. Das hat ganze 30 Sekunden gehalten", berichtet Panzer- Steindel. Heute sei man bei einem Gigabyte pro Sekunde, aber die Stabilität lasse noch zu wünschen übrig. Das Problem ist die Komplexität aus dem Zusammenspiel sehr vieler Komponenten, erklärt Panzer-Steindel. Diese Komplexität könne man weder simulieren noch theoretisch vorausberechnen: "Wir prognostizieren keine Skalierung mehr, die wir nicht getestet haben", ist mittlerweile das Credo. "Wir verbinden die Komponenten miteinander und versuchen sie dann zu brechen. Und bis jetzt konnten wir jede Infrastruktur brechen." Irgendjemand hat auf die Rückseite der großen Uhr im Vorraum des Rechenzentrums einen Aufkleber gepappt: "LHC is our Future".

Die Aussage ist möglicherweise prophetischer, als sie gemeint war. Denn das Grid selbst ist unabhängig davon, ob damit Probleme der Biologie, Medizin oder Hochenergiephysik gelöst werden - es beschränkt sich nicht einmal auf die Lösung wissenschaftlicher Probleme. Ein Industriekonsortium arbeitet beispielsweise an der multidisziplinären Verkopplung von Werkzeugen bei der Flugzeugentwicklung, sodass im Grid das komplette Flugzeug simuliert werden kann. "Virtuelle Organisationen haben das Potenzial, die Art und Weise, wie wir Computer für das Lösen von Problemen einsetzen, so dramatisch zu verändern, wie das Web den Informationsaustausch verändert hat", schreiben Ian Foster, Carl Kesselman und Steven Tuecke in ihrem klassischen Aufsatz "The anatomy of the Grid". Die Methoden können genauso für den Betrieb eines weltweit verteilten Unternehmens verwendet werden wie für die Suche nach dem Gott-Partikel. Deshalb treiben Computerkonzerne wie IBM mit seiner On-Demand- Initiative und HP mit Utility-Computing die Grid-Vision voran - und beteiligen sich auch am LHC-Grid.

Die dröhnende Lüftung des CERN-Rechenzentrums klingt auch auf der Terrasse der CERN-Cafeteria noch eine Weile nach. Bei einer Aufenthaltsdauer von etwa einer Stunde, witzeln manche Physiker, soll man hier im Schnitt drei Nobelpreisträger treffen. "Wenn wir dazu beitragen", sagt lächelnd Reinhard Stock, "die inneren Gesetze der Welt aufzudecken, dann sind wir ein Teil der Wahrheit und damit im Sinne von Spinoza quasi ein Teil von Gott." Auf dieser Terrasse klingt das kein bisschen vermessen.

(Entnommen aus Technology Review Nr. 12/2004) (sma)