zurück zum Artikel

Jagd nach dem Gott-Partikel

Dr. Wolfgang Stieler

Forscher am CERN brachten uns das WWW, und jetzt könnte erneut eine globale Computer-Infrastruktur dort ihren Ausgang nehmen: das Grid, in dem sich Rechenkraft nach Belieben abrufen lässt

Glas, Beton und rostrote Stahltüren prägen den nüchternen 80er-Jahre-Zweckbau. Das Mekka der Teilchenphysiker aus aller Welt wirkt schlicht, aber wer hier arbeitet, hat sowieso Höheres im Sinn - nur die sieben Champagnerflaschen auf einem Stahlschrank lassen erahnen, dass hier gelegentlich Nobelpreise gefeiert werden.

"Wenn Sie Zeit haben, müssen Sie unbedingt zum Punkt fünf fahren", schwärmt Reinhard Stock. "Das ist einfach erschütternd ästhetisch. 11 000 Tonnen Stahl, diese riesige Menge an Rohmaterial. Und dann dieser Kontrast zwischen harter Technologie mit Präzision bis ins letzte Detail und dem Geist, der da drinsteckt. So etwas haben Sie noch nicht gesehen."

Stock ist Überzeugungstäter, seit 35 Jahren kommt der Frankfurter Professor immer wieder in die Nähe von Genf. Sein Ziel ist das Institut, das vor 50 Jahren als "Conseil Européen pour la Recherche Nucléaire" gegründet wurde, mittlerweile "Organisation Européenne pour la Recherche Nucléaire" heißt, aber das Akronym CERN nicht ablegen mochte, obwohl es längst eine weltweite Organisation ist. Stock will Elementarteilchen jagen. Mit Stirnglatze, wollener Pullunderweste und der Lesebrille, die an einem Band um seinen Hals hängt, entspricht der Mann mit der sanften Stimme und dem freundlichen Lächeln dem Klischee vom weltabgewandten Gelehrten.

Doch der weltferne Eindruck täuscht - Stock und Kollegen leisten organisatorische Schwerstarbeit. In einen 27 Kilometer langen Tunnel, der 100 Meter tief unter der Erde liegt, bauen die Forscher zurzeit zwei neue Beschleunigerröhren für Hadronen Kernteilchen, die an der "starken Wechselwirkung" teilnehmen. Die Röhren des "Large Hadron Collider" (LHC) werden umschlossen vom stärksten und größten Magneten der Welt. Mit vier tonnenschweren Apparaturen wollen die Physiker unter anderem überprüfen, ob das seit 30 Jahren diskutierte Standardmodell der Teilchenphysik richtig ist. Danach sollten unter bestimmten Umständen so genannte Higgs-Bosonen nachweisbar sein. Am CERN soll die Frage nach der Existenz des sagenumwobenen Teilchens nun definitiv entschieden werden. Gelingt es, die von manchem Forscher ehrfurchtsvoll "Teilchen Gottes" genannten Partikel zu finden, stimmt die Theorie. Gelingt es nicht, muss die Zunft Teile der Theorie über den Haufen werfen.

Der Aufwand, lächerlich winzige Teilchen aufeinander prallen zu lassen, ist immens. Doch noch viel größer ist die Herausforderung, die gigantischen Datenmassen zu verarbeiten. Die esoterisch anmutende Grundlagenforschung könnte ein höchst reales Nebenprodukt haben, das die Computerwelt grundlegend verändert: Zusammen mit Konzernen wie IBM und Hewlett-Packard bauen die CERN-Forscher an einem globalen Meta-Netzwerk von Rechnern, die über Hochgeschwindigkeitsleitungen zusammengeschaltet sind. Das LHC-Computing- Grid soll eines Tages funktionieren wie ein virtueller Supercomputer, der Forschern in aller Welt Rechenleistung zur Verfügung stellt, um die LHC-Experimente auszuwerten.

Auf der französischen Seite der Grenze - eine gute halbe Stunde Autofahrt näher an der majestätischen Kulisse der Alpen - liegt der von Physiker Stock so viel gepriesene Punkt fünf. Dem Besucher präsentiert sich von außen eine unscheinbare beige Werkshalle, doch wer diese Halle betritt, kann die Begeisterung des Forschers nachempfinden: In einem grünen Gerüst hängen rot lackierte zwölfeckige Scheiben, aufgeteilt in drei konzentrische Ringe mit einem Durchmesser von 15 Metern. Filigrane Sensorelektronik glänzt im Scheinwerferlicht wie exotischer Tempelschmuck. Die Scheiben werden im montierten Endzustand eine nicht minder gewaltige Röhre abschließen, die nur einige Meter weiter zusammengesetzt wird. Deren glänzende Außenhülle verbirgt einen supraleitenden Magneten, der im eingeschalteten Zustand ein Magnetfeld von vier Tesla produzieren wird - das entspricht der 80 000fachen Stärke des durchschnittlichen Erdmagnetfeldes.

21,5 Meter lang wird der komplette Aufbau und ein Gewicht von rund 12 500 Tonnen haben - das schwerste Einzelteil bringt es auf 2000 Tonnen. Der hier konstruierte "Compact Muon Solenoid" (CMS) gehört zu den komplexesten Nachweisgeräten, die jemals gebaut worden sind. Am CERN ist man jedoch zuversichtlich, dass das Experiment nicht nur die Theorie bestätigt, sondern noch weiter trägt. "Wenn wir nur das Higgs-Boson finden, wäre das schade. Dann hätten wir ja gar nichts Neues gelernt", sagt Christoph Schäfer, der als "Group Leader in Matters of Safety" beim Aufbau des CMS-Experimentes arbeitet.

Das Basiswerkzeug für die Suche nach dem begehrten Partikel ist der 27 Kilometer lange Tunnel, der 100 Meter unter der Oberfläche verläuft. Dort hinein bauen die Wissenschaftler jetzt den LHC. Darin werden Protonen, also positiv geladene Elementarteilchen, von supraleitenden Magneten auf zwei gegenläufige Kreisbahnen gezwungen. An vier verschiedenen Orten überschneiden sich diese beiden Kanäle - dort rasen die Protonenströme mit einer Schwerpunktsenergie von 14 Teraelektronenvolt aufeinander zu. Beim Zusammenstoß zweier Kernteilchen zerplatzen sie. Aus dem Trümmerschauer können die Wissenschaftler auf ihre Bestandteile zurückschließen.

Die Strahlen sind "gebuncht", das heißt, die Teilchen laufen in Paketen durch die Ringe. Pro Bunch entstehen so im Mittel etwa 25 interessante Zusammenstöße, aus denen jeweils rund 1600 geladene Trümmerteilchen hervorgehen. Die Bündel folgen einander im Abstand von je 25 Nanosekunden. Weil die Detektoren gar nicht schnell genug sind, um jede einzelne dieser Kollisionen aufzunehmen, werden jeweils 20 Messungen überlagert, die bei der Auswertung wieder entfaltet werden müssen.

Um die Teilchen identifizieren zu können, werden sie auch im Detektor durch ein Magnetfeld abgelenkt. Die genaue Krümmung ihrer Flugbahn lässt Rückschlüsse auf die Ladung und den Impuls - Masse mal Geschwindigkeit - des Teilchens zu. Anschließend wird es in einem Kalorimeter gestoppt, um seine Energie zu messen. "Trajektorien, Ladung, Impuls, Energie, damit wissen wir praktisch alles", erklärt Schäfer. Da sich das Experiment unter der Erde abspielen wird, arbeiten die Techniker an einer Höhle für den Detektor. Die "Experimentalkaverne" wird eine Halle mit 26 Metern Durchmesser und 60 Metern Länge. Um die gewaltige Apparatur nach unten zu befördern, haben die Ingenieure einen Schacht gebohrt, der mit einem Durchmesser von 21 Metern hundert Meter senkrecht in die Tiefe führt.

Für Besucher ist die Baustelle inzwischen komfortabel mit einem Lift zu erreichen. Unten erwarten den Gast größtenteils weiß getünchte Tunnel, die mit Leuchtstoffröhren erhellt sind: Ein komplettes Gangsystem, das sich vom eigentlichen Beschleunigertunnel ab- zweigt. An einer Abzweigung steht, ein wenig verloren, ein blauweißes Plastik-Klohäuschen. Der eigentliche LHC-Tunnel ist zurzeit weit gehend leer. Nur die Lüftung, die 15 000 Kubikmeter Luft pro Stunde umwälzt, macht einen Höllenlärm.

Im Tunnel müssen jetzt die Magnete montiert werden, die die Teilchen auf ihrer Kreisbahn halten. Über 22 der 27 Kilometer Strecke werden von Magneten eingenommen, die die eigentlichen Strahlröhren umhüllen. Jedes der rund 15 Meter langen Dipol-Teilstücke wiegt 30 Tonnen, erklärt Oliver Brüning, der für "das Design der Optik" - also der Dipol- und Quadrupolmagnete – verantwortlich ist.

Als der LHC geplant wurde, haben sich die Physiker an zwei Größen orientiert - an der Länge des bestehenden Tunnelrings und der Energie, mit der die Teilchen aufeinander prallen müssen. Als dritter Faktor ergibt sich daraus die so genannte "Bending Power", die die Magneten haben müssen: Die großen Dipole sollen ein Magnetfeld von 8,36 Tesla erzeugen. Wie man solche Magnete konstruiert und ob man sie überhaupt bauen kann, war zum Zeitpunkt der Planung nicht klar. 12 000 Ampere Stromstärke sind zur Erzeugung eines solchen Magnetfeldes notwendig - das lässt sich nur mit supraleitenden Wicklungen handhaben, also solchen, die unterhalb einer bestimmten Temperatur jeglichen elektrischen Widerstand verlieren.

Die Kabel bestehen aus Niobium-Titanium, eingebettet in Kupfer und Edelstahl. Eigentlich kommt das Material in Form von spröden kleinen schwarzen Kügelchen vor, aber mit Hilfe trickreicher Prozesstechnik kann man daraus auch Kabel fertigen. Das Material ist ein konventioneller Supraleiter, der auf unter 2 Kelvin (–271 Grad Celsius) gekühlt werden muss.

Aber das ist nicht die einzige technische Herausforderung, mit der Brüning und seine Kollegen zu kämpfen haben. Denn bei solch tiefen Temperaturen wird das Helium suprafluid – das heißt, dass es keinerlei Viskosität mehr aufweist und "einfach Kapillaren hoch- und durch jeden kleinsten Riss durchgeht", erklärt Brüning. Die Leitungen für das Kühlsystem der Magnete, die bereits auf etwa einem Achtel der Ringlänge installiert waren, haben sich nach Tests als nicht dicht genug erwiesen. Also werden die Magnete wieder ausgebaut - solche Pannen kosten mindestens drei Monate im Zeitplan.

Im eingeschalteten Zustand liegt ein Druck von 70 Megapascal auf der Spule. Auf ihrer Länge darf sie sich nicht mehr als einen Mikrometer durchbiegen, sonst "quencht" der Magnet. Vor diesem Zustand haben die Techniker eine Menge Respekt: Wenn der Magnet sich zu stark verformt, kann an irgendeiner Stelle die Supraleitung zusammenbrechen. Dort wird die Wicklung sehr schnell heiß. Dann "kriegen wir eine Kettenreaktion, und der ganze Magnet fliegt uns um die Ohren", sagt Brüning. Immerhin sind im Magnet der großen Dipole je 700 Megajoule Energie gespeichert. Ein ausgeklügeltes Anti-Quench-System soll solche Störfälle jedoch verhindern.

Der CMS und ein ähnlicher Riesen-Detektor namens ATLAS sollen das Higgs-Boson nachweisen. Im LHCb-Experiment wird einer möglichen Symmetrieverletzung der so genannten schwachen Wechselwirkung nachgespürt. Und im ALICEExperiment will Physiker Stock gemeinsam mit rund 1000 Kollegen einen "Mini Big Bang" erzeugen - einen kosmischen Urknall im Labor, dessen Endprodukt nur Bruchteile von Sekunden existieren wird. Dazu lassen die Wissenschaftler Blei-Ionen mit riesiger Geschwindigkeit aufeinander knallen. "Zwei dicke Dinger, wie bei einem Auffahrunfall, um in diesem Aufprall einen Feuerball zu erzeugen, in dem die Energiedichte und Temperatur so hoch sind wie in einem Frühstadium des Urknalls", erklärt Stock. "Das zerplatzt in 20 000 Teilchen, und die sehen wir dann in unserem Detektor – eine Art Fußabdruck."

Befürchtungen, dieser Versuch könnte die gesamte Erde zerstören, weil dabei beispielsweise ein schwarzes Loch im Mikro-Format entstünde, scheinen diesmal nicht hochzukochen. Das Vorläuferexperiment am Relativistic Heavy Ion Collider in Long Island hatte es aufgrund solcher Spekulationen sogar bis in die "Sunday Times" geschafft. Rund 2,2 Milliarden Schweizer Franken (1,4 Milliarden Euro) wird die gesamte Umrüstung des Beschleunigers auf den LHC-Betrieb und der Bau der vier großen Experimente kosten. Viel Geld für Grundlagenforschung, die der reinen Erkenntnis verpflichtet ist. Doch Stock ficht das nicht an. Der mittlerweile vielfach erhobenen Forderung nach anwendungsorientierter Forschung begegnet der Teilchenforscher mit Ironie: Es sei eine typisch deutsche Haltung, von Physikern "zu erwarten, dass sie nur Dampfmaschinen bauen", erklärt Stock. "Weil die Deutschen kritisch sind gegenüber der Innovationsfähigkeit ihrer Industrie. Und dann sagt man sich, nehmen wir wenigstens den Wissenschaftler im Elfenbeinturm und dressieren den, innovativ zu arbeiten, sodass die Industrie wieder kreative Betätigungsfelder kriegt."

Ohnehin spricht einiges dafür, dass die gigantische Untergrund- Maschinerie nicht nur einen Erkenntnisgewinn für ein paar fanatische Physiker bringen wird. Schon einmal entstand am CERN als Nebenprodukt scheinbar nicht verwertbarer Grundlagenforschung eine Technologie, die die Welt verändert hat: das World Wide Web, entwickelt von einer Gruppe von Supportingenieuren. In einem Flur im Erdgeschoss von Gebäude 1 der ehemaligen "Electronics and Computing for Physics Division" hängt seit Juni 2004 eine Messing-Gedenktafel, die darauf hinweist, dass in den umliegenden Büros das WWW erdacht wurde.

Hinter einer der hellen Holztüren, die von dem schier endlos langen Gang mit hellgrünem Betonboden und dicken Rohren an der Decke abgeht, residiert noch immer Robert Cailliau. Der Belgier arbeitet seit über 30 Jahren am CERN und hat gemeinsam mit dem mittlerweile geadelten Tim Berners-Lee die ersten Diskussionen über das Web geführt. "Wir stellen eine Basisinfrastruktur für Wissenschaftler zur Verfügung. Physiker aus ganz Europa kommen hierher, benutzen den Beschleuniger und die Detektoren für ihre Experimente, bilden temporäre Arbeitsgruppen und gehen dann zurück an ihre Universitäten", erzählt Cailliau. "Aber dann müssen sie immer noch ihre Aufsätze schreiben und das Zeug lesen, was ihre Kollegen geschrieben haben." Also hatte man zunächst versucht, ein hierarchisches Dokumentationssystem auf dem zentralen CERN-Computer zu installieren. "Sie brauchten einen Namen und ein Passwort, Sie mussten sich mit den Eigenheiten dieser Maschine vertraut machen. Und dann möchten Sie etwas nachlesen, das in einer Datenbank in Stanford liegt. Dann müssen Sie sich ausloggen, eine Verbindung nach Stanford aufbauen und herausfinden, wie Sie dort finden können, was Sie eigentlich suchen. Höllisch, einfach höllisch!" Irgendwann habe man bemerkt, sagt Cailliau, dass sich all diese Dinge immer und immer wiederholen, und die Forscher so eine Menge Zeit verschwenden - "das haben wir versucht mit unserem Vorschlag für ein neues Informationssystem zu lösen".

Auf diese Weise entstand die Struktur des WWW. Besuchern zeigt Cailliau gern ein Papier aus diesen Tagen: Den ursprünglichen Entwurf für das WWW, den Berners-Lee damals eingereicht hatte, mit den handschriftlichen Kommentaren seines Chefs. Auf dem Titelblatt ist vermerkt: "vague but exciting".

Vage, aber spannend - Ähnliches ließe sich auch heute von einem Computer-Projekt behaupten, das am CERN vorangetrieben wird. Wieder geht es darum, für die dort arbeitenden Physiker eine effiziente informationstechnische Infrastruktur aufzubauen. Und wieder könnte das auf eine Technologie hinauslaufen, die die Welt verändert. Wenn der LHC wie geplant im Jahr 2007 in Betrieb genommen wird, soll er jährlich bis zu 15 Petabytes an Daten liefern. Das entspricht dem Inhalt von rund drei Millionen DVDs. Kein Rechenzentrum der Welt wäre in der Lage, solche gewaltigen Datenmengen allein zu analysieren. Hier kommt das "Grid" ins Spiel. Für die Gemeinde der Hochenergiephysiker ist es zunächst eine Lösung für das drängende Problem der Verarbeitung von Daten in ungekannter Masse. Das Grid soll es ermöglichen, dass Wissenschaftler auf der ganzen Welt auf die Daten zugreifen und sie gemeinsam auswerten. Und sie sollten diese Möglichkeit auch haben, wenn sie in ihrem eigenen Rechenzentrum nicht über die erforderliche Rechenkapazität verfügen. Daraus ergibt sich die Notwendigkeit, Zugang zu Prozessorleistung, aber auch zu Daten und Anwendungen auf fremden Rechnern zu gewähren nicht über ein neues Internet, sondern durch Erweiterungen des bestehenden.

So wie das Web eine Plattform für den Austausch von Informationen ist, soll das Grid das Teilen von Rechnerressourcen ermöglichen. Computing wird, so die Vision, zu einem Dienst im virtuellen Raum, der vom Nutzer dann in Anspruch genommen werden kann, wenn er ihn braucht. Vorbild ist das Elektrizitätsnetz, das zumindest in den Industrienationen mittlerweile alle Haushalte mit Strom versorgt, ohne dass der einzelne Kunde sich Gedanken über Kraftwerke, Umspannstationen oder Überlandleitungen machen muss. In einem Rechner-Grid müssen ganz verschiedene Hardund Softwarekomponenten reibungslos zusammenspielen. So ist beispielsweise nur noch ein kleiner Teil wissenschaftlicher Software "self contained", also so geschrieben, dass man sie praktisch auf jedem Rechner laufen lassen kann. Die meisten Programme benötigen sehr viele Anpassungen, wenn sie in ganz verschiedenen Umgebungen laufen sollen. Das Ziel ist, Anpassungen von Hand nicht mehr vornehmen zu müssen. Die Herausforderung bei der Schaffung einer Grid-Infrastruktur liegt darin, die Aufteilung der vorhandenen Rechnerressourcen in einer dynamischen, dezentralen "virtuellen Organisation" zu koordinieren: Wie entscheidet man, wer wann auf welche Ressourcen zugreifen darf? Hinzu kommen abrechnungstechnische Probleme und Sicherheitsfragen, die alle ohne zentrale Entscheidungsinstanz gelöst werden müssen. Doch während das WWW sich noch in aller Ruhe und Abgeschiedenheit der Forscher-Gemeinde entwickeln durfte, sind dieses Mal fast von Beginn an auch die Marktschreier dabei: Grid hier, Grid da, fast alle wichtigen IT-Anbieter schmücken sich und ihre Produkte bereits mit diesem Schlagwort - und scheinen jeweils etwas ganz Eigenes darunter zu verstehen.

Anfang 2001 begann ein Team am CERN im Rahmen des European Data Grid (EDG), einen ersten Satz Middleware, also Software für verteilte Systeme, zu entwickeln, auf dem die Hochenergiephysik und zwei andere wissenschaftliche Projekte realisiert werden sollten. "Dass das EDG den Usern angepriesen wurde, während die entwickelte Software noch keine hinreichende Stabilität hatte, hat sicherlich zu einer gewissen Skepsis beigetragen", sagt Markus Schulz, Leiter der Support- Sektion innerhalb der Grid-Deployment-Gruppe des CERN. In der nächsten Stufe, dem Large Hadron Collider Computing Grid (LCG), konzentrierten sich die Entwickler daher darauf, die Software vom EDG "in Produktionsqualität" zu überführen. Mittlerweile wird das LCG im Rahmen einer internationalen Initiative (Enabling Grids for E-Science in Europe, EGEE) weiterentwickelt. 70 Partnerorganisationen – darunter auch solche aus den USA, Russland und Israel - arbeiten darin an einer Generalüberholung der Grid-Software, werten die bisherigen Erfahrungen aus dem LCG aus und bringen Anforderungen anderer Wissenschaften wie Bioinformatik und Medizin in die Software ein.

Das LCG hat sich als populärer erwiesen, als in der ursprünglichen Planung angenommen. Mittlerweile sind 82 Center in 27 Ländern integriert, das entspricht "9700 CPUs mit drei Petabyte Storage", erklärt Schulz nicht ohne Stolz. In "evolutionären Weiterentwicklungen" haben die Entwickler das System für einige tausend parallel laufende Jobs tauglich gemacht. Bereits in dieser frühen Phase hat sich gezeigt, dass man über das Grid mehr Computing zugänglich machen kann, als an den einzelnen Sites zur Verfügung steht. Aber die angepeilte Produktionsqualität bleibt weiterhin als Entwicklungsziel auf der Tagesordnung.

Die einzelnen Komponenten arbeiten mittlerweile sauber zusammen. So gibt es bereits einen so genannten Resource Broker, der die Aufgaben automatisch verteilt. Dieser Resource Broker überprüft die Verfügbarkeit der Daten, der Rechenleistung und Anwendungen und schickt die Rechenaufgabe an die optimale Maschine. Eventuell noch fehlende Daten werden mit dem so genannten Replika-Manager auf dieser Maschine repliziert.

Als besondere interkulturelle Herausforderung, sagt Schulz, habe sich die "Etablierung einer gemeinsamen Sicherheitsstruktur" herausgestellt. Insbesondere die US-Institute hatten eine ganz andere Vorstellung davon, wie viele Daten man über die User sammeln darf, als die Europäer. "Viele der großen USInstitute, die Hochenergiephysik betreiben, stehen in Verbindung mit dem Departement of Energy und haben in ihrer Vergangenheit mal was mit Kernphysik zu tun gehabt", erklärt Schulz. "Und die haben einfach ihre Prozeduren aus der Vergangenheit obwohl sie jetzt keine Kernwaffenforschung mehr betreiben - mitgeschleppt, obwohl es keinen rechtlichen Grund mehr dafür gab."

Gerade die "kulturelle Vielfalt" verschiedener Informations- Infrastrukturen birgt laut Schulz eine besondere Herausforderung. Es entbehrt daher nicht einer gewissen Ironie, dass LCG-Chef Les Robertson höchstpersönlich seinen Vortrag bei der diesjährigen Konferenz "Computing in High Energy Physics" mit den Worten beendete, die Multi-Disziplinarität der Grid-Projekte sei wichtig, aber die Hochenergiephysik habe im Unterschied zu anderen Projekten "2007 eine echte Deadline". Im LHC-Zeitplan sollen 2007 die Arbeit der Ingenieure, die den Beschleuniger fertig gestellt haben, die Arbeit von tausenden Wissenschaftlern, die Riesenexperimente wie den CMS-Detektor vorbereiten, und die Entwicklung des Grid zusammen fließen. Wenn dann nur eine Komponente nicht funktioniert, scheitert das ganze Projekt.

"Im Jahr 2007, wenn der Beschleuniger anspringt, kommt die Flut der Daten", sagt Bernd Panzer-Steindel, der "Computing Fabric Area Manager" des CERN. "Im Moment sind das so etwa 150 Megabyte pro Sekunde. Dann werden es Gigabyte pro Sekunde sein." Im krankenhausweißen Tiefgeschoss des CERN Computer Center stehen in endlosen Reihen auf weißen Regalen dicht an dicht gepackt zwei große Rechner-Cluster, die von den Physikern zur Auswertung ihrer Experimente verwendet werden - über 2000 handelsübliche PCs. Über allem dröhnt die Klimaanlage.

Hinter einer Batterie von Plattensystemen stehen die Silos der Bandlaufwerke, aus denen Roboterarme in Sekundenschnelle Bänder mit den ältesten experimentellen Daten hervorzaubern und mit 30 Megabyte pro Sekunde in den Arbeitsspeicher der Cluster schaufeln. "Wir haben ein kumulatives Speicherproblem", erklärt Panzer-Steindel, "denn wir werfen keine Daten weg." Alle Daten müssen im Schnitt alle vie Jahre kopiert werden. Zuletzt haben die Datenhüter des CERN sämtliche Messwerte von Bändern mit 60 auf Bänder mit 200 Gigabyte Kapazität kopiert. Voraussichtlich wird auch die Silozahl erhöht werden, aber die Einzelheiten dafür sind noch nicht geplant. Denn zunächst muss die Basis-Infrastruktur für den Ausbau geschaffen werden, und das heißt erst einmal Kabel ziehen: Die elektrische Infrastruktur des Zentrums wird gerade von 600 Kilowatt auf 2,5 Megawatt umgestellt.

Wie die Infrastruktur aufgebaut sein muss, die die kommende Datenflut speichert und in die richtigen Kanäle umleitet, ist zurzeit bestenfalls theoretisch klar. Aber die ersten praktischen Erfahrungen zeigen, dass es äußerst schwierig wird: "Wir haben in einem ersten Challenge vor drei Jahren ein System aus 20 Linux-Boxen mit 100 Megabyte pro Sekunde belastet. Das hat ganze 30 Sekunden gehalten", berichtet Panzer- Steindel. Heute sei man bei einem Gigabyte pro Sekunde, aber die Stabilität lasse noch zu wünschen übrig. Das Problem ist die Komplexität aus dem Zusammenspiel sehr vieler Komponenten, erklärt Panzer-Steindel. Diese Komplexität könne man weder simulieren noch theoretisch vorausberechnen: "Wir prognostizieren keine Skalierung mehr, die wir nicht getestet haben", ist mittlerweile das Credo. "Wir verbinden die Komponenten miteinander und versuchen sie dann zu brechen. Und bis jetzt konnten wir jede Infrastruktur brechen." Irgendjemand hat auf die Rückseite der großen Uhr im Vorraum des Rechenzentrums einen Aufkleber gepappt: "LHC is our Future".

Die Aussage ist möglicherweise prophetischer, als sie gemeint war. Denn das Grid selbst ist unabhängig davon, ob damit Probleme der Biologie, Medizin oder Hochenergiephysik gelöst werden - es beschränkt sich nicht einmal auf die Lösung wissenschaftlicher Probleme. Ein Industriekonsortium arbeitet beispielsweise an der multidisziplinären Verkopplung von Werkzeugen bei der Flugzeugentwicklung, sodass im Grid das komplette Flugzeug simuliert werden kann. "Virtuelle Organisationen haben das Potenzial, die Art und Weise, wie wir Computer für das Lösen von Problemen einsetzen, so dramatisch zu verändern, wie das Web den Informationsaustausch verändert hat", schreiben Ian Foster, Carl Kesselman und Steven Tuecke in ihrem klassischen Aufsatz "The anatomy of the Grid". Die Methoden können genauso für den Betrieb eines weltweit verteilten Unternehmens verwendet werden wie für die Suche nach dem Gott-Partikel. Deshalb treiben Computerkonzerne wie IBM mit seiner On-Demand- Initiative und HP mit Utility-Computing die Grid-Vision voran - und beteiligen sich auch am LHC-Grid.

Die dröhnende Lüftung des CERN-Rechenzentrums klingt auch auf der Terrasse der CERN-Cafeteria noch eine Weile nach. Bei einer Aufenthaltsdauer von etwa einer Stunde, witzeln manche Physiker, soll man hier im Schnitt drei Nobelpreisträger treffen. "Wenn wir dazu beitragen", sagt lächelnd Reinhard Stock, "die inneren Gesetze der Welt aufzudecken, dann sind wir ein Teil der Wahrheit und damit im Sinne von Spinoza quasi ein Teil von Gott." Auf dieser Terrasse klingt das kein bisschen vermessen.

(Entnommen aus Technology Review Nr. 12/2004 [1]) (sma [2])


URL dieses Artikels:
https://www.heise.de/-277075

Links in diesem Artikel:
[1] http://www.heise.de/tr/inhalt/2004/12
[2] mailto:s.mattke@gmail.com