Urknall vertagt

Das größte Physikexperiment aller Zeiten kommt in Gang. Schwarze Löcher und Urknall-Energien sind zunächst nicht zu erwarten. Immerhin gelang den Physikern endlich das, was die Informatiker schon 2003 zustande brachten: ein Weltrekord.

In Pocket speichern vorlesen Druckansicht 35 Kommentare lesen
Lesezeit: 9 Min.
Von
  • Bernd Schöne
Inhaltsverzeichnis

Am 30. März um 13:06 Uhr war es so weit. Im Kontrollzentrum des Genfer CERN verkündeten die Monitore einen Weltrekord: Erstmals verfügen die Teilchenphysiker mit dem „Large Hadron Collider“ (LHC) über ein Instrument, das Beschleunigungsenergien von bis zu 3,5 TeV (Tera-Elektronenvolt) zu erzeugen vermag. In seinem Innern zirkulieren zwei Ströme von Wassestoff-Kernen (Protonen) gegenläufig. An bestimmten Punkten lässt man sie gezielt kollidieren. Das macht bei einem Frontalcrash eine Kollisionsenergie von 7 TeV.

Auch wenn CERN-Verlautbarungen anderes vermuten lassen, der Ring erreichte damit nicht seine geplante Maximalenergie von 2 x 7 TeV, also 14 TeV, wohl aber eine brauchbare Arbeitsgrundlage. Jetzt folgen weitere Tests und „echte“ Physik. Darauf hatten die Physiker seit der Demontage des Vorgängerrings Ende 2000 gewartet.

Auch in einem weiteren Punkt ist man Jahre von der Leistungsfähigkeit der Anlage entfernt. Statt 2808 Paketen mit je 100 Mrd. Protonen müssen sich die Experimentatoren mit zweien zu je fünf Mrd. Protonen begnügen. Die Aussicht auf Erfolg versprechende Kollisionen sinkt entsprechend. Wie ein Formel-1-Bolide in der Boxengasse rumpelt der LHC im zweiten Gang Richtung Rennstrecke. Diese, das weiß man schon jetzt, wird er frühestens 2012 erreichen, nach weiteren Umbauten und Reparaturen 2011. Erst dann dürfen sich ängstliche Gemüter vor einem schwarzen Loch und dem Weltuntergang gruseln.

Ursprünglich wollten die Physiker die 3,5-TeV-Marke schon 2006 knacken. Darum stand vor allem die IT unter Druck. Nirgendwo sonst verlangt man, solch enorme Datenmengen zu speichern, und nirgendwo sonst verlangt man, dass jedes Ereignis noch nach einem Jahrzehnt quasi auf Knopfdruck für neue Berechnungen verfügbar ist. Im Jahr 2003 schaffte das Team um IT-Chef Wolfgang von Rüden einen Weltrekord im Schnellspeichern langanhaltender Datenströme, als Test für den für Ende 2007 geplanten Ernstfall. 45 StorageTek-9940B-Bandlaufwerke schrieben über Stunden hinweg 1,1 GByte/s, in Spitzen 1,2 GByte/s. Das war gut, aber die Anforderungen sind höher. Heute liegen die kontinuierlich speicherbaren Ströme im Mittel bei 2 GByte/s, maximal bei 4 GByte/s mit Spitzenraten von über 5 GByte/s.

Quelle der vielen Daten sind vier Großexperimente, die 100 Meter unter der Erde an den Kollisionspunkten der 27 km langen Ringstrecke eingelassen sind. Stück für Stück haben Kräne sie in die Tiefe befördert, wo ganze Schwärme von Technikern über Jahre schraubten und schweißten. Jedes der Geräte ist eine Spitzenleistung der Ingenieurkunst. Ihre Aufgabe ist es, unaufhörlich Daten zu liefern, damit Physiker in monatelanger Arbeit herausarbeiten können, was im Innern passierte.

Sensoren in den haushohen Detektoren ALICE, ATLAS, CMS und LHCb „filmen“ die Kollisionen. Noch in den 70ern nutzte man Fotoplatten, die man anschließend mühsam digitalisierte. Heute fangen Blei-Wolfram-Kristalle die Gammastrahlung der beteiligten Teilchen auf und verwandeln sie proportional zu ihrer Energie in sichtbare Lichtblitze, die Fotodioden in computergerechte elektrische Signale umwandeln. Wenn der Ring irgendwann mit Volllast läuft, prallen hier pro Sekunde 40 Millionen Atomkerne mit nahezu Lichtgeschwindigkeit aufeinander – mit einer Energie von 900 Autos bei Tempo 100. Doch wenn es nicht gelingt, den enorm energiereichen Strahl exakt in die Bahn zu zwingen, könnten die Protonen den Mantel des Rings zerstören.

Da die Stoßparameter Zufall sind, heißt es warten. Bei Beschleuniger-Experimenten gilt die Regel: Je höher die Energie, desto kleiner sind die maximal aufgelösten Strukturen; je höher die Teilchendichte, desto größer die Wahrscheinlichkeit des Erfolgs; je mehr Sensoren, desto detailreicher das Bild. Der Detektor ALICE etwa besitzt 20 000 Kristallplatten – à 200 Dollar.

Allein von ALICE gilt es die Events aus 100 Millionen Datenkanälen auszuwerten, ATLAS liefert ebenso viele Informationen, CMS und LHCb stehen dem nur wenig nach. Jede Kollision in einem der vier Detektoren hinterlässt eine Datenspur von rund einem MByte. Direkt an der Quelle entsteht ein Strom von einem PByte/s.

Da das nicht zu bewältigen ist, treffen schnelle Embedded-Rechner in der Maschine eine Vorauswahl (s. Abb.). Einen Datenstrom von mindestens 500 MByte/s gilt es über Stunden und Tage aufzuzeichnen. Jährlich liefert der Ring 15 PByte Daten ins RZ – das entspräche 3 Millionen DVDs –, die dauerhaft zur Verfügung stehen müssen. Alle Archivdaten sind Produktionsdaten.

Kein Wunder, dass die Physiker unmittelbar vor dem geplanten Start im November 2007 etwas ängstlich auf die IT schauten. Nur knapp wurde sie fertig. Doch alles, was die Rechen- und Speichersysteme dann an „Nahrung“ bekamen, waren simulierte Daten und solche von kosmischen Partikeln, die sich in die teuren Messzellen verirrten. Der Ring selber taumelte von einem Problem zum nächsten. Seine wichtigsten Bestandteile, die Magnete, wiesen einen Konstruktionsfehler auf und bedurften der Nachbesserung. Dann trat ein Fehler bei den Dehnungsfugen auf. Sie federn die Längenänderungen ab, wenn sich das Material beim Abkühlen zusammenzieht – im Innern liegt die Temperatur nahe dem absoluten Nullpunkt. Schließlich fand man Konstruktionsfehler bei den Quadropolmagneten, die den Strahl kurz vor den Kollisionspunkten bündeln. Als alles bereit war, hatte man viel Zeit und Geld verloren.

An den Detektoren filtern Chips die jeweils 100 Millionen Datenkanäle von ATLAS und ALICE. Daten, die die nächste Auswahl nach ersten Analysen durch spezielle Rechner passiert haben, landen zur weiteren Verarbeitung auf dem großen Cluster des RZs und anschließend als Kopie im Grid.

Umso wichtiger war die pompöse Eröffnung mit viel Prominenz: Am 10. September 2008 umrundete ein Protonenpaket zum ersten Mal den gesamten Ring. Lange Gesichter dann neun Tage später: Eine Explosion beschädigte den 2,5 Milliarden teuren Ring stark; der LHC schien kurz vor dem Aus. Zwar hatte man die Energie im Ring langsam erhöht, doch wohl nicht langsam genug. Eine schlechte elektrische Verbindung erhitzte sich durch die elektrischen Ströme so stark, dass das Metall des Magneten schmolz. Das flüssige Helium, das die Magnete auf supraleitfähige Temperatur hält, trat mit einer gewaltigen Explosion aus. Sie beschädigte mehrere Magnete und riss eine ganze Sektion aus der Verankerung. Es folgte eine neue Zwangspause von über einem Jahr. Nach dieser Pannenserie musste ein Erfolg her, vielleicht deshalb das gigantische Medienecho nach dem 30. März mit teilweise haarsträubenden Fehlinformationen.

Für die IT bedeuteten die Verzögerungen ein deutlich entspannteres Arbeiten, denn ein Probebetrieb ist eben etwas anders als der Ernstfall, bei dem jede Kollision den Nobelpreis bedeuten kann. Hierin liegt die eigentliche Herausforderung: Erst nach sorgfältigen Berechnungen lassen sich die Ereignisse bewerten. Die Sensoren liefern nur einen winzigen Ausschnitt. Die Physiker müssen Art und Energie jedes der entstandenen Teilchen erst rekonstruieren. Zudem sind die Ergebnisse, vor allem bei bahnbrechende Entdeckungen, in Fachkreisen nicht unumstritten. Darum werfen die Physiker nichts weg. Das Prinzip lautet: Alles, was vom Instrument kommt, wird im CERN aufbewahrt und zugleich weitergeleitet.

Als schnelle Speicher im hauseigenen Rechenzentrum dienen NAS-Server, deren JBODs 14 PByte auf 60 000 Disks fassen. Dahinter stellen Bandbibliotheken mit insgesamt 150 Laufwerken der Firmen IBM und Storagetek-Sun-Oracle 48 PByte Langzeitspeicher auf mehreren Zigtausend Tapes bereit. Eine geringere Haltbarkeit weist der Linux-Cluster auf, der die Daten aufbereitet. Dass hier alle drei Jahre sämtliche Knoten ausgetauscht werden, führte dazu, dass vom Cluster des Jahres 2006, unmittelbar vor dem geplanten Start, heute nichts mehr vorhanden ist. Die 5000 Server-Tower mit je zwei Single-Core-Xeons sind 6900 Mehrkern-Systemen mit insgesamt 41 000 Cores gewichen. Der IT kommt entgegen, dass sich die Aufgaben leicht parallelisieren lassen.

Gern würde sie einige Rechner mehr ordern, doch wie so oft spielt die Kühlung nicht mit – das RZ stammt aus Mainframe-Tagen. Von den fünf verfügbaren Megawatt wandern drei in die Rechner und zwei in die Kühlung. Zudem verbietet es das massiv gedeckelte Budget des CERN, alle Daten redundant im eigenen Hause zu speichern geschweige denn zu analysieren. Deshalb hatte man schon früh entschieden, die Last zu verteilen – im LHC Computing Grid, kurz LCG, in dem die CERN-eigenen Rechen- und Speicherressourcen die Stufe 0 oder Tier 0 binden.

Über eigene 10-GBit-Leitungen zum europäischen EGEE (Enabling Grids for E-sciencE) fließen Kopien ins weltweite Speicher- und Rechen-Grid, in dem die eigentlichen Analysen stattfinden. Erste Stationen sind zwölf über den Erdball verstreuten Rechenzentren mit großen Storage-Systemen und Clustern mit mehreren Tausend CPUs (Tier 1) – in Deutschland das Forschungszentrum Karlsruhe. Danach wandern die Bits zu den über hundert Rechenzentren nationaler Institute und Universitäten (Tier 2) und schließlich zu den Arbeitsgruppen (Tier 3) und Anwendern (Tier 4). Ab Mai wird das Eurogrid in Amsterdam die Organisation übernehmen. Zusätzliche Rechenressourcen stellt das Heimanwender-Grid lhc@home bereit.

Wer einen Blick vom Originalring erhaschen will, wird enttäuscht. Das Besucherzentrum des CERN steht zwar jedem offen, nach „unten“ dürfen nur die Servicetechniker. Trotzdem kann man sich die Magnete ganz von Nahem anschauen – das Deutsche Museum in München besitzt ein Original.

ist freier Journalist. (sun)