Herren der Ringe

Higgs und Susy, dunkle Energie und dunkle Materie, Bottom- und Top-Quarks, Quark-Gluon-Plasma, Antimaterie, schwarze Löcher und der Mini-Big-Bang – seit der Large Hadron Collider in Genf seinen Betrieb aufgenommen hat, sind diese Begriffe in aller Munde. Gigantisch wie die Detektoren ist auch der IT-Aufwand, der für die Auswertung der Daten nötig ist.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 15 Min.
Von
  • Andreas Stiller
Inhaltsverzeichnis

Der „Herr der Ringe“, der französische CERN-Generaldirektor Robert Aymar, hatte alles auf eine Karte gesetzt, damit möglichst noch in seiner Amtszeit der Large Hadron Collider in Betrieb gehen kann, bevor er die Geschäfte an seinen Nachfolger, den deutschen DESY-Physiker Rolf-Dieter Heuer, übergibt. Und der Start am 10. September verlief sogar besser, als viele Optimisten gehofft hatten. Segment für Segment wurden die insgesamt acht Absorberblöcke aus dem Protonenweg entfernt und dann nach knapp einer Stunde, genau um 10.26 Uhr, zirkelten die Protonen im ganzen Ring, der mit seinen 26 659 Metern Umfang mit leichter Steigung zwischen 60 und 175 Metern unter der Erde zwischen Genfer See und Französischer Jura eingegraben ist. Mehrmals überqueren sie bei ihrer Rundreise die schweizerisch-französische Grenze – gut, dass ab November auch in der Schweiz das Schengener Abkommen gilt, sodass die Protonen dann nicht jedes Mal ihre Ausweise vorzeigen müssen …

Nur wenige Stunden später war dann auch der zweite Ring in Betrieb, auf dem die Protonen in Gegenrichtung ebenfalls mit nahezu Lichtgeschwindigkeit fliegen. Zunächst testet CERN allerdings bei vergleichsweise harmlosen Energien von 450 GeV sowie niedrigen Intensitäten von etwa einer Milliarde Protonen pro Bündel. So kann der Strahl noch nicht allzu viel Unheil anrichten, wenn mal was daneben geht. Trotzdem ließen einige Projekte vorsichtshalber ihre inneren Detektoren erst einmal abgeschaltet.

Später im Jahr sind dann Energien von 5 TeV sowie höhere Intensitäten vorgesehen. Auf die volle Leistung von 7 TeV soll erst nach der Winterpause aufgedreht werden, wenn die Magneten entsprechend trainiert sind. Und die Größe der Protonenbündel soll im Lauf der Zeit mehr als verhundertfacht werden.

Bei 7 TeV liegt die Geschwindigkeit gerade mal 3 m/s unter der Lichtgeschwindigkeit, selbst bei den aktuellen 450 GeV liegt sie nur 650 m/s darunter. Der überwiegende Teil der zugefügten Energie wird dann in eine Erhöhung der Masse umgesetzt, bei 7 TeV beträgt die Protonenmasse schon das 7460fache der Ruhemasse – dementsprechend stark ist der „Wumms“ beim Zusammenstoß.

Beim LHC-Start wurde auch erst einmal nur ein einziges Bündel aus dem Vorbeschleuniger SPS (Super Proton Synchrotron) eingeschossen, das kreiste dann ein paar Runden und wurde gleich wieder entsorgt. Der Protonenfriedhof ist ein gut gekühlter Block aus Graphitplatten von 8 Metern Länge, an dem der Strahl ein paar hundert Meter vom Ring entfernt seine Energie abgibt. Und dieser Block muss einiges aushalten, denn später, wenn die Protonen mit voller Energie von 7 TeV mit 115 Milliarden Protonen pro Bündel und mit 2808 Bündeln pro Strahl im Ring kreisen, besitzt ein Strahl eine Gesamtenergie von rund 360 MJ, das entspricht etwa einem 400 Tonnen schweren TGV bei 150 km/h.

Auf ihrem Rundweg werden die Protonenbündel durch Hochfrequenz-Hohlraumresonatoren mit 200 und 400 MHz geschickt, die sie stabilisieren – etwa Schwingungen nach dem Einschuss dämpfen – und in Phase bringen sollen. Die supraleitenden 400-MHz-Resonatoren mit Summenspannungen von 16 MV können den „eingefangenen“ Bündeln außerdem einen Impuls mitgeben, sie also beschleunigen. Erst einmal aber will man sie nur auf Bahn halten und über die HF-Anlage die unvermeidlichen Verluste durch Synchrotronstrahlung ausgleichen. Diese Strahlungsverluste sind bei den schweren Protonen allerdings deutlich kleiner als bei den früher hier im Tunnel kursierenden Elektronen (die Strahlung ist proportional zu 1/m4). Lediglich etwa 2,6 MeV pro Umdrehung beziehungsweise 2,5 KWatt pro Strahl (bei voller Leistung) wird als Gammastrahlung ausgesendet. Dennoch, im Tunnel sollte man sich während des Betriebes nicht aufhalten. An der Oberfläche bleibt die gesamte LHC-Strahlung mit 10 µSv/Jahr auf einem 240stel der hierzulande üblichen Umgebungsstrahlung und damit weit unter den Grenzwerten – da strahlt in Hannover so manch verseuchter Kinderspielplatz erheblich mehr, der auf 10 µSv nicht pro Jahr, sondern pro Stunde kommt.

Um die Teilchen auf der Bahn zu halten, sind nahezu 10 000 supraleitende Magnete nötig, deren Arbeitstemperatur bei nur 1,9 bis 4 K liegt. 7600 Kilometer wertvolle supraleitende Niob-Titan-Litze wurde dafür benötigt, zumeist bestehend aus 32 Adern mit jeweils 6400 Fasern. Würde man die einzelnen Fasern zusammenkleben, käme man damit über fünfmal zur Sonne und zurück. Dieser Riesenaufwand ist der Nachteil der Ringbeschleuniger vor den konkurrierenden Linearbeschleunigern. 120 Tonnen superflüssiges Helium müssen die Anlage kühlen. Dieses superfluide Helium hat allerdings zwei sehr angenehme Eigenschaften: man kann es nahezu reibungslos durch die Röhren schicken und es hat eine ungeheure Wärmeleitfähigkeit, über tausendmal besser als Kupfer.

Hat man die Protonenbündel per Magnete und Hochfrequenz-Anlage gut im Griff, können die Protonen stundenlang im Ring kreisen. Dann kann man darangehen, die ersten Kollisionen vorzunehmen – das dürfte sich wegen einer Panne am Kühlsystem aber erst einmal um ein, zwei Monate verzögern. An vier Punkten im Ring sind Kollisionen vorgesehen für die vier großen Experimente: ATLAS, CMS, ALICE und LHCb. Kurz vor dem Kollisionspunkt wird der Strahl auf nur 16 µm Durchmesser oder gar kleiner konzentriert. Die Bündellänge bei Vollenergie beträgt nur etwa 30 Zentimeter und die HF-Synchronisierung hat dafür zu sorgen, dass sich die beiden Protonenbündel der gegenläufigen Strahlen auch möglichst genau in der Mitte der Detektoren treffen, maximal in einem Kollisionsbereich von vielleicht 20 Zentimetern. Die Synchronisation wird zusätzlich dadurch verkompliziert, dass nach 72 Protonenbündeln eine kleinere Pause und zwischendurch auch noch längere Pausen eingelegt werden, als Zeitschlitze für die schnellen „Kicker-Magneten“, beim Einschießen und Entsorgen.

Vor CERNs Mediencenter Globe kann man ein 15 Meter langes und 35 Tonnen schweres Dipol-Element bewundern, von dem 1232 in dem 27 Kilometer langen Tunnel verlegt sind.

Rund 20 Kollisionen sind bei dieser Fokussierung und bei voller Intensität pro Bündelpaar zu erwarten, das macht dann an jedem der vier Treffpunkte 630 Millionen Kollisionen pro Sekunde. Bei jeder Protonen-Kollision rechnet man zudem mit 50 bis 70 Sekundärteilchen, also 40 Milliarden Teilchen pro Sekunde – und das Ganze dann noch mal vier.

Aber so weit ist man noch nicht: Die Trefferquote nimmt mit dem Produkt der Protonenanzahl in den beteiligten beiden Bündeln ab. Bei der schwachen Startintensität reduziert sich diese Kollisionsquote daher auf zunächst nur 63 000/s.

In der Beschleunigerphysik verwendet man statt der Trefferquote lieber den Begriff der Luminosität, das ist die Trefferanzahl geteilt durch den Wirkungsquerschnitt. Das LHC soll im Vollbetrieb etwa eine 100-fach höhere Luminosität als der größte aktuelle Beschleuniger Tevatron des FermiLabs in den USA aufweisen. Im ersten Betriebsjahr soll sie etwa fünfmal höher sein.

Im Laufe der Zeit reduzieren die Kollisionen jedoch in größerem Umfang die Zahl der im Ring kreisenden Protonen und somit die Luminosität, sodass alle paar Stunden der Strahl entsorgt und neu aufgebaut wird.

Zunächst wird man nun versuchen, die Top-Quarks (tt¯) nachzuweisen, welche das FermiLab im Beschleuniger Tevatron vor 13 Jahren gefunden hat oder zu haben glaubt. Nun kann CERN feststellen, ob die Amerikaner auch richtig gemessen haben und die Ergebnisse dienen dann zur Kalibrierung der Anlage.

Gut 120 MW verbraucht der LHC-Ring im Vollbetrieb, CERN insgesamt schluckt gar 230 MW – so viel wie ansonsten der ganze Kanton Genf. Ein spezieller Vertrag mit dem französischen Energiekonzern EDF sichert die Versorgung, er beinhaltet aber auch, dass im Winter der Ring zwei Monate abgeschaltet werden muss.

Vier große Detektorsysteme sind an den vier Kollisionspunkten (einer in der Schweiz, drei in Frankreich) aufgebaut. Das Gewichtigste ist mit 12 500 Tonnen Gewicht CMS: Compact Muon Solenoid. Hier ist mehr Eisen verbaut als im Eiffelturm, Eisen das man braucht, um die starken Magneten von 4 Tesla aufzubauen. Noch etwas voluminöser (46 m x 25 m x 25 m), wenn auch mit 7000 Tonnen nicht ganz so schwer ist ATLAS (A Toroidal LHC ApparatuS). Beide Systeme verwenden riesige Mengen von Detektoren und Kalorimetern, mit denen sie die Bahnen diverser Teilchenarten (Photonen, Elektronen, Positronen, Neutronen, Myons, Pions …) präzise verfolgen können. Primäres Ziel von beiden ist es, das Higgs-Boson sowie mögliche supersymmetrische Teilchen (Susy) aufzuspüren. Auf dem Higgs-Teilchen baut das ganze Standardmodell der Physik auf. Es wurde schon 1966 vom schottischen Physiker Peter Higgs vorhergesagt, entzog sich aber bislang der „Manifestierung“. Ohne das Higgs-Teilchen hätten die anderen Elementarteilchen keine Masse, das zeigt, wie wichtig es für die Physiker ist.

Der ATLAS-Detektor mit seinen acht riesigen Spulen (hier noch im Bau). Weiter außen schließen sich noch große Flügel mit Myon-Detektoren an, sodass er auf eine Länge von 46 Metern kommt.

Nach der Theorie lebt es aber noch weit kürzer als das Top-Quark-Teilchen, das in nur 10–31 Sekunden zerfällt. Je nach Masse errechnete man etwa 10–43 bis 10–46 Sekunden, man kann es also nur indirekt durch Folgezerfälle detektieren. Diese Ereignisse sind außerordentlich selten, man braucht also eine hohe Kollisionsrate (Luminosität), um genügend statistisch relevantes Material für den Nachweis anzusammeln. Da es der LHC-Vorgänger LEP trotz jahrelanger Suche nicht gefunden hat, geht man von einer Masse größer als 115 GeV/c2 aus. Die obere Schranke beträgt 219 GeV/c2. Je nach Masse wird man es leicht oder nur recht mühselig finden. Mit der angestrebten Luminosität müsste man es aber eigentlich aufspüren, sonst steht es schlecht um das Standardmodell bestellt.

Susy ist demgegenüber weit hypothetischer, es entstammt einer noch nicht so gefestigten Theorie, die versucht, dunkle Energie und dunkle Materie zu erklären. Seit der genauen Vermessung der kosmischen Hintergrundstrahlung ist die Existenz dieser „dunklen“ Mächte, die sich der hiesigen Physik bislang entzogen haben, gesellschaftsfähig geworden, nicht zuletzt durch einige Nobelpreise.

Und dann gibt es natürlich noch die inzwischen viel zitierten schwarzen Löcher. Die CERN-Physiker haben keine Angst davor, im Gegenteil: Sie hoffen, dass sie welche finden. Bei ATLAS rechnet man mit einer Produktionsrate von vielleicht acht am Tag mit Energien von mehr als 3 TeV. Ob man sie je wird nachweisen können, bleibt jedoch fraglich. Bei den vom LHC erreichbaren Energien kommt man nach gängiger Theorie auf unvorstellbare kurze Lebensdauern dieser Löcherchen von 10–85 s. Mit sehr optimistisch abgeschätzten multidimensionalen Stringtheorien könnte man auf deutlich längere Lebensdauern kommen, bestenfalls aber auch nur 10–26 s.

Das Problem einer neutralen Begutachtung ist nur, dass, wie der Physiker Dr. Lübbert vom Wissenschaftsdienst des Deutschen Bundestages in seiner Studie [1] ausführt, es weltweit keinen kompetenten Wissenschaftler von Rang gibt, der nicht unmittelbar oder mittelbar mit dem LHC-Projekt oder den an den Experimenten mitarbeitenden 7000 Wissenschaftlern verknüpft ist. Die von Kritikern angerufenen Gerichte hat aber bereits die Tatsache überzeugt, dass die weitaus stärkere kosmische Strahlung bislang keine die Erde auffressenden schwarzen Löcher produziert hat oder wenn doch, dann nur solche mit sehr geringer Auffressrate.

Professor Dr. Lindenstruth der Uni Heidelberg präsentiert ein Board für ALICE mit den Trap2-RISC-Prozessoren.

Was man im LHC aber auf jeden Fall erzeugt, ist – das wird Dan-Brown-Fans erfreuen – jede Menge Antimaterie. Na ja, so viel ist es nun auch wieder nicht, denn es wird pro Jahr gerade mal ein Mikrogramm an Wasserstoff für die Protonen verbraucht, von denen nur ein kleiner Teil in Antimaterie zerlegt wird. Das LHCb-Experiment – mit 50 Millionen Euro Budget das kleinste der vier großen – zielt genau auf diesen Teil ab. Es will die Produktion von Beauty-Quarks (auch Bottom-Quarks genannt) und Anti-Beauty-Quarks sehr präzise vermessen, um mögliche Asymmetrien festzustellen. Nach aktueller Urknalltheorie muss es irgendwann kurz nach dem Big Bang zu einer winzigen Asymmetrie gekommen sein, wo sich die Materie gegenüber der Antimaterie durchsetzen konnte. LHCb ist also gegenüber den anderen Entdecker-Experimenten eher ein Mess-Experiment.

20 Kollisionen alle 25 ns kann LHCb dabei aber gar nicht mit der gewünschten Präzision verarbeiten. Man fährt hier die Luminosität daher herunter, sodass nur etwa eine Kollision pro Strahlkreuzung entsteht. Rund 6000 Xeon-Quad-Core-Kerne sind am LHCb-Standort derzeit schon lokal am Ackern, bis Jahresende sollen es 16 000 sein – damit könnte man wohl in die nächste Top500-Liste der Supercomputer kommen.

Einen Monat im Jahr kreisen im LHC-Ring gar keine Protonen, sondern Bleikerne, ebenfalls mit annähernd Lichtgeschwindigkeit, und zwar mit 2,36 TeV pro Nukleon, das sind mithin 580 TeV pro Bleikern. Dann schlägt die Stunde des 10 000 Tonnen schweren ALICE-Detektors (A Large Ion Collision Experiment), wiewohl der Detektor auch bei den Protonenzusammenstößen etwas mitlauscht. Im Unterschied zu den Protonenkollision mit 50 bis 70 Bruchstücken erwartet man bei den schweren Ionen bis zu 50 000. Dementsprechend anders muss die Mess- und Auswerteinfrastruktur organisiert sein. Ziel von ALICE ist es, einen Zustand der „Ursuppe“ kurz nach dem Big Bang festzustellen, bei der Gluonen und Quarks frei nebeneinander schwimmen: das Quark-Gluon-Plasma.

Neben den vier großen Experimenten gibts noch ein paar kleinere Detektoren wie Totem und LHCf, die etwas weiter von den Kollisonspunkten entfernt aufgestellt sind und sich zumeist auf die strahlnahen Teilchen konzentrieren, die den großen Detektoren entwischen.

All diesen Experimenten ist gemeinsam, dass an den Detektoren weit mehr Daten anfallen, als verarbeitet werden können. Man muss also mit geeigneten Maßnahmen möglichst frühzeitig die interessanten Events herausfiltern. Hierfür wurde aufwendige, strahlengehärtete Hardware entwickelt, die zum Teil schon direkt an den Detektoren Daten überprüft und vieles verwirft. An der Uni Heidelberg wurde beispielsweise für das Preprocessing bei ALICE eigens ein RISC-Prozessor namens „Trap2“ entwickelt, von dem 17 000 Exemplare die Datenmassen analysieren, bevor PCs die weitere Filterung übernehmen. Bei ATLAS leitet die Level-1-Trigger-Hardware nur jedes 400ste Event an die zweite Stufe weiter, in der 500 PCs etwa 1 zu 30 sieben. Daran schließt sich eine zweite PC-Farm mit 1700 PCs an, die dafür sorgt, das letztlich nur 200 Events pro Sekunde zur weiteren Untersuchung über bleiben, also letztlich nur eins von 200 000 – und das sind immer noch 320 MByte/s, die ebenso wie die 220 MByte/s von CMS, 100 MByte/s von ALICE und 50 MByte/s von LHCb ins LHC-Grid zur Auswertung geschickt werden. Wie dieses Grid funktioniert, steht auf den folgenden Seiten.

[1] Daniel Lübbert, Das LHC-Projekt, Studie für den deutschen Bundestag

Mehr Infos

"Das Netz als Supercomputer"

Artikel zum Thema "Das Netz als Supercomputer" finden Sie in der c't 21/2008.

  • Das größte Physik-Experiment aller Zeiten – S. 128
  • Grid-, Cloud-, Cluster- und Meta-Computing – S. 132
  • Die Grid-Infrastruktur hinter dem LHC – S. 134
  • Verteiltes Rechnen zum Mitmachen mit BOINC & Co. – S. 140

(as)