Forschungsinstitut CERN: Selbst entwickelter Storage für riesige Datenmengen

Mit über 350 PByte Nutzdaten sind die Anforderungen an den Storage des CERN nichts für schwache Nerven. Das Rückgrat bildet die dortige Eigenentwicklung EOS.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: ©adobestock, ashyl1)

Lesezeit: 14 Min.
Von
  • Martin Gerhard Loschwitz
Inhaltsverzeichnis

Der LHC (Large Hadron Collider) des CERN mit seinen vier Experimenten Alice, ATLAS, CMS und LHCb zählt zu den bekanntesten Laboreinrichtungen der Welt. Hier gelang es 2012, das Higgs-Boson nachzuweisen. Schon mehrere Male war der LHC implizit Thema in der Redaktion.

Denn IT spielt im CERN eine große Rolle, und immer wieder entstehen dort Innovationen, die auch andernorts äußerst nützlich sind. Darüber hinaus betätigt sich das CERN als fleißiger Nutzer und Entwickler von Open-Source-Software.

Mehr zu Cloud-Diensten:

Gerade in der IT operiert das CERN in Dimensionen, die selbst hartgesottenen Admins Schweißperlen auf die Stirn treiben. Der LHC ist dafür ein hervorragendes Beispiel. In seinen aktiven Phasen produziert er etliche PByte pro Sekunde. Nach dem ersten Reduzieren und Aufarbeiten mit Spezialhardware filtern die Wissenschaftler die Daten der LHC-Experimente in einer verteilten OpenStack-Cloud weiter. Doch selbst im Anschluss daran bleiben im Schnitt zehn PByte pro Monat übrig, die zumindest kurzzeitig für spätere Auswertungen vorzuhalten sind. Zudem ist der LHC nicht das einzige Experiment am CERN: Insgesamt fallen dort jährlich 15 PByte Daten an, die langfristig zu speichern sind, um auch nach Jahren noch schnell im Zugriff zu liegen.