400 Gigabyte pro Sekunde: Supercomputer Summit simuliert Riesenteleskop SKA

Das größte Radioteleskop der Welt soll in Südafrika und Australien gebaut werden. Ob die Daten verarbeitet können, musste nun ein Supercomputer testen.

In Pocket speichern vorlesen Druckansicht 97 Kommentare lesen
400 Gigabyte pro Sekunde: Supercomputer Summit simuliert Riesenteleskop SKA

So sollen die Antennen in Südafrika aussehen

(Bild: SKA Organisation)

Lesezeit: 3 Min.

Um herauszufinden, ob die Daten des geplanten weltgrößten Radioteleskops überhaupt ausgewertet werden können, haben Forscher den schnellsten Supercomputer der Welt komplexe Daten simulieren und 400 Gigabyte pro Sekunde verarbeiten lassen. Summit, der Spitzenreiter der aktuellsten Top500-Liste der Supercomputer, schaffte diese Mammutaufgabe, wie die Forscher bekanntgaben.

Gleichzeitig habe der Testlauf aber gezeigt, dass man nach Vollendung des Square Kilometre Array (SKA) auf die höchsten Kapazitäten von Supercomputern wird zugreifen müssen, um die Daten auszuwerten, erklärte Andreas Wicenec vom International Centre for Radio Astronomy Research (ICRAR), das ihn durchführte.

Der geplante Teleskopverbund wird einmal die größte Wissenschaftseinrichtung der Erde sein. Die geplante Infrastruktur reicht über drei Kontinente auf der Nord- und Südhalbkugel. Hunderte Parabolspiegel und tausende Einzelantennen sollen den Planungen zufolge über hunderte Kilometer in Australien und Südafrika errichtet und zusammengeschaltet werden. Mit der deutlich besseren Auflösung soll nach Signalen gefahndet werden, die in der Anfangszeit des Universums ihren Ursprung haben, als sich die ersten Sterne und Galaxien gebildet haben. Außerdem soll einigen grundlegenden Fragen der Astrophysik etwa zur Relativitätstheorie, der Dunklen Materie, der Dunklen Energie und möglichem außerirdischen Leben nachgegangen werden.

Dass die Antennen eine gigantische Menge an Daten generieren und dabei auch die schnellsten Supercomputer ausreizen werden, war angesichts der Pläne bereits klar. Man habe aber nicht gewusst, ob es dann ausreicht, bereits eingesetzte Algorithmen zu verwenden und auf tausendfach größere Datenmengen anzusetzen, erklärt Wicenec nun. Deshalb sei der Test mit dem weltweit schnellsten Supercomputer Summit vom Oak Ridge National Laboratory (ORNL) der inzwischen auf 200 Petaflops kommt, nötig geworden. Der musste die gigantischen Datenmengen aber nicht nur auswerten, sondern auch erst einmal selbst simulieren, da die sich anders nicht bereitstellen ließen.

Der Supercomputer Summit

(Bild: Oak Ridge National Laboratory)

Wie die Forscher weiter erläutern, wird das Square Kilometre Array (SKA) – dessen Aufbau 2021 beginnen soll – schon in seiner ersten Arbeitsphase aus 130.000 Antennen bestehen. Die werden pro Sekunde etwa 550 Gigabyte an Daten liefern, die ausgewertet werden müssen – noch einmal deutlich mehr als nun in der Simulation.

Zum Vergleich: Am Teilchenbeschleuniger LHC (Large Hadron Collider) des CERN werden zwar rund ein Petabyte (1000 Terabtye) an Daten pro Sekunde generiert, weil die aber nicht verarbeitet werden können, wird die Datenmenge automatisch von Algorithmen drastisch reduziert und gesammelte Daten aussortiert. Im jüngsten zweiten Durchlauf liefen dann noch rund 35 Gigabyte pro Sekunde in die Rechenzentren. (mho)