Jupiter wird erster deutscher Exaflops-Supercomputer

Das FZ Jülich erklärt, wie Jupiter 2024 den EU-Prozessor Rhea1, US-Technik von Nvidia und britische ARM-Rechenkerne kombiniert.

In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
Der Exaflops-Superrechner Jupiter am FZ Jülich

Der Exaflops-Superrechner Jupiter am FZ Jülich

(Bild: Nvidia/Eviden)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Schon im Sommer 2022 wurde das FZ Jülich als Standort des ersten europäischen Exascale-Supercomputers „Jupiter“ ausgewählt. Doch erst vor wenigen Tagen verkündeten die Vertragspartner anlässlich der Fachkonferenz Supercomputing SC23, wie Jupiter im Detail aufgebaut sein wird.

Jupiter wird ab 2024 bestückt und besteht aus zwei Teilen: Jupiter Booster und Jupiter Cluster. Letzterer besteht aus über 1300 Knoten, in denen jeweils der europäische ARM-Prozessor SiPearl Rhea1 steckt.

Der Cluster soll zwar nur rund 5 Petaflops (PFlops) Gleitkomma-Rechenleistung (FP64) im Linpack liefern. Die Rhea1-Knoten bieten dank HBM2e-RAM allerdings sehr hohe Datentransferraten beim Speicherzugriff; zusätzlich sind jeweils 512 GByte DDR5-Speicher vorhanden. Jeder Clusterknoten ist per Infiniband mit 200 Gbit/s ins System eingebunden.

Vierfachmodul Nvidia Quad GH200 mit je vier Grace- und Hopper-Chips, die untereinander vernetzt sind.

(Bild: Nvidia)

In Jupiter Booster liefern rund 6000 Knoten mit je vier Nvidia Grace Hopper GH200 zusammen etwa 1 FP64-EFlops. Für KI-Algorithmen, die mit lediglich 8 Bit Genauigkeit auskommen, stehen sogar bis zu 93 EFlops bereit – und gigantische 2,3 Petabyte superschneller HBM3-Speicher.

In Jupiter kommen die neuen Vierfachmodule Quad GH200 von Nvidia zum Einsatz. Jeder H100-Chip (Hopper) steuert dabei 96 GByte HBM3-RAM mit bis zu 4 TByte/s an. Für die 72 ARM-Kerne jedes Grace-Chips stehen 120 GByte LPDDR5X-RAM mit bis zu 500 GByte/s bereit. Diesen Speicher können die H100-GPUs ebenfalls nutzen.

Jupiter Booster soll maximal 18,2 Megawatt (MW) elektrische Leistung aufnehmen.

Blockschaltbild eines Nvidia Quad GH200

(Bild: FZ Jülich)

Die Grace- und Hopper-Chips sind miteinander jeweils per NVLink-C2C (Chip-to-Chip) mit 450 GByte/s pro Richtung verbunden. Die vier Hopper-Chips auf einem Quad GH200 sind wiederum per NVLink Gen 4 mit 150 GByte/s pro Richtung verknüpft. Und ein Quad GH200 hat vier Infiniband-Ports mit je 200 Gbit/s.

Sowohl die Rhea1- als auch die Grace-Chips haben ARM-Neoverse-Kerne mit SVE-Vektorerweiterungen. Bei Rhea1 handelt es sich allerdings noch um Neoverse V1 (ARMv8), bei Grace schon um V2 (ARMv9). Auf x86-Prozessoren von AMD oder Intel verzichtet Jupiter komplett.

Der Booster- und der Cluster-Teil von Jupiter stecken in Systemen vom Typ BullSequana XH3000 der französischen Firma Eviden/Atos. Die Kühlung erfolgt mit Warmwasser.

Jupiter wird zudem mit 21 Petabyte schnellem Massenspeicher bestückt, dabei kommen 40 IBM Elastic Storage Server 3500 mit NVMe-SSDs zum Einsatz. Sie sollen zusammen Datentransferraten von bis zu 4 TByte/s beim Lesen und 3 TByte/s beim Schreiben bereitstellen.

JUPITER steht für „Joint Undertaking Pioneer for Innovative and Transformative Exascale Research“; dafür entsteht am FZ Jülich ein neues Gebäude. Jupiter wird im Rahmen der europäischen Supercomputing-Initiative EuroHPC Joint Undertakting (JU) beschafft und soll insgesamt rund 500 Millionen Euro kosten. Die Hälfte davon teilen sich das Bundesministerium für Bildung und Forschung (BMBF) und das Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen (MKW NRW).

(ciw)