AMD-Entwickler beschreiben CPU-GPU-Kombi für Supercomputer

AMD forscht mit an Chips für künftige Exascale-Supercomputer und hat einen Exascale Heterogeneous Processor simuliert, der CPU- mit GPU-Chips kombiniert, auf denen HBM-Speicherstapel sitzen.

In Pocket speichern vorlesen Druckansicht 74 Kommentare lesen
AMD Exascale Heterogeneous Processor (EHP)

AMD kombiniert auf dem Exascale Heterogeneous Processor (EHP) CPU-"Chiplets" mit GPU-Chiplets, auf denen HBM-Speicherstapel sitzen.

(Bild: AMD)

Lesezeit: 3 Min.

Forscher von AMD und der Uni Wisconsin-Madison stellten auf der Konferenz HPCA 2017 Simulationen zu einem Exascale Heterogeneous Processor (EHP) vor, der zahlreiche Chips und Chip-Stacks vereint. Damit erforschen sie potenzielle Komponenten für kommende Exascale-Supercomputer. Die sollen dereinst mit Rechenleistungen im Exaflops-Bereich unter anderem der Simulation von Atomwaffen dienen. Seit mehrern Jahren fördert das US-Department of Energy (DoE) beziehungsweise die DARPA deshalb die Entwicklung solcher Baugruppen, damit in den USA zwischen 2022 und 2025 die ersten Exascale-Systeme in Betrieb gehen können.

In ihrem Paper geht das AMD-Forscherteam davon aus, dass solche Exascale-Systeme aus rund 100.000 Cluster-Knoten bestehen werden, die untereinander mit leistungsfähigen Interconnects verbunden sind, aber zusammen nicht viel mehr als 20 Megawatt Leistung unter Last benötigen. Das bedeutet, dass ein einzelner Knoten rund 10 Teraflops (TFlops) aus weniger als 200 Watt schöpfen muss. Letztlich geht es also um möglichst effiziente Rechenleistung.

AMD EHP und die Exascale Node Architecture (ENA)

(Bild: AMD)

Bei Supercomputern beziehungsweise beim High-Performance Computing (HPC) besteht das Problem, dass der Transport von Daten oft mehr Energie schluckt als die eigentliche Verarbeitung dieser Daten. Das gibt neuartigen RAM-Bauformen wie High-Bandwidth Memory (HBM, HBM2), Hybrid Memory Cube (HMC) und anderen Stacking-Techniken für extrem enge Kopplung von Rechenwerken und Speicher Auftrieb. Auch Konzepte, bei denen "intelligentes RAM" einfache Berechnungen selbst ausführt (Micron Automata), oder "The Machine" von HPE berücksichtigen solche Gedanken.

Beim Exascale Heterogeneous Processor (EHP) setzt AMD einerseits auf HBM(2) und die damit verbundene Interposer-Bauform, die extrem breite Datenbusse zwischen CPU-, GPU- und DRAM-Chips ermöglicht. Andererseits spielen die Heterogeneous System Architecture (HSA) und die Radeon Open Compute Platform (ROCm) wichtige Rollen.

Das HPCA-2017-Paper berücksichtigt auch die nötige Zuverlässigkeit bei Datenverarbeitung und Datenübertragung etwa durch Error Correction Code (ECC). Und Near-Threshold Computing mit sehr geringer Schaltspannung senkt zwar den Energiebedarf pro Rechenoperation, steigert aber die Wahrscheinlichkeit von Fehlern.

Das DoE hat für die Exascale-Entwicklung die Förderprogramme Fast Forward und Fast Forward 2 aufgelegt, aus denen außer AMD etwa auch Intel und Nvidia Mittel bezogen haben. AMD-CTO Mark Papermaster hatte in diesem Bezug schon 2014 angekündigt, dass AMD-APUs unter anderem dank HSA bis 2020 um den Faktor 25 effizienter werden sollen (25x20), bezogen auf Technik aus dem Jahr 2008. AMD plant auch Opteron-APUs mit Zen-Technik für Server, angeblich soll "Snowy Owl" 16 Zen-Kerne und eine Vega-GPU vereinen.

Vergleicht man die Linpack-Effizienz der effizientesten Top500- beziehungsweise Green500-Supercomputer, ergibt sich von November 2007 bis November 2016 der Faktor 26 (9462,1 statt 357,23 MFlops/Watt). (ciw)