40-Kern-Prozessoren: Intel bringt 10-Nanometer-Xeons für (Cloud-)Server

Intel weitet die eigene 10-nm-Palette aus: Statt nur mobile Vierkerner gibt es jetzt Server-CPUs mit bis zu 40 Rechenkernen.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen

(Bild: c't)

Lesezeit: 7 Min.
Inhaltsverzeichnis

Die "Ice Lake"-Serverprozessoren der dritten Xeon-SP-Generation sind wohl Intels wichtigste CPU-Neuvorstellung seit vier Jahren: Endlich kommen mehr als 28 CPU-Kerne pro CPU-Fassung sowie PCI Express 4.0 für Rechenbeschleuniger und SSDs, gefertigt mit 10-Nanometer-Strukturen. Durch die langen Verzögerungen – 2017 hoffte Intel auf eine Ice-Lake-SP-Vorstellung schon 2019 – treffen die neuen Xeon-Typen nun jedoch auf starke Konkurrenz, vor allem den AMD Epyc 7003 "Milan" mit bis zu 64 Prozessorkernen, 128 PCIe-4.0-Lanes und bis zu 4 TByte RAM pro CPU-Fassung.

Hinter der maximalen Epyc-Kernzahl bleibt das Ice-Lake-SP-Spitzenmodell Xeon Platinum 8380 mit 40 CPU-Kernen deutlich zurück. Auch die höchste Turbo-Taktfrequenz von 3,7 GHz liegt niedriger als bei AMD (bis zu 4,1 GHz). In den Ice-Lake-Xeons stecken noch CPU-Kerne mit der älteren "Sunny Cove"-Mikroarchitektur, also nicht die jüngsten "Willow Cove"-Kerne, die aus den Tiger-Lake-Mobilprozessoren bekannt sind. Allerdings handelt es sich um die für Server ausgelegten Sunny-Cove-Kerne, die auch zwei AVX512-Operationen parallel ausführen können und nicht nur eine. Bei der Vorstellung der Sunny-Cove-Serverkerne auf der Hot Chips HC32 versprach Intel rund 18 Prozent mehr Rechenleistung pro Taktzylus als bei 14-Nanometer-Vorgängern wie Cascade Lake (Xeon Platinum 8280).

Trotz des Rückstands bei Kernanzahl und Taktfrequenz verspricht Intel, dass die neuen Xeons AMDs Epycs in manchen Benchmarks schlagen können. Das gilt vor allem für Software, die AVX512-Befehle oder spezielle KI-Optimierungen wie Deep Learning Boost (DL Boost) nutzt. Auch bei Sicherheitsfunktionen wie SGX und beim nichtflüchtigem Optane DC Persistent Memory mit hoher Kapazität sieht Intel die Xeons im Vorteil.

Im Benchmark-Vergleich zu AMDs Epyc 7003 ("Milan") fokussiert sich Intel auf AVX-512- und KI-Instruktionen.

(Bild: Intel)

Die neuen Ice-Lake-Xeons passen nur auf neue Mainboards mit der CPU-Fassung LGA4189, die rund 500 Kontaktfedern mehr hat als die ältere LGA3647-Fassung. Die zusätzlichen Anschlüsse benötigt Ice Lake-SP unter anderem für zwei Speicherkanäle mehr (8 statt 6 Kanäle, DDR4-3200) sowie mehr PCIe-4.0-Lanes (64 statt zuvor 48 mit PCIe 3.0). Beim Chipsatz (Lewisburg, C621) gibt es keine große Veränderung.

Mit acht RAM-Kanälen und jeweils ein oder zwei DIMMs (1DPC bzw. 2DPC) schließen Ice-Lake-Xeons bei Datentransferrate und maximalem RAM-Ausbau endlich zu den Epycs auf. Verbaut man pro Kanal je eines der mit bis zu 512 GByte erhältlichen Optane-NVDIMMs der zweiten Generation ein (Pmem 200 alias Barlow Pass), sind pro CPU-Fassung sogar 6 TByte Speicher möglich, also 12 TByte für einen typischen Dual-Socket-Server mit 32 DIMM-Fassungen.

Ice Lake-SP im Dual-Socket-Server (4 Bilder)

(Bild: c't)

Bei Ice Lake hat Intel endlich auch die meisten Spectre- und Meltdown-Lücken für Seitenkanalangriffe geschlossen. Außerdem kommt nun – wie beim Epyc – RAM-Verschlüsselung, allerdings wohl nur als transparente Komplettverschlüsselung (Total Memory Encryption, TME), die Daten etwa in den nichtflüchtigen Speichermodulen schützt. Wichtiger als Schutz gegen Seitenkanalattacken aus bösartigen virtuellen Maschinen (VMs) wäre eine separate Verschlüsselung des RAM-Adressbereichs jeder einzelnen VM, doch Multi-Key TME (MKTME) scheint noch nicht zu funktionieren – anders als bei AMDs Secure Encrypted Virtualization (SEV).

Durch Verschlüsselung geschützte RAM-Enklaven als Trusted Execution Environments (TEEs) für Confidential Computing auf Cloud-Servern lassen sich aber auch mit Intels Software Guard Extensions (SGX) einrichten und auch per Remote Attestation prüfen. SGX spielt etwa bei der elektronischen Patientenakte (ePA) eine Rolle; die Ice-Lake-Xeons bringen mit SGX 2.0 unter anderem größere Enklaven. Außerdem sollen Befehle zur AES-Verschlüsselung schneller laufen. Ein kleines Intel-MAX-10-FPGA auf jedem Xeon bindet Intel zum Schutz des BIOS-Codes ein (Platform Firmware Resilience, PFR).