40-Kern-Prozessoren: Intel bringt 10-Nanometer-Xeons für (Cloud-)Server

Intel weitet die eigene 10-nm-Palette aus: Statt nur mobile Vierkerner gibt es jetzt Server-CPUs mit bis zu 40 Rechenkernen.

In Pocket speichern vorlesen Druckansicht 39 Kommentare lesen

(Bild: c't)

Lesezeit: 7 Min.
Inhaltsverzeichnis

Die "Ice Lake"-Serverprozessoren der dritten Xeon-SP-Generation sind wohl Intels wichtigste CPU-Neuvorstellung seit vier Jahren: Endlich kommen mehr als 28 CPU-Kerne pro CPU-Fassung sowie PCI Express 4.0 für Rechenbeschleuniger und SSDs, gefertigt mit 10-Nanometer-Strukturen. Durch die langen Verzögerungen – 2017 hoffte Intel auf eine Ice-Lake-SP-Vorstellung schon 2019 – treffen die neuen Xeon-Typen nun jedoch auf starke Konkurrenz, vor allem den AMD Epyc 7003 "Milan" mit bis zu 64 Prozessorkernen, 128 PCIe-4.0-Lanes und bis zu 4 TByte RAM pro CPU-Fassung.

Hinter der maximalen Epyc-Kernzahl bleibt das Ice-Lake-SP-Spitzenmodell Xeon Platinum 8380 mit 40 CPU-Kernen deutlich zurück. Auch die höchste Turbo-Taktfrequenz von 3,7 GHz liegt niedriger als bei AMD (bis zu 4,1 GHz). In den Ice-Lake-Xeons stecken noch CPU-Kerne mit der älteren "Sunny Cove"-Mikroarchitektur, also nicht die jüngsten "Willow Cove"-Kerne, die aus den Tiger-Lake-Mobilprozessoren bekannt sind. Allerdings handelt es sich um die für Server ausgelegten Sunny-Cove-Kerne, die auch zwei AVX512-Operationen parallel ausführen können und nicht nur eine. Bei der Vorstellung der Sunny-Cove-Serverkerne auf der Hot Chips HC32 versprach Intel rund 18 Prozent mehr Rechenleistung pro Taktzylus als bei 14-Nanometer-Vorgängern wie Cascade Lake (Xeon Platinum 8280).

Trotz des Rückstands bei Kernanzahl und Taktfrequenz verspricht Intel, dass die neuen Xeons AMDs Epycs in manchen Benchmarks schlagen können. Das gilt vor allem für Software, die AVX512-Befehle oder spezielle KI-Optimierungen wie Deep Learning Boost (DL Boost) nutzt. Auch bei Sicherheitsfunktionen wie SGX und beim nichtflüchtigem Optane DC Persistent Memory mit hoher Kapazität sieht Intel die Xeons im Vorteil.

Im Benchmark-Vergleich zu AMDs Epyc 7003 ("Milan") fokussiert sich Intel auf AVX-512- und KI-Instruktionen.

(Bild: Intel)

Die neuen Ice-Lake-Xeons passen nur auf neue Mainboards mit der CPU-Fassung LGA4189, die rund 500 Kontaktfedern mehr hat als die ältere LGA3647-Fassung. Die zusätzlichen Anschlüsse benötigt Ice Lake-SP unter anderem für zwei Speicherkanäle mehr (8 statt 6 Kanäle, DDR4-3200) sowie mehr PCIe-4.0-Lanes (64 statt zuvor 48 mit PCIe 3.0). Beim Chipsatz (Lewisburg, C621) gibt es keine große Veränderung.

Mit acht RAM-Kanälen und jeweils ein oder zwei DIMMs (1DPC bzw. 2DPC) schließen Ice-Lake-Xeons bei Datentransferrate und maximalem RAM-Ausbau endlich zu den Epycs auf. Verbaut man pro Kanal je eines der mit bis zu 512 GByte erhältlichen Optane-NVDIMMs der zweiten Generation ein (Pmem 200 alias Barlow Pass), sind pro CPU-Fassung sogar 6 TByte Speicher möglich, also 12 TByte für einen typischen Dual-Socket-Server mit 32 DIMM-Fassungen.

Ice Lake-SP im Dual-Socket-Server (4 Bilder)

(Bild: c't)

Bei Ice Lake hat Intel endlich auch die meisten Spectre- und Meltdown-Lücken für Seitenkanalangriffe geschlossen. Außerdem kommt nun – wie beim Epyc – RAM-Verschlüsselung, allerdings wohl nur als transparente Komplettverschlüsselung (Total Memory Encryption, TME), die Daten etwa in den nichtflüchtigen Speichermodulen schützt. Wichtiger als Schutz gegen Seitenkanalattacken aus bösartigen virtuellen Maschinen (VMs) wäre eine separate Verschlüsselung des RAM-Adressbereichs jeder einzelnen VM, doch Multi-Key TME (MKTME) scheint noch nicht zu funktionieren – anders als bei AMDs Secure Encrypted Virtualization (SEV).

Durch Verschlüsselung geschützte RAM-Enklaven als Trusted Execution Environments (TEEs) für Confidential Computing auf Cloud-Servern lassen sich aber auch mit Intels Software Guard Extensions (SGX) einrichten und auch per Remote Attestation prüfen. SGX spielt etwa bei der elektronischen Patientenakte (ePA) eine Rolle; die Ice-Lake-Xeons bringen mit SGX 2.0 unter anderem größere Enklaven. Außerdem sollen Befehle zur AES-Verschlüsselung schneller laufen. Ein kleines Intel-MAX-10-FPGA auf jedem Xeon bindet Intel zum Schutz des BIOS-Codes ein (Platform Firmware Resilience, PFR).

Intel versieht das Topmodell Xeon Platinum 8380 mit einem Listenpreis von 8099 US-Dollar – fast ein Fünftel weniger als beim Vorgänger Xeon Platinum 8280. Noch stärker macht sich der Konkurrenzdruck durch AMD jedoch in der Mittelklasse bemerkbar. In den meisten Servern stecken nicht die jeweiligen Xeon- oder Epyc-Spitzenmodelle, sondern billigere Versionen mit weniger Kernen. Daher entscheidet sich der Kampf um Marktanteile eher in der Mittelklasse.

Dort bietet Intel beispielsweise den Xeon Platinum 8351N an: Der Prozessor kostet mit 3027 US-Dollar (Liste) zwei Drittel weniger als das 8380er-Modell und verzichtet dafür gerade einmal auf vier CPU-Kerne (36 vs. 40). Allerdings läuft der Prozessor nur auf Single-Socket-Mainboards – ein Markt, den AMD mit Epyc priorisiert –, zudem limitiert Intel die maximale Speicherkapazität für SGX-Enklaven auf 64 statt 512 GByte. Der All-Core-Turbo fällt beim 8351N mit 3,1 GHz minimal höher aus als beim 8380 mit 3,0 GHz.

In der Cascade-Lake-Generation bekam man für gut 3000 US-Dollar den 20-Kerner Xeon Gold 6248. AMD verkauft innerhalb der dritten Epyc-Generation (Milan) Server-Prozessoren von knapp 1000 bis 8000 US-Dollar. 64-Kerner sind ab rund 5000 US-Dollar Liste erhältlich. In der Preisklasse von 3000 US-Dollar verkauft AMD CPUs mit 32 Rechenkernen und viel L3-Cache, etwa den Epyc 7543P. Vorteil AMD: Alle Milan-Modelle stellen 128 PCIe-4.0-Lanes bereit, etwa für GPU-Beschleuniger oder Netzwerkchips.

Hier ist ein harter Preiskampf zu erwarten – auch wenn es bei gut ausgestatteten Servern angesichts der Preise von RAM, SSDs und Rechenbeschleunigern weniger auf den CPU-Preis ankommt, als mancher denkt. Außerdem müssen sich sowohl AMD als auch Intel gegen den Vormarsch der ARM-Serverprozessoren wappnen; Amazon AWS nutzt laut Marktforschern die hauseigenen Graviton(2)-Chips bereits erheblich und Ampere hat mit dem Altra Max einen 128-Kerner in den Startlöchern).

Wafer mit Ice-Lake-SP-CPUs.

(Bild: Intel)

Intel hat bereits die "Cooper Lake"-Prozessoren als dritte Xeon-SP-Generation auf dem Markt, was verwirrt. Diese kommen aber noch aus der 14-Nanometer-Fertigung und zielen auf Server mit vier, acht oder mehr Prozessorfassungen – auch wenn sie Facebook teils einzeln nutzt. Der Xeon Platinum 8380HL (Cooper Lake, 14 nm, 28 CPU-Kerne) zum Beispiel ist nicht mit dem Xeon Platinum 8380 (Ice Lake, 10 nm, 40 CPU-Kerne) zu verwechseln. Die Cooper-Lake-Xeons verarbeiten das KI-optimierte Datenformat BFloat16 (BF16), das Ice Lake wiederum nicht kennt.

Ende 2021 oder Anfang 2022 stehen bereits die Ice-Lake-Nachfolger Sapphire Rapids an; sie bringen mehrere tiefgreifende Veränderungen: nicht nur neue CPU-Kerne (allerdings weiterhin aus der 10-nm-Fertigung) mit Advanced Matrix Extensions (AMX) unter anderem für BFloat16, sondern auch DDR5-SDRAM mit höherer Datentransferrate und Kapazität sowie PCI Express 5.0 mit dem Cache-kohärenten Compute Express Link (CXL). Über letzteren will Intel Rechenbeschleuniger wie seinen gigantischen Ponte Vecchio anbinden. AMD kontert das unter anderem mit Infinity Fabric, mischt aber auch bei CXL mit.

Spezifikationen Intel Ice Lake-SP (mit Spezialtypen)
Prozessor Kerne Basistakt / max. Turbo All-Core-Turbo L3-Cache TDP Preis
Xeon Platinum
8380 40 2,3 / 3,4 GHz 3,0 GHz 60 MByte 270 W $8.099
8368 38 2,4 / 3,4 GHz 3,2 GHz 57 MByte 270 W $6.302
8368Q 38 2,6 / 3,7 GHz 3,3 GHz 57 MByte 270 W $6.743
8362 32 2,8 / 3,6 GHz 3,5 GHz 48 MByte 265 W $5.448
8360Y 36 2,4 / 3,5 GHz 3,1 GHz 54 MByte 250 W $4.702
8358 32 2,6 / 3,4 GHz 3,3 GHz 48 MByte 250 W $3.950
8358P 32 2,6 / 3,4 GHz 3,2 GHz 48 MByte 240 W $3.950
8352Y 32 2,2 / 3,4 GHz 2,8 GHz 48 MByte 205 W $3.450
8352S 32 2,2 / 3,4 GHz 2,8 GHz 48 MByte 205 W $4.046
8352V 36 2,1 / 3,5 GHz 2,5 GHz 54 MByte 195 W $3.450
8352M 32 2,3 / 3,5 GHz 2,8 GHz 48 MByte 185 W $3.864
8351N 36 2,4 / 3,5 GHz 3,1 GHz 54 MByte 225 W $3.027
Xeon Gold
6338 32 2,0 / 3,2 GHz 2,6 GHz 48 MByte 205 W $2.612
6338N 32 2,2 / 3,5 GHz 2,7 GHz 48 MByte 185 W $2.795
6338T 24 2,1 / 3,4 GHz 2,7 GHz 36 MByte 165 W $2.742
6354 18 3,0 / 3,6 GHz 3,6 GHz 39 MByte 205 W $2.445
6348 28 2,6 / 3,5 GHz 3,4 GHz 42 MByte 235 W $3.072
6346 16 3,1 / 3,6 GHz 3,6 GHz 36 MByte 205 W $2.300
6342 24 2,8 / 3,5 GHz 3,3 GHz 36 MByte 230 W $2.529
6336Y 24 2,4 / 3,6 GHz 3,0 GHz 36 MByte 185 W $1.977
6334 8 3,6 / 3,7 GHz 3,6 GHz 18 MByte 165 W $2.214
6330 28 2,0 / 3,1 GHz 2,6 GHz 42 MByte 205 W $1.894
6330N 28 2,2 / 3,4 GHz 2,6 GHz 42 MByte 165 W $2.029
6326 16 2,9 / 3,5 GHz 3,3 GHz 24 MByte 185 W $1.300
6314U 32 2,3 / 3,4 GHz 2,9 GHz 48 MByte 205 W $2.600
6312U 24 2,4 / 3,6 GHz 3,1 GHz 36 MByte 185 W $1.450
5320 26 2,2 / 3,4 GHz 2,8 GHz 39 MByte 185 W $1.555
5320T 20 2,3 / 3,5 GHz 2,9 GHz 30 MByte 150 W $1.727
5318Y 24 2,1 / 3,4 GHz 2,6 GHz 36 MByte 165 W $1.273
5318S 24 2,1 / 3,4 GHz 2,6 GHz 36 MByte 165 W $1.667
5318N 24 2,1 / 3,4 GHz 2,7 GHz 36 MByte 150 W $1.375
5317 12 3,0 / 3,6 GHz 3,4 GHz 18 MByte 150 W $950
5315Y 8 3,2 / 3,6 GHz 3,5 GHz 12 MByte 140 W $895
Xeon Silver
4316 20 2,3 / 3,4 GHz 2,8 GHz 30 MByte 150 W $1.002
4314 16 2,4 / 3,4 GHz 2,9 GHz 24 MByte 135 W $694
4310 12 2,1 / 3,3 GHz 2,7 GHz 18 MByte 120 W $501
4310T 10 2,3 / 3,4 GHz 2,9 GHz 15 MByte 105 W $555
4309Y 8 2,8 / 3,6 GHz 3,4 GHz 12 MByte 105 W $501

(mma)