Intels Xeon-Prozessoren dominieren den Server-Weltmarkt, wichtigste Typenfamilie ist der Xeon Scalable Performance (Xeon-SP). Er löste 2017 als Skylake-SP sowohl Xeon E5-2000 als auch E7-2000 ab. Nun kommt die zweite Generation Cascade Lake (CLX), erkennbar an der Ziffer "2" an der zweiten Stelle der Typennummern. Beispielsweise beerbt der 28-Kerner Xeon Platinum 8280 den 28-Kerner Xeon Platinum 8180. Der Neue kostet dasselbe, taktet aber etwas höher (2,7/4,0 statt 2,5/3,8 GHz), kann Optane DC Persistent Memory ansteuern und verarbeitet bestimmte KI-Algorithmen dank DL Boost deutlich schneller.
Anzeige
Als absolute Spitzenmodelle bringt Intel drei Spezialversionen mit mehr Kernen, die jeweils aus zwei Cascade-Lake-Dies auf einem gemeinsamen Träger bestehen: Xeon Platinum 9282 (56 Kerne/400 Watt), Platinum 9242 (48 Kerne/350 Watt) sowie Platinum 9222/9221 (je 32 Kerne/250 Watt). Diese Cascade Lake Advanced Performance (CLX-AP) für Supercomputer darf man wohl als Präventionsmaßnahme gegen den kommenden 64-Kerner AMD Epyc "Rome" verstehen. Sie passen aber nicht auf gängige Xeon-Mainboards, dazu unten mehr.
Gleiche Boards, mehr Speicher
Die "normalen" CLX-Xeons laufen nach BIOS-Updates auf bisherigen Mainboards mit LGA3647-Fassungen (Socket P) und Lewisburg-Chipsätzen (C621, C624 etc.). Daher bleibt die Anzahl der Speicherkanäle pro CPU gleich (6) und auch die Anzahl der PCI-Express-Lanes (48). Intel hat es auch nicht geschafft, von PCIe 3.0 auf PCIe 4.0 aufzurüsten: Das hat AMD bereits als Vorteil des kommenden Zen-2-Epyc "Rome" herausgestellt. Es gibt erste 100-GBit-Ethernet-Adapter mit PCIe 4.0, SSDs damit sind erst angekündigt.
Cascade-Lake-Flaggschiff für die Fassung LGA3647: Xeon Platinum 8280 mit 28 Kernen.
Die neuen Xeons steuern alternativ zu ein oder zwei DDR4-2666-Speichermodulen pro Kanal auch ein einzelnes DDR4-2933-DIMM an, was etwa 10 Prozent mehr Transferrate bringt. Die CLX-Xeons vertragen außerdem DDR4-Speichermodule mit den noch teuren und relativ seltenen 16-GBit-SDRAMs. Damit sind im Prinzip RDIMMs und LRDIMMs mit 256 GByte möglich, bisher ist mit 8-GBit-Chips bei 128 GByte pro Modul Schluss.
Im Prinzip sind 3 TByte RAM pro CPU-Fassung möglich, also 6 TByte für einen Dual-Socket-Server. Für großen Speicherausbau muss man aber teurere "M"- oder "L"-Versionen der Xeons kaufen, die es von insgesamt sieben Typen gibt: Platinum 8280/8276//8260/8253 und Gold 6240/6238/5215. Bei den bisherigen Skylake-Xeons beträgt der "M"-Aufpreis rund 3000 US-Dollar.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden.
Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden.
Mehr dazu in unserer
Datenschutzerklärung.
Anzeige
1 TByte RAM in Form von acht 128-GByte-Modulen kosten derzeit aber mindestens rund 16.000 Euro. Hier kommen die neuen Optane DC Persistent Memory Modules (DCPMMs) ins Spiel: Sie ermöglichen einerseits bis zu 9 TByte Speicher pro Dual-Socket-Server – 3 TByte RAM plus 6 TByte Optane-DCPMM – und sind andererseits deutlich billiger als RAM. Intel nennt noch keine Preise, man schätzt aber rund 4600 US-Dollar pro Terabyte.
Die Listenpreise der Cascade-Lake-Xeons für LGA3647-Boards reichen wie bei den Vorgängern von 203 bis 10.009 US-Dollar. Bei einigen Typen wie den 16-Kernern Xeon Gold 5218 und Xeon Silver 4216 bekommt man zum gleichen Preis nun vier Kerne mehr als bei Xeon Gold 5118/Silver 4116 (je 12 Kerne). Preise für die Xeon Platinum 9200 nennt Intel bisher nicht.
Optane-Vorteile
Optane-DCPMM ist zwar erheblich langsamer als "echtes" DDR4-RAM: Ein Speicherkanal mit DDR4-2933 schafft über 23 GByte/s, für Optane-DCPMM verspricht Intel im sequenziellen Idealfall bis zu 8,3 GByte/s beim Lesen und 2,13 GByte/s beim Schreiben. Im "Memory Mode" nutzt der Speicher-Controller das DRAM als Cache (Near Memory) für den Optane-Speicher (Far Memory). Das funktioniert ohne Anpassungen an Betriebssystem und Anwendungen und bietet Vorteile für Einsatzbereiche, die sehr viel RAM benötigen.
Im "Memory Mode" wissen Betriebssystem und Software nichts von den Besonderheiten des Optane-DCPMM.
(Bild: Intel)
Mehr Vorteile von Optane lassen sich im "App Direct Mode" nutzen, für den man Linux ab Kernel 4.2 benötigt (für Gerätetreiber ab 4.7) oder Windows Server 2016/2019 sowie angepasste Software. SAP hat die In-Memory-Datenbank Hana schon für Optane-DCPMM ausgelegt, weitere Projekte wie Redis sind in Arbeit, siehe pmem.io.
Patches
Die Cascade-Lake-Chips bringen erste Hardware-Patches gegen Spectre-Sicherheitslücken mit, sie sind etwa nicht mehr für Meltdown und L1TF anfällig. Beim Schutz gegen BTI muss weiter das Betriebssystem mitspielen und es stecken auch Patches im Microcode.
DL Boost
Deep Learning (DL) Boost ist zur Beschleunigung von KI-Inferencing gedacht, also für die Anwendung von KI-Algorithmen auf Daten. Manche davon lassen sich beschleunigen, wenn man auf Genauigkeit verzichtet, also mit 8-Bit-Integer-Werten (INT8) rechnet statt mit INT16 oder gar FP32.
Mit DL Boost ist unter anderem gemeint, dass die AVX-512-Einheiten von Cascade Lake eine größere Zahl von INT8-Werten parallel in einer Fused-Multiply-Add-(FMA)-Operation verarbeiten. Laut Intel beschleunigt DL Boost das vortrainierte Convolutional Neural Network (CNN) ResNet-50 um den Faktor 2,45 im Vergleich zu Skylake. Dabei kommt die für Intel-Prozessoren optimierte Version 1.1.3 des KI-Frameworks Caffe zum Einsatz.
Noch im laufenden Jahr sollen KI-Beschleuniger von Nervana kommen.
Doch auch die Xeon-Roadmap ist in Grundzügen bekannt: Die neue Plattform Whitley vermutlich mit der Fassung LGA4189 und acht Speicherkanälen nimmt zunächst "Cooper Lake"-Xeons auf und später dann die ersten 10-nm-Xeons "Ice Lake". Dann wird auch PCIe 4.0 erwartet.
Mehr Informationen und Details zum Xeon-SP der zweiten Generation werden Sie auf fünf Seiten in der c't 9/2019 finden.
Xeon Scalable Performance Gen 2 (Cascade Lake, CLX), Auswahl
Prozessor
Kerne
Takt / Turbo
Cache
TDP
Preis
Xeon Platinum 9282*
56
2,6 / 3,8 GHz
77 MByte
400 W
k.a.
Xeon Platinum 9242*
48
2,3 / 3,8 GHz
71,5 MByte
350 W
k.a.
Xeon Platinum 9222*
32
2,3 / 3,7 GHz
71,5 MByte
250 W
k.a.
Xeon Platinum 8280**
28
2,7 / 4,0 GHz
38,5 MByte
205 W
10.009 US-$
Xeon Platinum 8276**
28
2,2 / 4,0 GHz
38,5 MByte
165 W
8719 US-$
Xeon Platinum 8270
26
2,7 / 4,0 GHz
35,75 MByte
205 W
7405 US-$
Xeon Platinum 8268
24
2,9 / 3,9 GHz
35,75 MByte
205 W
6302 US-$
Xeon Platinum 8260**
24
2,4 / 3,9 GHz
35,75 MByte
165 W
4702 US-$
Xeon Gold 6252
24
2,1 / 3,7 GHz
35,75 MByte
150 W
3665 US-$
Xeon Gold 6248
20
2,5 / 3,9 GHz
27,5 MByte
150 W
3072 US-$
Xeon Gold 6230
20
2,1 / 3,9 GHz
27,5 MByte
125 W
1894 US-$
Xeon Gold 6254
18
3,1 / 4,0 GHz
24,75 MByte
200 W
3803 US-$
Xeon Gold 6240
18
2,6 / 3,9 GHz
24,75 MByte
150 W
2445 US-$
Xeon Gold 5220
18
2,2 / 3,9 GHz
24,75 MByte
125 W
1555 US-$
Xeon Platinum 8253**
16
2,2 / 3,0 GHz
35,75 MByte
165 W
3115 US-$
Xeon Gold 6242
16
2,8 / 3,9 GHz
22,0 MByte
150 W
2529 US-$
Xeon Gold 5218
18
2,3 / 3,9 GHz
24,75 MByte
125 W
1273 US-$
Xeon Gold 6226
12
2,8 / 3,7 GHz
19,25 MByte
125 W
1776 US-$
Xeon Gold 5215
10
2,5 / 3,4 GHz
16,5 MByte
85 W
1221 US-$
Xeon Gold 6234
8
3,3 / 4,0 GHz
24,75 MByte
130 W
2214 US-$
Xeon Gold 5217
8
3,0 / 3,7 GHz
16,5 MByte
115 W
1522 US-$
Xeon Gold 5222
4
3,8 / 3,9 GHz
16,5 MByte
105 W
1221 US-$
Xeon Silver 4216***
16
2,1 / 3,2 GHz
16,5 MByte
100 W
1002 US-$
Xeon Silver 4214***
12
2,2 / 3,2 GHz
16,5 MByte
85 W
694 US-$
Xeon Silver 4210***
10
2,2 / 3,2 GHz
13,75 MByte
85 W
501 US-$
Xeon Silver 4208***
8
2,1 / 3,2 GHz
11,0 MByte
85 W
417 US-$
Xeon Bronze 3204***
6
1,9 / 1,9 GHz
8,25 MByte
85 W
213 US-$
Xeon Bronze, Silver und einige Gold 5200 haben nur je 1 AVX-512-Einheit pro Kern
* Cascade Lake Advanced Performance (CLX-AP): Nur als Modul erhältlich
** Versionen für 2 und 4,5 TByte DDR4 lieferbar
*** kein Optane DC Persistent Memory möglich
Hinweis: Intel bezahlte Flug und Hotel für c't-Redakteur Christof Windeck.(ciw)