Cascade Lake: Intel bringt neue Xeon-SP-Prozessoren mit bis zu 56 Kernen und 400 Watt TDP

Optane-Speicher, DL Boost für KI und ein 56-Kern-Bolide für Supercomputer sind große Neuerungen, für Allzweck-Server gibt es kleinere Verbesserungen.

In Pocket speichern vorlesen Druckansicht 94 Kommentare lesen
Intel bringt zweite Generation des Xeon-SP: Cascade Lake

Intel Xeon Platinum 8280 alias Xeon-SP Cascade Lake (CLX)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Intels Xeon-Prozessoren dominieren den Server-Weltmarkt, wichtigste Typenfamilie ist der Xeon Scalable Performance (Xeon-SP). Er löste 2017 als Skylake-SP sowohl Xeon E5-2000 als auch E7-2000 ab. Nun kommt die zweite Generation Cascade Lake (CLX), erkennbar an der Ziffer "2" an der zweiten Stelle der Typennummern. Beispielsweise beerbt der 28-Kerner Xeon Platinum 8280 den 28-Kerner Xeon Platinum 8180. Der Neue kostet dasselbe, taktet aber etwas höher (2,7/4,0 statt 2,5/3,8 GHz), kann Optane DC Persistent Memory ansteuern und verarbeitet bestimmte KI-Algorithmen dank DL Boost deutlich schneller.

Als absolute Spitzenmodelle bringt Intel drei Spezialversionen mit mehr Kernen, die jeweils aus zwei Cascade-Lake-Dies auf einem gemeinsamen Träger bestehen: Xeon Platinum 9282 (56 Kerne/400 Watt), Platinum 9242 (48 Kerne/350 Watt) sowie Platinum 9222/9221 (je 32 Kerne/250 Watt). Diese Cascade Lake Advanced Performance (CLX-AP) für Supercomputer darf man wohl als Präventionsmaßnahme gegen den kommenden 64-Kerner AMD Epyc "Rome" verstehen. Sie passen aber nicht auf gängige Xeon-Mainboards, dazu unten mehr.

Die "normalen" CLX-Xeons laufen nach BIOS-Updates auf bisherigen Mainboards mit LGA3647-Fassungen (Socket P) und Lewisburg-Chipsätzen (C621, C624 etc.). Daher bleibt die Anzahl der Speicherkanäle pro CPU gleich (6) und auch die Anzahl der PCI-Express-Lanes (48). Intel hat es auch nicht geschafft, von PCIe 3.0 auf PCIe 4.0 aufzurüsten: Das hat AMD bereits als Vorteil des kommenden Zen-2-Epyc "Rome" herausgestellt. Es gibt erste 100-GBit-Ethernet-Adapter mit PCIe 4.0, SSDs damit sind erst angekündigt.

Zweite Generation des Intel Xeon-SP: Cascade Lake (12 Bilder)

Cascade-Lake-Flaggschiff für die Fassung LGA3647: Xeon Platinum 8280 mit 28 Kernen.

Die neuen Xeons steuern alternativ zu ein oder zwei DDR4-2666-Speichermodulen pro Kanal auch ein einzelnes DDR4-2933-DIMM an, was etwa 10 Prozent mehr Transferrate bringt. Die CLX-Xeons vertragen außerdem DDR4-Speichermodule mit den noch teuren und relativ seltenen 16-GBit-SDRAMs. Damit sind im Prinzip RDIMMs und LRDIMMs mit 256 GByte möglich, bisher ist mit 8-GBit-Chips bei 128 GByte pro Modul Schluss.

Im Prinzip sind 3 TByte RAM pro CPU-Fassung möglich, also 6 TByte für einen Dual-Socket-Server. Für großen Speicherausbau muss man aber teurere "M"- oder "L"-Versionen der Xeons kaufen, die es von insgesamt sieben Typen gibt: Platinum 8280/8276//8260/8253 und Gold 6240/6238/5215. Bei den bisherigen Skylake-Xeons beträgt der "M"-Aufpreis rund 3000 US-Dollar.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

1 TByte RAM in Form von acht 128-GByte-Modulen kosten derzeit aber mindestens rund 16.000 Euro. Hier kommen die neuen Optane DC Persistent Memory Modules (DCPMMs) ins Spiel: Sie ermöglichen einerseits bis zu 9 TByte Speicher pro Dual-Socket-Server – 3 TByte RAM plus 6 TByte Optane-DCPMM – und sind andererseits deutlich billiger als RAM. Intel nennt noch keine Preise, man schätzt aber rund 4600 US-Dollar pro Terabyte.

Die Listenpreise der Cascade-Lake-Xeons für LGA3647-Boards reichen wie bei den Vorgängern von 203 bis 10.009 US-Dollar. Bei einigen Typen wie den 16-Kernern Xeon Gold 5218 und Xeon Silver 4216 bekommt man zum gleichen Preis nun vier Kerne mehr als bei Xeon Gold 5118/Silver 4116 (je 12 Kerne). Preise für die Xeon Platinum 9200 nennt Intel bisher nicht.

Optane-DCPMM ist zwar erheblich langsamer als "echtes" DDR4-RAM: Ein Speicherkanal mit DDR4-2933 schafft über 23 GByte/s, für Optane-DCPMM verspricht Intel im sequenziellen Idealfall bis zu 8,3 GByte/s beim Lesen und 2,13 GByte/s beim Schreiben. Im "Memory Mode" nutzt der Speicher-Controller das DRAM als Cache (Near Memory) für den Optane-Speicher (Far Memory). Das funktioniert ohne Anpassungen an Betriebssystem und Anwendungen und bietet Vorteile für Einsatzbereiche, die sehr viel RAM benötigen.

Im "Memory Mode" wissen Betriebssystem und Software nichts von den Besonderheiten des Optane-DCPMM.

(Bild: Intel)

Mehr Vorteile von Optane lassen sich im "App Direct Mode" nutzen, für den man Linux ab Kernel 4.2 benötigt (für Gerätetreiber ab 4.7) oder Windows Server 2016/2019 sowie angepasste Software. SAP hat die In-Memory-Datenbank Hana schon für Optane-DCPMM ausgelegt, weitere Projekte wie Redis sind in Arbeit, siehe pmem.io.

Die Cascade-Lake-Chips bringen erste Hardware-Patches gegen Spectre-Sicherheitslücken mit, sie sind etwa nicht mehr für Meltdown und L1TF anfällig. Beim Schutz gegen BTI muss weiter das Betriebssystem mitspielen und es stecken auch Patches im Microcode.

Deep Learning (DL) Boost ist zur Beschleunigung von KI-Inferencing gedacht, also für die Anwendung von KI-Algorithmen auf Daten. Manche davon lassen sich beschleunigen, wenn man auf Genauigkeit verzichtet, also mit 8-Bit-Integer-Werten (INT8) rechnet statt mit INT16 oder gar FP32.

Mit DL Boost ist unter anderem gemeint, dass die AVX-512-Einheiten von Cascade Lake eine größere Zahl von INT8-Werten parallel in einer Fused-Multiply-Add-(FMA)-Operation verarbeiten. Laut Intel beschleunigt DL Boost das vortrainierte Convolutional Neural Network (CNN) ResNet-50 um den Faktor 2,45 im Vergleich zu Skylake. Dabei kommt die für Intel-Prozessoren optimierte Version 1.1.3 des KI-Frameworks Caffe zum Einsatz.

Intel ist sich der wachsenden Konkurrenz vor allem durch AMD bewusst. Noch in diesem Jahr sind die bereits angekündigten KI-Beschleuniger NNP-L 1000 (Spring Crest) und NNP-i der Tochterfirma Nervana geplant sowie neue "Agilex"-FPGAs aus der 10-nm-Fertigung und mit CXL. Alle sollen sich dank der kommenden "One API" leicht programmieren lassen. 2020 plant Intel die GPU Xe, die ebenfalls als Beschleuniger dienen kann.

Doch auch die Xeon-Roadmap ist in Grundzügen bekannt: Die neue Plattform Whitley vermutlich mit der Fassung LGA4189 und acht Speicherkanälen nimmt zunächst "Cooper Lake"-Xeons auf und später dann die ersten 10-nm-Xeons "Ice Lake". Dann wird auch PCIe 4.0 erwartet.

  • Mehr Informationen und Details zum Xeon-SP der zweiten Generation werden Sie auf fünf Seiten in der c't 9/2019 finden.
Xeon Scalable Performance Gen 2 (Cascade Lake, CLX), Auswahl
Prozessor Kerne Takt / Turbo Cache TDP Preis
Xeon Platinum 9282* 56 2,6 / 3,8 GHz 77 MByte 400 W k.a.
Xeon Platinum 9242* 48 2,3 / 3,8 GHz 71,5 MByte 350 W k.a.
Xeon Platinum 9222* 32 2,3 / 3,7 GHz 71,5 MByte 250 W k.a.
Xeon Platinum 8280** 28 2,7 / 4,0 GHz 38,5 MByte 205 W 10.009 US-$
Xeon Platinum 8276** 28 2,2 / 4,0 GHz 38,5 MByte 165 W 8719 US-$
Xeon Platinum 8270 26 2,7 / 4,0 GHz 35,75 MByte 205 W 7405 US-$
Xeon Platinum 8268 24 2,9 / 3,9 GHz 35,75 MByte 205 W 6302 US-$
Xeon Platinum 8260** 24 2,4 / 3,9 GHz 35,75 MByte 165 W 4702 US-$
Xeon Gold 6252 24 2,1 / 3,7 GHz 35,75 MByte 150 W 3665 US-$
Xeon Gold 6248 20 2,5 / 3,9 GHz 27,5 MByte 150 W 3072 US-$
Xeon Gold 6230 20 2,1 / 3,9 GHz 27,5 MByte 125 W 1894 US-$
Xeon Gold 6254 18 3,1 / 4,0 GHz 24,75 MByte 200 W 3803 US-$
Xeon Gold 6240 18 2,6 / 3,9 GHz 24,75 MByte 150 W 2445 US-$
Xeon Gold 5220 18 2,2 / 3,9 GHz 24,75 MByte 125 W 1555 US-$
Xeon Platinum 8253** 16 2,2 / 3,0 GHz 35,75 MByte 165 W 3115 US-$
Xeon Gold 6242 16 2,8 / 3,9 GHz 22,0 MByte 150 W 2529 US-$
Xeon Gold 5218 18 2,3 / 3,9 GHz 24,75 MByte 125 W 1273 US-$
Xeon Gold 6226 12 2,8 / 3,7 GHz 19,25 MByte 125 W 1776 US-$
Xeon Gold 5215 10 2,5 / 3,4 GHz 16,5 MByte 85 W 1221 US-$
Xeon Gold 6234 8 3,3 / 4,0 GHz 24,75 MByte 130 W 2214 US-$
Xeon Gold 5217 8 3,0 / 3,7 GHz 16,5 MByte 115 W 1522 US-$
Xeon Gold 5222 4 3,8 / 3,9 GHz 16,5 MByte 105 W 1221 US-$
Xeon Silver 4216*** 16 2,1 / 3,2 GHz 16,5 MByte 100 W 1002 US-$
Xeon Silver 4214*** 12 2,2 / 3,2 GHz 16,5 MByte 85 W 694 US-$
Xeon Silver 4210*** 10 2,2 / 3,2 GHz 13,75 MByte 85 W 501 US-$
Xeon Silver 4208*** 8 2,1 / 3,2 GHz 11,0 MByte 85 W 417 US-$
Xeon Bronze 3204*** 6 1,9 / 1,9 GHz 8,25 MByte 85 W 213 US-$
Xeon Bronze, Silver und einige Gold 5200 haben nur je 1 AVX-512-Einheit pro Kern
* Cascade Lake Advanced Performance (CLX-AP): Nur als Modul erhältlich
** Versionen für 2 und 4,5 TByte DDR4 lieferbar
*** kein Optane DC Persistent Memory möglich

Hinweis: Intel bezahlte Flug und Hotel für c't-Redakteur Christof Windeck. (ciw)