Neue Xeon-Prozessoren: Intel verspricht doppelte KI-Performance
Die Ende 2018 erwarteten "Cascade Lake"-Xeons sollen beim KI-Inferencing dank Deep Learning Boost schneller sein - quasi als Geschenk zum 20. Xeon-Geburtstag.
Auf Intels Data-Centric Innovation Summit kĂĽndigte Navin Shenoy, Chef der Rechenzentrums-Sparte, eine Erweiterung des AVX-Befehlssatzes fĂĽr KI-Berechnungen an: Deep Learning Boost (DLBoost) soll mit den fĂĽr Ende 2018 angekĂĽndigten Xeon-SP-Prozessoren der Generation Cascade Lake kommen. Mit optimierter Software sollen Inferencing-Algorithmen, gemessen mit dem Resnet-50-Beispiel zum Sortieren von Bildern, rund doppelt so schnell laufen wie mit den aktuellen Xeon-SP-CPUs (Skylake-SP).
Weiterlesen nach der Anzeige
Die AVX-Erweiterungen nennt Intel auch Vector Neural Network Instructions (VNNI) for Inference Acceleration.
CPU-Architekt Jim Keller
(Bild:Â Intel)
Xeon statt GPU, TPU oder NPU
Shenoy betonte, dass viele Intel-Kunden statt spezialisierter KI-Chips ganz bewusst Xeons fĂĽr KI-Aufgaben einsetzen, unter anderem weil sie flexibler sind. Der Intel-Manager verriet, dass sein Unternehmen alleine mit Produkten fĂĽr AI-Anwendungen im Jahr 2017 rund 1 Milliarde US-Dollar Umsatz erzielt habe.
AuĂźerdem zeigte Shenoy, dass Intel schon seit der Vorstellung des Xeon-SP Mitte 2017 optimierte Software herausgebracht hat, die die Inferencing-Performance um den Faktor 5,4 vervielfacht habe. Zusammen mit DL Boost/VNNI soll Cascade Lake-SP dann um den Faktor 11 schneller sein als der aktuelle Xeon-SP mit doppeltgenauen Gleitkommawerten (FP32).
Im Rahmen des Data-Centric Innovation Summit veröffentlichte Navin Shenoy auch einige interessante Zahlen zur Xeon-Familie der Serverprozessoren, deren erstes Mitglied "Drake" alias Pentium II Xeon 1998 auf den Markt kam. Seither hat Intel insgesamt 220 Millionen Xeons verkauft und liefert derzeit rund zwei Millionen Stück pro Quartal aus, davon 50 Prozent vom Typ Xeon-SP.
Das stärkste Wachstum bei den Xeons kommt aus den Cloud-Rechenzentren, vor allem von großen Anbietern wie Google. Für solche Kunden fertigt Intel spezifische Prozessorversionen, sogenannte Custom-CPUs. Der Anteil dieser Custom-CPUs an den gesamten Prozessoren für Cloud-Rechenzentren ist laut Intel von 18 Prozent im Jahr 2013 auf 50 Prozent im vergangenen Jahr angewachsen.
(ciw)
Über 90.000 Leser vertrauen bereits darauf – wählen Sie jetzt Ihr passendes Paket!
Mit heise+ lesen Sie alle Inhalte auf heise online. Zusätzlich zu unseren Magazin-Inhalten erhalten Sie damit weitere exklusive Tests, Ratgeber und Hintergründe.