SC16: Intel zeigt nächste Xeon-Generation Skylake-EP

Auf der Supercomputer-Konferenz SC16 demonstrierte Intel die nächsten Xeon-Generation. Das Thema Deep Learning wurde nur touchiert, aber immerhin eine FPGA-Coprozessor-Karte angekündigt.

In Pocket speichern vorlesen Druckansicht 10 Kommentare lesen
SC16: Intel zeigt Skylake-EP
Lesezeit: 3 Min.
Von
  • Andreas Stiller

Auf der Supercomputer-Konferenz SC16 in Salt Lake City führte Intel die nächste Xeon-Generation Skylake-EP vor: Sie ist mit sechs Speicherkanälen, AVX512 und optional integriertem Omni-Path-Interconnect versehen.

Einbllick in diese "Purley"-Systeme durfte man nicht nehmen, sie ackerten hinter verschlossenen Glastüren. Mit KI-Algorithmen verfremdeten sie in künstlerischer Manier die fotografierten Gesichter der Besucher. Die Prozessoren sollen Mitte nächsten Jahres breitflächig erhältlich sein, ausgewählte Partner können kleinere Stückzahlen aber schon geraume Zeit vorher erhalten – klar, dass jetzt die Universitäten und Forschungseinrichtungen bei Intel Schlange stehen.

Hinter diesen Glastüren ackern Prototypen vom Skylake-EP -- hat Intel zumindest versprochen

Wer jetzt schon mehr Xeon-Leistung braucht, kann einen neuen, noch schnelleren Broadwell-EP, den Xeon E5-2699Av4, in die bestehende Plattform einbauen. Der ist mit 2,4 GHz Grundtakt 200 MHz schneller als sein Kollege ohne "A". Er soll aber im gleichen TDP-Bereich von 145 Watt bleiben. Mehr Kerne hat Intel dem Broadwell-EP allerdings nicht gegönnt, die volle Kernzahl von 24 bleibt der E7-Familie vorbehalten. Um rund 4 Prozent soll der Linpack schneller sein (von 1446 auf 1516 GFlops für ein Zweiprozessorsystem mit MP-Linpack). Dafür muss man allerdings gut 20 Prozent mehr auf den Tisch legen: 4938 US-Dollar beträgt der OEM-Listenpreis

Die auf der ISC16 bereits vorgestellte HPC-Orchestrierung hat Intel jetzt in der finalen Version 1.0 fertig. Sie beruht auf OpenHPC, einem offenen Framework-Projekt für HPC, bei dem Intel wie auch ARM Gründungsmitglieder sind. Daneben sind die üblichen Systemhäuser sowie viele Universitäten und Forschungseinrichtungen dabei. Auch das Leibniz-Rechenzentrum in München/Garching gehört dazu.

Die Orchestrierungs-Suite erweitert OpenHPC um für Intel-Hardware optimierte Konfigurationen für Xeon, Xeon Phi und OmniPath. Sie enthält auch vorbereitete Test- und Benchmark-Software (etwa HPCG, MiniFE) und eine 90-Tage-Testversion der Intel Parallel Studio XE 2017 Cluster Edition.

Zum Trendthema Künstliche Intelligenz (KI/AI) beziehungsweise Deep Learning hält sich Intel auf der SC16 weitgehend zurück – hierfür hat der Konzern ein eigenes Event "AI Day" am kommenden Donnerstag in San Francisco eingeplant. Hier will man dann mehr Informationen über den geplanten Xeon Phi Knights Mill verraten. Das ist eine Variante des Xeon Phi Knights Landing bei dem, wie man hinter den Kulissen erfahren konnte, die vorhandene Double-Precision-Hardware weitgehend zugunsten von Half Precision (fp16) umgewidmet wurde. Wie es heißt, werden sich im Knights Mill 8 Kerne eine DP-Einheit teilen. Die DP-Performance sinkt dann auf ein Achtel, aber die fp16-Performance dürfte 12 TFlops oder mehr erreichen.

Intel macht Nallatech Konkurrenz: eine FPGA-Karte mit Arria 10, speziell gedacht für die Anwndung von bereits trainierten Netzen.

(Bild: Intel)

Ein neues Produkt hat Intel für Deep Learning allerdings bereits jetzt auf der SC16 angekündigt: eine FPGA-Coprozessor-Karte für "Inference", also für die Anwendung von bereits trainierten "gefalteten" Netzen (Convolutional Networks). Der Deep Learning Inference Accelerator DLIA ist wie die Beschleunigerkarte 385 von Nallatech mit einem Altera (jetzt Intel) Arria 10 bestückt. Die Demo wurde aber noch mit dem großen Arria-Entwicklungssystem vorgeführt. Preis und Leistungsaufnahme gab Intel noch nicht bekannt, hebt sich das vielleicht für den AI Day auf. Im ersten Quartal 2017 soll die PCIe-Karte lieferbar sein. (as)