GTC 2017: Deep-Learning-Server Inspur AGX-2 mit acht Nvidia Tesla P100

170 Teraflops Rechenleistung in einem 2U-Server: Inspur stellt den Deep-Learning-Server AGX-2 mit acht Nvidia Tesla P100 vor.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
Supercomputing-Server für Deep Learning/AI: Inspur AGX-2 mit acht Nvidia Tesla P100

Blick in den Deep-Learning-Server AGX-2

(Bild: Martin Fischer)

Lesezeit: 2 Min.

Nvidia und der chinesische Hardware-Hersteller Inspur wollen in Kürze den Deep-Learning-/AI-Supercomputing-Server AGX-2 ankündigen. heise online konnte auf der GPU Technology Conference bereits mit Inspur sprechen und einen Blick auf den AGX-2 erhaschen. Der AGX-2 soll dank seiner extrem hohen Rechenleistung eine verzögerungsfreie Ausführung von Echtzeit-AI-Anwendungen gewährleisten.

In den 2U-Server passen bis zu acht GPUs der Serie Tesla P100 – und zwar entweder als NVLink- oder PCIe-Varianten. Sie erreichen zusammen eine theoretische Rechenleistung von 170 Billionen Gleitkommaoperationen pro Sekunde bei den für Deep-Learning-Anwendungen besonders wichtigen Berechnungen mit halber Genauigkeit (TFlops, FP16) und 376 TFlops bei INT8-Berechnungen. Über eine externe GPU Expansion Box lassen sich acht weitere GPUs zuschalten.

Bis zu acht Tesla P100 passen in den AGX-2. Entweder NVLink- oder PCIe-Versionen.

(Bild: Martin Fischer)

Jede Tesla-P100-GPU besteht aus über 15 Milliarden Transistoren und enthält 3584 Shader-Rechenkerne, die laut Nvidia-Spezifikation mit 1328 MHz Basistakt und bis zu 1480 MHz Turbo-Takt laufen. Dazu kommen 16 GByte Speicher pro Karte – dabei setzt Nvida auf High Bandwidth Memory der zweiten Generation, der über 4096 Datenleitungen direkt mit der GPU verbunden ist. Die Thermal Design Power beträgt 300 Watt pro Tesla-P100-Rechenkarte. Nvidia-Chef Jen-Hsun Huang hat die Tesla P100 im April 2016 erstmals vorgestellt.

Als Prozessoren kommen beim AI-Supercomputing-Server AGX-2 zwei Xeon-Modelle der kommenden Skylake-EP-Generation zum Einsatz, die laut Inspur in rund vier Monaten verfügbar sein sollen. Erst dann wird auch der AGX-2 verfügbar sein.

Der AI-Server unterstützt bis zu 2 Terabyte DDR4-Arbeitsspeicher mit 2667 MHz, dazu acht 2,5-Zoll-U2/SAS/SATA-Datenträger sowie zwei M.2-PCIe/-Slots. Zwei 3000-Watt-80Plus-Netzteile sorgen für die nötige Energie. Gekühlt wird der AGX-2 entweder komplett über Luft oder mit einem Luft-Wasser-Hybridkühlsystem. Die Luftkühlung soll die Betriebstemperatur unter 35 °C halten. (mfi)