GPU-Server im iX-Test: Dells DSS 8440 für KI- und ML-Anwendungen

Mit KI-Programmen kommt auch eine neue Gattung Server auf den Markt: GPU-Systeme. Die April-iX hat sich Dells DSS 8440 näher angesehen.

In Pocket speichern vorlesen Druckansicht 4 Kommentare lesen
GPU-Server im iX-Test: Dells DSS 8440 für KI- und ML-Anwendungen

(Bild: Dell EMC)

Lesezeit: 2 Min.

KI- und ML-Anwendungen gieren nach Rechenleistung, die sie am liebsten in Form von spezialisierten GPUs erhalten. Immer mehr Hersteller bieten passend ausgerüstete Systeme an, auch Dell mit dem DSS 8440. In der neuen iX 4/2020 nimmt Hubert Sieverding den Server unter die Lupe und zeigt, für welchen Einsatzzweck sich welche Konfiguration eignet.

Der 4HE-Server wiegt gut 50 kg und ist bei einer Länge von 85 cm nicht gerade handlich. Er lässt sich ab Werk mit bis zu 10 V100- oder 16 T4-GPUs aus dem Hause Nvidia ausstatten. Dabei hat Dell die gewohnte Anordnung umgedreht: Gebläse und PCIe-Slots finden sich vorne, CPUs und Kleinkram hinten. So erhalten die Erweiterungskarten die Kühlluft zuerst.

Als Mainboard kommt das des PowerEdge C4140 mit zwei Intel Xeon Gold 6148 zum Einsatz. Die kombiniert 96 PCIe-Lanes genügen jedoch nicht für die Erweiterungskarten, entsprechend hat Dell zusätzlich vier PCIe-Switches verbaut. Hot-Swap-Einschübe für den Massenspeicher finden sich auf der Rückseite, hinzu kommen vier 2400-Watt-Netzteil.

Letztere deuten es bereits an: Unter Last weist der DSS 8440 einen massiven Energieverbrauch auf – in den Benchmarks kam das System auf vier kW. Andererseits zeigt der TensorFlow-Test sofort, warum sich ein solcher Server dennoch lohnen kann: Gegenüber dem reinen CPU-Betrieb erhielt der Tester eine Beschleunigung um das 514-Fache.

Details zu den Benchmarks und den Unterschieden der GPU-Konfigurationen finden Leser im Artikel:

(fo)