Amazon integriert Nvidia-T4-Chips in seine Cloud-Plattform

Nvidias T4-GPUs stehen jetzt auch in Amazons EC2-Instanzen zur VerfĂĽgung. Die Turing-Architektur soll sich besonders fĂĽr Machine-Learning-Anwendungen eignen.

vorlesen Druckansicht
Amazon integriert Nvidia-T4-Chips in seine Cloud-Plattform
Lesezeit: 1 Min.
Von

Amazon bietet seine EC2-Instanzen ab sofort auch mit integrierten Nvidia-T4-Tensor-Core-GPUs an. Bis zu vier dieser Chips stehen in den sogenannten G4-Instanzen zur VerfĂĽgung, wobei jede Einheit dem Anwender 320 Tensor-Kerne, 2560 CUDA-Kerne und 16 GByte Grafikspeicher bietet. Entsprechende Systeme wĂĽrden sich laut Amazon fĂĽr das Inferencing beim Machine Learning, fĂĽr Videobearbeitung, natĂĽrlicher Spracherkennung oder das Streaming von Videospielen eignen.

Nach internen Benchmarks, nachzulesen auf aws.amazon.com, sollen die neuen G4-Instanzen gegenüber den alten G3-Varianten ein bis zu doppelt so schnelles MxNet- und TensorFlow-Inferencing und -Training ermöglichen. Amazon und Nvidia betonen, dass die RT-Cores der GPUs aktuelle Raytracing-Aufgaben übernehmen können. In den kommenden Monaten möchte Amazon sein Angebot um eine G4-Instanz mit bis zu acht T4-Tensor-Core-GPUs erweitern. Bis dahin stehen schon einmal die Varianten mit bis zu vier GPUs in neun AWS-Regionen zur Verfügung, darunter in Frankfurt, London und Irland für Europa. (fo)