Die Server-Branche hat sich offenbar auf den von Intel vorgeschlagenen Compute Express Link (CXL) als zukünftiges Interface für Cache-kohärente Rechenbeschleuniger geeinigt: Nun sind auch IBM und Xilinx dem CXL-Industriegremium beigetreten. Bereits zuvor hatten sich AMD, ARM und Nvidia zu CXL bekannt. Alternative kohärente Inferfaces wie CCIX und OpenCAPI dürften es damit künftig schwerer haben. CXL scheint aber auch Bereiche abzudecken, auf die Gen-Z zielt, etwa die flexible Anbindung von zusätzlichem RAM und Storage-Class Memory (SCM).
Anzeige
CXL setzt auf PCI Express 5.0 (PCIe 5.0) mit 32 Gigatransfers pro Sekunde und Lane auf; es wird erwartet, dass relativ rasch der Schritt zu PCIe 6.0 mit 64 GT/s erfolgt. Erste Serverprozessoren mit PCIe 5.0 werden ab 2021 erwartet: Bei AMD steht dann die Epyc-Generation "Genoa" (Zen 4) an, bei Intel der Xeon "Sapphire Rapids", vermutlich auch mit DDR5-SDRAM.
Ein superschnelles PCIe-Interface nutzt wenig, wenn das RAM zu lahm ist. CXL soll vor allem für PCIe-x16-Karten verwendet werden, die bei PCIe 5.0 dann 64 GByte/s pro Richtung übertragen könnten. DDR4-3200-RAM liefert pro Kanal 25,6 GByte/s, es wären also drei RAM-Kanäle für Datentransfers eines einzigen x16-Beschleunigers nötig. DDR5-5200 sollen über 40 GByte/s pro Kanal ermöglichen.
CXL regelt den Zugriff auf den Speicher von CPU, Beschleunigern und I/O-Karten.
Im Wesentlichen umfasst CXL die drei Protokolle CXL.io, CXL.cache und CXL.mem, die sich zusätzlich zur PCIe-Verbindung, die den eigentlichen Datentransfer übernimmt, in beliebiger Kombination nutzen lassen. Auf der Webseite Computeexpresslink.org findet sich eine (PDF-)Präsentation vom Flash Memory Summit 2019, die CXL erklärt.
Proprietäre Interconnects wie Nvidia NVLink und AMDs InfinityFabric haben weiter ihre Berechtigung, um beispielsweise Chips desselben Herstellers untereinander zu koppeln.
(ciw)