Windows Storage Spaces Direct mit 80 GByte/s
Mellanox demonstriert 100-GBit/s-Ethernet-Karten und NVMe-SSDs mit der neuen Funktion von Windows Server 2016 fĂĽr hyperkonvergente Systeme.
Mellanox ConnectX 4 fĂĽr 100-GBit/s-Ethernet.
(Bild: Mellanox)
In Windows Server 2016 debütiert die Software-defined-Storage-(SdS-)Funktion Storage Spaces Direct: Damit lassen sich lokale SAS-, SATA- und NVMe-Speichermedien von mindestens drei Servern zu einem ausfallsicheren Verbund von ReFS-Volumes koppeln. Typischer Nutzungszweck ist die Bereitstellung von Ressourcen für virtuelle (Hyper-V-)Maschinen auf Standard-x86-Hardware, die sich durch Hinzufügen weiterer gleicher Systeme erweitern lassen. Der Markt dieser hyperkonvergenten Server wächst derzeit besonders schnell.
Auf dem Flash Memory Summit demonstriert Mellanox mit Storage Spaces Direct die Leistungsfähigkeit von ConnectX-4-Adapterkarten und Spectrum-2700-Switches für 100-GBit/s-Ethernet. Ein Verbund mehrerer Server mit solchen Converged-Ethernet-(CE-)Karten und den PCIe-NVMe-SSDs Samsung PM1725 liefert Daten mit bis zu 80 GByte/s. Für jede der 112 laufenden virtuellen Maschinen (VMs) stehen somit etwa 750 MByte/s bereit.
RDMA ist Pflicht
(Bild:Â Microsoft)
Laut einem Technet-Beitrag, der die kommende Funktion Storage Spaces Direct beschreibt, mĂĽssen Speichermedien und Netzwerkadapter dafĂĽr gewisse Voraussetzungen erfĂĽllen. Beispielsweise klappt es nur mit SAS-, SATA- oder PCIe-NVMe-Massenspeichern und die Netzwerkkarten mĂĽssen Remote DMA (RDMA) beherrschen. Das trifft beispielsweise auf Karten mit RoCE zu, das steht fĂĽr RDMA over Converged Ethernet: Also RDMA ĂĽber Ethernet- und InfiniBand-Interconnects.
BlueField fĂĽr Software-defined Storage
Mellanox betont, dass die ConnectX-4- und kommende ConnectX-5-Adapter auch Offloading-Funktionen fĂĽr Storage bieten. Damit soll sich NVM over Fabrics statt ĂĽber teure PCIe-Switches auch effizient ĂĽber Ethernet-Verbindungen nutzen lassen.
Mellanox hatte im Juni auch einen Controller fĂĽr Storage-Systeme mit PCIe NVMe und bis zu 100-GBit-Ethernet angekĂĽndigt: Das BlueField-SoC nutzt Technik der zugekauften Firmen EZchip und Tilera und vereint mehrere ARMv8-A-Rechenkerne mit schnellem I/O. Damit sollen sich Storage-Systeme ohne teure Xeons bauen lassen. (ciw)