Flash-Speicher für Rechenzentren: NVMf

Viele Vorträge auf dem Flash Memory Summit beschäftigen sich mit künftigen Weiterentwicklungen der Speichertechnik. Doch in der Messehalle war vor allem jetzt erhältlicher Speicher für Unternehmensanwendungen zu sehen.

In Pocket speichern vorlesen Druckansicht 7 Kommentare lesen
Flash-Speicher für Rechenzentren
Lesezeit: 5 Min.
Von
Inhaltsverzeichnis

Ob kommende SSDs nun mit 3D Xpoint, ReRAM oder der bisher nicht näher bezeichneten neuen Samsung-Speichertechnik bestückt sind, dürfte den meisten Ausstellern egal gewesen sein. Sie wollten ihre aktuelle Technik verkaufen, deswegen waren sie auf dem Flash Memory Summit.

Zudem gibt es noch andere Umwälzungen. Denn die ehemals in Servern und Storage-Systemen weit verbreitete Anschlusstechnik Serial Attached SCSI (SAS) spielt nur noch eine kleinere Rolle, stattdessen nutzt Enterrprise-Flash zunehmend PCIe beziehungsweise NVMe. Doch auch dabei muss man sich schon wieder an ein neues Buzzword gewöhnen: NVMe over Fabrics (NVMf), den schnellen Zugriff auf NVMe-SSDs über das Netzwerk.

Das klappt einerseits mit direkten PCIe-Verbindungen zwischen Server und Storage-System: So macht es die EMC-Tochter DSSD beim All-Flash-System D5. Aber NVMf läuft auch via Remote DMA (RDMA) und Converged-Ethernet-(CE-)Adapterkarten, kurz: RoCE – oder via Infiniband oder iWARP. Mellanox zeigte RoCE mit ConnectX-4-Karten und Windows Server 2016 Storage Spaces Direct.

Einer der NVMf-Vorreiter ist die Firma Mangstor, die Mitarbeiter ins Spezifikationsgremium entsendet. Das zahlt sich aus: Mangstors All-Flash-Array NX6320 soll in einem Monat erhältlich sein. Das System kommt mit 32 TByte Flash-Speicher und liefert über Ethernet oder Infiniband bis zu 2,25 Millionen IOPS beim Schreiben, beim Lesen sollen es sogar 3 Millionen IOPS sein. Im gleichen Verhältnis liegen die Werte für sequenzielle Übertragungen: 9 GByte/s beim Schreiben, 12 GByte/s beim Lesen. Die Latenz soll sich nicht von der einer lokalen Anbindung unterscheiden. Noch schneller soll das NX6340 werden, das beim Lesen bis zu 5 Millionen IOPS erreichen soll. Das 80-TByte-All-Flash-Array soll in etwa sechs Monaten verfügbar sein, Preise will der Hersteller nicht öffentlich nennen.

Im Gespräch mit heise online sagte Scott Harlin, Marketing-Direktor des Unternehmens, dass NVMe over Fabrics die Technik der Zukunft für Rechenzentren sei. Mehr als 700.000 IOPS wären mit anderer Technik nicht möglich – und alle anderen Hersteller auf dem Flash Memory Summit würden daran arbeiten, ihre Systeme auf NVMf umzustellen.

NVMe übers Netz: Ein Adapter von Kazan Networks bindet schnelle SSDs ein.

Einige Hersteller zeigten weitere Produkte. So stellte Kazan Networks Module vor, die zwei M.2-NVMe-SSDs aufnehmen und sie an das Netzwerk anbinden. Ein Verbund von sechs solcher Module erreichte in der Demo ebenfalls rund 3 Millionen IOPS und 12 GByte/s sequenziell. Auf ein fertiges Produkt muss man allerdings noch etwas warten: Kazan-CEO Joe Steinmetz rechnet mit etwa einem Jahr. Derzeit nutzt Kazan nach seinen Angaben FPGAs, man wolle die Funktionen jedoch direkt in einem ASIC umsetzen.

Auch HP Enterprise arbeitet laut einem Blogpost an NMVf. Auf dem Flash Memory Summit war davon jedoch nicht die Rede.

Um mehrere NVMe-SSDs in einem Gehäuse zu vereinen, setzt man PCIe-Switches ein. Solche stellte etwa Microsemi vor – und zwar am Beispiel des Lightning-JBOF-Systems von Facebook. An das Kürzel JBOF wird man sich ebenfalls gewöhnen müssen: Es steht für Just a Bunch Of Flash, also einem einfachen Verbund von SSDs ohne Hardware-RAID-Funktionen.

Mit Hilfe von PCIe-Switches teilt man die Kapazität eines JBOF auf. Solche Switches kommen zudem zum Einsatz, wenn man sehr viele NVMe-SSDs an einem Server anschließenmöchte.

Das Demosystem bestand aus acht M.2- und ebensovielen U.2-SSDs, die den Speicher über Microsemis Switch für zwei lokal angeschlossene Systeme bereitstellten. Die Aufteilung sei flexibel, sagte ein Mitarbeiter. In der gezeigten Konfiguration könne das System bis zu 60 SSDs aufnehmen und den Speicher an insgesamt acht Server verteilen.

Klassische Flash-Arrays mit externer Anbindung via Ethernet, FibreChannel, SAS oder Infiniband behalten weiter ihre Daseinsberechtigung. So stellte etwa Nimbus sein ExaFlash-System vor. Der Hersteller hebt nicht nur die sehr hohe Skalierbarkeit hervor, sondern auch die besondere Energieffizienz: So ist das System mit Kapazitäten zwischen 50 TByte und 4,5 PByte erhältlich und soll im Vergleich zu anderen Systemen bis zu 95 Prozent weniger Energie benötigen. Das habe man durch den Verzicht auf unnötige Komponenten und die Verringerung der CPU-Belastung durch intelligente Hardware erreicht, so der Hersteller.

Mit etwas weniger Marketing kommt E8storage aus. Gerade einmal die zehnfache Performance soll das E8-D24-Rack liefern, allerdings sagt das Unternehmen nicht, womit der Vergleich stattfindet. Den Juroren des Flash Memory Summit war das jeden falls einen "Best-of-Show"-Award wert. Bis zu 70 TByte bringt E8storage in einem 2-HE-Rack unter, im nächsten Jahr soll sich die Speicherkapazität verdoppeln.

Intern nutzt E8storage NVMe-SSDs, die insgesamt eine Leistung von 10 Millionen IOPS beim Lesen erreichen sollen; beim Schreiben sind es 4 Millionen. Das E8-D24 soll im nächsten Quartal erhältlich sein, Preise nennt auch dieses Unternehmen nicht.

Toshiba steigt ebenfalls mit einem Flash-Server in den Markt ein. In einem 2-HE-Einschub vereint das Unternehmen bis zu 12 Einsteckkarten mit Linux-Servern, dazu gesellen sich maximal 24 Karten mit jeweils 5 TByte Flash-Speicher. Der Speicher des Flashmatrix genannten Systems ist in einer Matrix angeordnet – daher der Name – und steht allen Systemen gleichermaßen zur Verfügung. Angaben zu Preisen und Verfügbakeit liegen noch nicht vor. (ll)