Der Ausblick vom Flash Memory Summit

Rasante SSDs kombinieren PCIe-4.0-Controller mit superschnellen Flash-Chips. Als Computational Storage rechnen SSDs selbst – und die Preise fallen vielleicht bald langsamer.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Die Speicherchip-Hersteller stapeln bei ihren NAND-Flash-Chips immer höher: Samsung und SK Hynix fertigen jetzt 3D-Flash mit 136 beziehungsweise 128 Lagen, SK Hynix will es auf bis zu 800 Lagen bringen – aber wohl erst 2030. Aktuell entwickelt SK Hynix erst einmal Flash-Chips mit 176 Lagen. Die zusätzlichen Lagen steigern vor allem die Kapazität des einzelnen Chips beziehungsweise Silizium-Dies, von denen dann wiederum mehrere als Stapel in einem Gehäuse sitzen – bei MicroSD-Karten bis zu 16 Stück.

Toshiba will die Speicherkapazität zunächst auf andere Weise steigern: Das Unternehmen arbeitet an Penta Level Cells (PLC). Eine solche Speicherzelle soll 5 Bit speichern, also 32 verschiedene Zustände; aktuell sind Quad Level Cells (QLC) mit 4 Bit (16 Zustände).

Wächst die Speichermenge pro Chip, sinken die Fertigungskosten pro Gigabyte und folglich die SSD-Preise. Doch die Flash-Firmen wollen ihre Fertigungskapazitäten nicht mehr so schnell ausbauen wie bisher – die Preise fielen für ihren Geschmack zu schnell. Derzeit ist eher ein Trend in Richtung High-End-SSDs zu sehen, nicht nur durch PCI Express (PCIe) 4.0, was Ryzen-3000-PCs und Epyc-7002-Server nun bereitstellen. Außer höherer Transferleistung sind auch kürzere Latenzen gefragt, die Toshibas XL-Flash für Storage Class Memory (SCM) bringen soll. Wie Intels Optane und Samsungs Z-NAND soll XL-Flash die Lücke zwischen DRAM und Flash füllen: günstiger als DRAM, haltbarer als Flash und nichtflüchtig.

XL-Flash speichert pro Zelle nur 1 Bit (Single Level Cell, SLC). Das allein reicht jedoch nicht, um die hohe Geschwindigkeit zu erreichen, sagte Jeff Ohshima von Toshiba: Man teilt den Speicher auch anders auf. Ein XL-NAND-Die besteht aus 16 sogenannten Planes; damit soll ein weit höherer Grad der Parallelisierung bei der Ansteuerung möglich sein als bei klassischen Dies. Zudem hat XL-Flash 4-KByte-Blöcke – sie sind kleiner als üblich und deshalb beim Überschreiben schneller. Die Serienfertigung von XL-Flash soll 2020 starten; während Samsung sein Z-NAND nur in eigene SSDs steckt, will Toshiba XL-Flash auch an andere SSD-Hersteller wie Memblaze verkaufen.

Auf dem Flash Memory Summit präsentieren sich erwartungsgemäß auch die Entwickler von SSD-Controllern, großes Thema in diesem Jahr ist PCIe 4.0. Theoretisch sind damit 8 GByte/s Transferrate möglich, die ersten PCIe-4.0-SSDs schaffen aber erst rund 5 GByte/s. Phisons PS5018-E18 soll 2020 sowohl beim Lesen als auch beim Schreiben bis zu 7 GByte/s erreichen.

Das chinesische Unternehmen BiWin nutzt für seine PCIe-4.0-SSD den neuen SSD-Controller von Innogrit.

Marvell betonte bei drei neuen SSD-Controllern die Energieeffizienz – aber sie erreichen in der Spitze nicht einmal 4 GByte/s und maximal 690.000 IOPS – das klappt auch mit PCIe 3.0. Interessant für künftige Billigrechner ist das Modell 88SS1323 für nur zwei PCIe-Lanes. Silicon Motions SM2264 soll 6,5 GByte/s beim Lesen erreichen, beim Schreiben noch 3,9 GByte/s. Bei Zugriffen auf zufällige Adressen soll er bis zu 700.000 IOPS bewältigen.

Als Neuling kam Innogrit hinzu, ein Unternehmen, das vor rund drei Jahren von einigen ehemaligen Marvell-Experten gegründet wurde. Gleich vier Controller stellte Innogrit vor, darunter Rainier (IG5636) und Tacoma (IG5668) für SSDs mit PCIe 4.0.

Das chinesische Unternehmen BiWin zeigte zwei Modelle mit Innogrit-Controllern: eine PCIe-Steckkarte und eine U.2-SSD. Beide sollen beim Lesen rund 7 GByte/s erreichen, beim Schreiben noch 6 GByte/s – solche Werte hat Innogrit auch selbst versprochen. BiWin ist in Deutschland eher unbekannt, liefert aber SSDs für einige Workstations von HP.

Toshiba stellte die CM6 vor. Sie kommt im 2,5-Zoll-Gehäuse mit Doppelport-U.2-Anschluss und bis zu 30 TByte Speicherkapazität. In der Spitze soll sie rund 6,7 GByte/s schaffen.

Von SK Hynix stammt die Dualport-Serie PE8000, die bis zu 6,4 GByte/s sowie 1 Million IOPS erreichen soll. Im 2,5-Zoll-Gehäuse mit U.2-Anschluss sind bis zu 64 TByte Kapazität geplant. Samsung will eine erste PCIe-4.0-SSD für Server noch 2019 liefern: Die PM1733 soll beim Lesen volle 8 GByte/s bringen und im U.2-Format bis zu 30 TByte speichern.

Das von Intel ins Leben gerufene Ruler-Format EDSFF kommt weiter in Fahrt. AIC zeigte einen Rack-Server mit zwei Xeons, der 32 kurze E1.S-SSDs fasst. Letztere stellten Adata und WD vor, SK Hynix brachte eine kundenspezifische SSD im langen E1.L-Format mit.

Eine weitere Bauform bringt Toshiba ins Spiel: XFMExpress, kurz XFMe. Die winzigen SSDs sind potenziell viel schneller als MicroSD-Karten, weil sie ein, zwei oder vier PCIe-Lanes nutzen können. Anders als aufgelötete BGA-SSDs lassen sie sich aber auswechseln: Die Halterung mit Klappmechanismus ähnelt den SIM- und MicroSD-Fassungen in älteren Mobiltelefonen. Eine XFMe-SSD ist 18 mm × 14 mm groß und 1,4 mm dick.

Für manche Aufgaben ist es sinnvoll, Daten nicht permanent zwischen SSD und CPU hin und her zu schaufeln, etwa beim Suchen oder Sortieren. Computional Storage hat eigene Rechenleistung, meldet sich aber gegenüber dem Hostsystem als SSD.

NGD Systems entwickelt SSDs mit bis zu 32 TByte Flash-Speicher und einem ARM-Prozessor. Dieser kann verschiedene Aufgaben mit den dort gespeicherten Daten erledigen, beispielsweise für Machine Learning.

Sogenannte NoLoad-Prozessoren (hier im EDSFF-Format) geben sich gegenüber dem Hostsystem als SSD aus und sollen die CPU entlasten.

Die NoLoad-Prozessoren von Eideticom wiederum unterstützen den Prozessor bei hoher Last durch Lesen und Schreiben zufällig verteilter Daten, die komprimiert werden sollen. Letzteres erledigen dann die NoLoad-Prozessoren. Das ist laut Eideticom wirtschaftlich, weil die Storage-Prozessoren günstiger sind als CPUs.

Die Flash-Experten verfeinern auch NVMe-over-Fabrics (NVMeoF) für verteilte Speichersysteme, disaggregierte Server und die sogenannte Composable Infrastructure immer weiter. Die Systeme sind per Ethernet (25/50/100 GBit/s) oder Infiniband angebunden, auch hier hilft PCIe 4.0. Über Zoned Namespaces bekommen Anwendungen einen exklusiven Zugang zu bestimmten Teilen einer SSD. Sie umgehen damit den Flash Translation Layer und schreiben direkt in die Flash-Zellen. Das soll nicht nur schneller sein, sondern auch die Write Amplification eliminieren: Garbage Collection ist unnötig, die SSDs brauchen weniger Overprovisioning und werden dennoch weniger beansprucht. Zoned Namespaces sollen in die Mitte 2020 erwartete Version 2.0 der NVMe-Spezifikation aufgenommen werden, die die Spezifikationen für NVMe und NVMeof zusammenführen wird.


Dieser Beitrag stammt aus c't 18/2019 (ll)