Superschnelle DDR5-Speichermodule für kommende Server
Der Hersteller SK Hynix kündigt Multiplexer-Combined-Ranks-(MCR-)Speichermodule für künftige Server an, die 64 statt 38,4 Gigabyte pro Sekunde liefern.
Rund 66 Prozent höhere Datentransferraten pro Speicherkanal sollen DDR5-Speichermodule für Server liefern, die die koreanische Firma SK Hynix in Kooperation mit Intel und Renesas entwickelt hat. Dabei kommen gängige DDR5-SDRAM-Speicherchips der Geschwindigkeitsklasse DDR5-4800 zum Einsatz. Auf einem Registered DIMM (RDIMM) für Server zusammengeschaltet würden diese Chips insgesamt 38,4 Gigabyte an Daten pro Sekunde liefern (38,4 GByte/s).
Durch einen Trick namens Multiplexer Combined Ranks (MCR) lieferen MCR-RDIMMs mit mindestens zwei Ranks aber viel höhere Datentransferraten, sofern der Speichercontroller die MCR-Technik ebenfalls beherrscht. Ein zusätzlicher Pufferchip (Buffer/Multiplexer) auf dem RDIMM verteilt dabei die Zugriffe auf je zwei Ranks und sendet sie dann mit höherer Signalisierungsrate über den Speicherkanal an den Speichercontroller.
Laut SK Hynix schafft der von Renesas entwickelte MCR-Buffer Signalisierungsraten von bis zu 8 Gigatransfers pro Sekunde, das entspricht DDR5-8000 beziehungsweise 64 GByte/s auf dem Speicherkanal.
Im Grunde führt die MCR-Technik das "Prefetching"-Basiskonzept extern weiter, das im Inneren von DDR-RAM schon seit vielen Jahren zum Einsatz kommt: Innerhalb von SDRAM-Chips arbeiten mehrere Bänke (Banks) parallel. Die I/O-Multiplexer in den SDRAMs senden diese Daten dann sequenziell über den Speicherkanal. Das klappt auch in die umgekehrte Richtung beim Schreiben von Daten in die DRAM-Speicherzellen.
Rank-Kunde
Als Rank bezeichnet man bei Speichermodulen (Dual Inline Memory Modules, DIMMs) eine Gruppe von DRAM-Chips, die zusammen 64 Datensignalleitungen haben: Also je acht einzelne x8-Chips mit je acht Leitungen beziehungsweise 16 x4-Chips oder nur vier x16-Chips. Auf JEDEC-konformen RDIMMs sind nur x4- oder x8-Chips zulässig. ECC-RDIMMs für Server mit Error Correction Code zum Schutz gegen Bitfehler haben zusätzliche DRAM-Bausteine; bei DDR5-RDIMMs sind das je zwei pro Rank.
Auch bei normalen DDR5-RDIMMs arbeiten die einzelnen Ranks weitgehend unabhängig voneinander, den jeweils gewünschnten Rank adressiert der Speichercontroller mit dem Chip-Select-Signal (CS#). Bei MCR-RDIMMs müssen BIOS und Speichercontroller die physischen RAM-Adressen so geschickt verteilen, dass sich Datenblöcke auf mehrere Ranks verteilen. Denn aufeinanderfolgende Zugriffe auf denselben Rank kann die MCR-Technik nicht beschleunigen.
Welcher Xeon kann MCR?
SK Hynix hat bei der Ankündigung der DDR5-MCR-RDIMMs nicht verraten, welche kommenden Serverprozessoren von Intel die MCR-Technik beherrschen werden. Für den 10. Januar 2023 hat Intel allerdings die Vorstellung des erheblich verspäteten Xeon Scalable Processor Gen4 "Sapphire Rapids" angekündigt. Diese Xeon-SP-Generation wird acht DDR5-RAM-Kanäle ansteuern; der konkurrierende AMD Epyc 9004 "Genoa" hingegen zwölf.
Den Xeon SP Gen4 wird es allerdings auch als "Xeon Max" mit superschnellem High Bandwidth Memory (HBM) direkt im CPU-Gehäuse geben. Das HBM kann zusätzlich mit DDR5-RDIMMs arbeiten und etwa als schneller Puffer (Cache) dienen. AMD wiederum plant Genoa-X-Typen mit aufgestapeltem L3-Cache.
Siehe dazu auch:
- RAM-Giganten: Der Aufbau von Speichermodulen mit hoher Kapazität
- Bit-Rauschen, der Prozessor-Podcast: Die Server-CPU AMD Epyc 9004 "Genoa"
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
(ciw)