Speichersystem mit Yottabyte-Kapazität: IBM stellt ESS 5000 vor

Mit dem Modell 5000 erweitert die IBM ihre ESS-Familie. Es bietet Unternehmen Speicherkapazitäten bis in Yottabyte-Dimensionen für KI-Data-Lakes.

In Pocket speichern vorlesen Druckansicht 46 Kommentare lesen
Speichersystem mit Yottabyte-Kapazität: IBM stellt ESS 5000 vor

(Bild: Aleksandr Grechanyuk / Shutterstock.com)

Lesezeit: 2 Min.
Von
  • Berthold Wesseler

Neue Bausteine für den Aufbau optimierter KI-Infrastrukturen kündigte IBM heute mit den Speichersystemen ESS 5000 und Cloud Object Storage (COS) an. Das ESS 5000 ist eine Ergänzung zum 2019 lancierten Elastic Storage System 3000 und gedacht für hohe Speicherkapazitäten mit hohen Speicherdichten. Dazu gesellt sich COS; das neue System ist auf eine kosteneffiziente lokale und hybride Cloud-Objekt-Speicherung von jedem Netzwerkstandort weltweit aus ausgelegt.

Das neue Speichersystem basiert auf Power9-Prozessoren und dem Filesystem Spectrum Scale. Konzipiert ist es mit einer Leistung von 55 GByte/s in einem Gehäuseknoten als Baustein für einen Data Lake. Das ESS 5000 bietet – je nach Konfiguration – eine Kapazität von 552 TByte bis in Yottabyte-Dimensionen. Außerdem kann das System mit Power- und x86-Servern, aber auch anderen Systemen wie Nvidias DGX arbeiten, wobei es laut IBM mit den Datenanforderungen der GPUs Schritt halten kann.

Auf Wunsch lässt sich das ESS 5000 als eigenständiges System einsetzen, weitere Einheiten oder Plattengehäuse erweitern die Kapazität und Bandbreite. Darüber hinaus kann es in einem Cluster mit anderen ESS-5000- oder -3000-Einheiten eingesetzt werden. Verfügbar ist das neue Speichersystem ab dem 14. August 2020.

Ergänzend bringt die IBM ab dem 7. August mit dem neuen COS einen weiteren Baustein ihrer Data-Lake-Architektur auf den Markt. Das besondere am neuen Cloud Object Storage: Nicht benutzte oder „kalte“ Daten können darauf verschoben werden, zum Beispiel für ein „aktives“ Archiv. Dank des grundlegend überarbeiteten Betriebssystems soll die Systemleistung auf 55 GByte/s in einer 12-Knoten-Konfiguration steigen, wodurch sich je nach Objektgröße die Lese- und Schreibgeschwindigkeit um bis zu 300 beziehungsweise 150 Prozent erhöht.

Um die Datenbestände im Data Lake zu katalogisieren, indizieren, zu kennzeichnen und sie im KI-Prozess sichtbar zu machen, bietet IBM die Software Spectrum Discover an. Mit dem neuen Release sollen sich Daten jetzt direkt an Watson und an das Cloud Pak for Data exportieren lassen. Außerdem soll sich Spectrum Discover noch in diesem Jahr in OpenShift-Umgebungen integrieren lassen.

(fo)