Weltweit wollen Unternehmen ihre Rechenzentren mit einer Infrastruktur ausstatten, die Agilität, Innovation und schnelle Entwicklungszeiten unterstützt. Angesichts wachsender Datenmengen kommt dem Thema Storage eine besondere Bedeutung zu. Doch die richtige Speichertechnologie für den jeweiligen Workload ist entscheidend, soll ein Leistungsschub wahrnehmbar sein. Doch welche sind die richtigen Technologien?
Eine Vielzahl der deutschen Unternehmen modernisiert derzeit ihre IT-Infrastruktur oder plant eine Modernisierung. Im Mittelpunkt steht dabei die IT-Transformation. Also insbesondere die IT-Infrastruktur, die IT-Architektur sowie die Daten- und Informationsarchitektur. Ziel ist es, im Sinne einer Wettbewerbs- und Zukunftsfähigkeit die Abhängigkeit von veralteten IT-Produkten, -Prozessen und -Systemen zu reduzieren. Diese Veränderungen finden in drei zentralen Anforderungsfeldern statt: der Modernisierung der Rechenzentrumstechnologie, der Automatisierung von IT-Prozessen und einer Transformation der Unternehmensdynamik.
Bezogen auf die IT-Komponenten dieser Transformation wird besonders auf die „Rechenleistung“ („Compute-Power“), die Netzwerkinfrastruktur („Network“) und Speicher(ung) („Storage“) abgezielt. Und gerade das Thema Storage ist, nicht nur vor dem Hintergrund von IoT und künstlicher Intelligenz, besonders zentral.
Die Sache mit dem Storage
Storage im Unternehmen, im Rechenzentrum, in der Cloud oder auch das Thema „Enterprise Storage“ ist ein breites Thema. Angefangen bei Produkten und Dienstleistungen, die Unternehmen beim Speichern und Abrufen digitaler Informationen helfen sollen. Hier geht es um große Datenmengen und eine große Anzahl von Benutzern. Oftmals handelt es sich um zentralisierte Speicher-Repositories wie Storage Area Networks (SANs) oder Network-Attached-Storage-(NAS)-Systeme.
Oder es geht um unterschiedliche Kategorien von Storage. Beispiele:
- Der Primärspeicher umfasst die Daten, auf die der Anwender aktiv zugreift.
- Der Backup-Speicher wiederum enthält Kopien der Informationen des Primärspeichers. Die Aufgabe: Die Verwendung und Verfügbarkeit in Notfallsituationen oder unter anderen Umständen, in denen eine sekundäre Kopie erforderlich ist. Der Back-up-Speicher ist eng mit dem Archivspeicher verbunden, in dem Unternehmen historische bzw. ältere Informationen aufbewahren, die aus rechtlichen oder anderen Gründen gespeichert werden müssen.
Aber es geht auch immer öfter um die Art des Speichers – insbesondere um die passende Storage-Art für den individuellen spezifischen Workload, für die spezifische Infrastruktur. Und das vor dem Hintergrund sich ändernder Anforderungen sowie einer stark wachsenden Menge an zu speichernden und zu verarbeitenden Daten. Zu den kritischen Erfolgsfaktoren gehört die Wahl des richtigen Storage-Formats und eines dynamischen, richtliniengesteuerten Speicherressourcenmanagements, exemplarisch in Form von Software-Defined-Storage im Kontext eines Software-Defined-Data-Center.
Die Sache mit den Speichertechnologien
Jeder Workload, jede Anwendung oder auch jeder Prozess hängt von der zugrundeliegenden Speichertechnologie ab. Es gilt, die richtige Technologie zu finden und intelligente Verknüpfungen sicherzustellen. Die Auswahl und Zahl der Angebote sind groß: Da gibt es zum Beispiel Flash-Storage. Hierbei handelt es sich um einen extrem schnellen nichtflüchtigen Speicher, der Daten mit hoher Geschwindigkeit schreibt und zufällige I/O-Vorgänge blitzschnell durchführt. Ein nichtflüchtiger Speicher benötigt keinen Strom, um die Integrität gespeicherter Daten aufrechtzuerhalten. Also: Strom weg, Daten noch da. Flash-Storage kommt in unterschiedlichen Formen daher: Von einfachen USB-Sticks bis zu All-Flash-Arrays der Enterprise-Klasse ist alles möglich. Flash-Storage beruht auf einer Solid-State-Technologie. Wird über Flash-Technologie im Kontext mit Enterprise-Storage gesprochen, kann sowohl von Flash-Laufwerken als auch von Flash-Arrays die Rede sein. Beide Begriffe werden häufig synonym für Solid State Drive bzw. SSD verwendet. SSD wird oftmals als Ergänzung oder auch Nachfolger von auf magnetischen Platten basierenden Festplatten gesehen, also Hard-Disk-Laufwerken (HDD). Jedoch unterscheiden sich die Einsatzszenarien teils massiv. Allein deswegen stimmt die weitverbreitete Meinung nicht, dass SSDs eines Tages alle HDDs verdrängen werden. Wenn SSDs eine andere Speichertechnologie verdrängen werden, dann trifft das eher für den DRAM-Markt zu als für den HDD-Markt.
DRAM – das sind dynamische RAMs. RAM (Random Access Memory) ist ein Halbleiterbauelement, das auf einem Prozessor platziert ist, der Variablen für CPU-Berechnungen speichert. Das RAM stellt Speicherplätze für angeforderte Daten (Register) zur Verfügung. Landläufig handelt es sich hier um Arbeitsspeicher. Die Formel lautet: RAM gleich schnell. RAM werden als flüchtige Speicher (auch als „Volatile Memory“) bezeichnet. In anderen Worten: Strom weg, Daten weg.
Eine weitere Form der zu berücksichtigenden Speichertechnologie ist „Persistent-Memory“. Hierbei wird die Geschwindigkeit des Arbeitsspeichers mit den Eigenschaften anderer Speichersysteme kombiniert. Ziel: höhere Geschwindigkeit und bessere Verfügbarkeit; exemplarisch in Szenarien für künstliche Intelligenz.
Schneller Speicher: Optane von Intel (Foto: Intel)
Ein Beispiel für einen solchen schnellen Speicher ist Optane von Intel. Indem Arbeitsspeicher und Datenspeicher in einem virtuellen Laufwerk verbunden werden, werden bestimmte Prozesse wie das Laden von Programmen oder das Verarbeiten von Daten beschleunigt. Intel Optane nutzt eine Speichertechnologie namens 3D-XPoint. Die Besonderheit ist, dass die Daten im Speicher gesichert bleiben, auch nachdem die Stromzufuhr unterbrochen ist. Der Speicher agiert also wie eine SSD und nicht wie ein Arbeitsspeicher, bei dem die Daten jedes Mal gelöscht werden. Bedingt durch die Bauweise können viele Daten auf kleinem Raum gesichert werden – wie bei SD-Karten. Diese Bauweise ermöglicht auch höhere Verarbeitungsgeschwindigkeiten – ähnlich wie beim Arbeitsspeicher und schneller als bei SSDs. Mit anderen Worten: Die Vorteile von SSDs, SD-Karten und Arbeitsspeichern werden vereint, wodurch die Einsatzgebiete sehr vielfältig sind.
Aufbau einer Datenstrategie
Grundsätzlich gilt: Die IT-Abteilung muss eine intelligente Datenstrategie entwickeln, die nicht nur effizient und sicher Daten speichert, sondern die Daten auch für die Echtzeit- oder zukünftige Anwendungsnutzung vorhält. Klassisch wurden die Daten segmentiert, „gestaffelt“ beziehungsweise in einer Art Speicherhierarchie den Medien mit steigendem Kosten- und Leistungsaufwand entsprechend den Zugangs- bzw. Zugriffsanforderungen zugewiesen und gespeichert:
- Das Band gilt als billig und langsam.
- Festplatten sind preiswert und mäßig langsam.
- Solid-State-Laufwerke (SSDs) sind teurer und schneller.
- DRAM ist sehr teuer und schnell.
- Der Prozessor-Cache ist der teuerste und schnellste (aber stark begrenzte).
In anderen Worten: Bisher war die Speicherhierarchie im Rechenzentrum das vertraute DRAM-Set für die „Hot Tier“, Flash und SSD für die „Warm Tier“ und Festplatte sowie Band für die „Cold Tier“. Doch dieser Ansatz trägt nicht mehr. Moderne Anwendungen – neue Workloads – benötigen immer mehr Daten – und immer schneller. Was bedeutet das? Zunehmend größere Datenmengen sind oder wären in einer idealen Welt „heiß“. Das führt zu echten Problemen – sowohl in Sachen Kosten als auch auf technischer Ebene.
Persistent Memory wie Intels Optane Data Center SSDs, ändert das Spiel: So ermöglichen es Optane Data Center SSDs, immer mehr Daten „heiß“ zu halten. Das bedeutet: hohe Kapazität, moderate Kosten und Datenerhalt sowie neue Optionen für den Aufbau einer Datenstrategie.
Was bleibt
Für Anwenderunternehmen oft schwer zu durchschauen ist die Vielzahl der unterschiedlichen Speichertechnologien und -konzepte. Es gilt, für jeden Workload – für jeden Use-Case – die passende Technologie zu wählen. Es zeigt sich zunehmend, dass ältere Speichertechnologien den Anforderungen nicht mehr gewachsen sind und veraltete Speicherkonzepte ein Flaschenhals in modernen IT-Konzepten sind. Bei der Auswahl der Speichertechnologie muss auf ein hohes Maß an Agilität und Leistung bei gleichzeitig geringen Gesamtbetriebskosten abgezielt werden.