VMworld 2016: Die Top 3 vom Showfloor

Nicht nur VMware hat auf der VMworld Neuigkeiten vorzuzeigen, auch andere Entwickler zeigen auf dem Showfloor woran sie arbeiten. Besonders interessant sind für Unternehmen dieses Jahr CloudFabrix, Datrium und VeloStrata.

In Pocket speichern vorlesen Druckansicht
VMworld 2016: Die Top 3 vom Showfloor
Lesezeit: 5 Min.
Von
Inhaltsverzeichnis

Wie jedes Jahr gibt es neben den Neuigkeiten von VMware selbst auch 2016 auf dem Showfloor der VMworld außergewöhnliche Ideen und Konzepte zu sehen. Besonders interessant für die Unternehmens-IT und Administratoren sind die Dienste von CloudFabrix, Datrium und VeloStrata.

CloudFabrix zielt auf Perfektion bezüglich der Konfiguration von Applikationsumgebungen wie SAP, SharePoint, Oracle oder Custom Apps ab. Dazu werden die betroffenen VMs, Clouds, Netzwerke, Storage Komponenten, Prozesse, Services, Transaktionen, Benutzer Daten, externen Integrationspunkte und Firewalls in die Analyse einbezogen. Die Definition des Begriffs "Perfektion" hängt dann von Business-Zielen wie "meine E-Commerce Seite darf im schlimmsten Fall nicht mehr als 10 Minuten offline sein", "ich muss 2016 5 Prozent IT-Operationskosten sparen", "meine Entwickler müssen niemals mehr als 4 Stunden auf eine vorkonfigurierte Testumgebung warten" oder "ich muss jederzeit nachweisen können, wo die Daten meiner internationalen Nutzer abgelegt wurden und wie diese Daten gesichert wurden" ab.

CloudFabrix erkennt Abhängigkeiten von Applikationen und bewertet die Konfiguration der Gesamtumgebung im Business Kontext.

(Bild: CloudFabrix)

Beim ersten Einsatz von CloudFabrix erhält der Kunde ein Scoresheet, das jede seiner – unter Umständen hunderte – Applikationsumgebungen hinsichtlich der genannten Business-Zielen bewertet. Dieses "Zeugnis" verteilt nicht nur Noten, sondern enthält zudem genaue Anweisungen für die Administratoren zum optimalen Konfigurieren ihrer Umgebungen. Nach Ende der ersten Discovery kann man CloudFabrix als "Enforcer" einsetzen, der permanent die optimale Harmonie zwischen IT und Business-Zielen sicherstellen soll.

All dies soll weitgehend automatisch durch eine eigenständig lernende Analytics Engine in Kombination mit sogenannten Applications Fingerprints geschehen. Erstere basiert auf dem Machine-Learning-Prinzip, das Metriken zur Infrastruktur (RAM- & CPU-Auslastung, fehlgeschlagene Logins etc.), Leistung des Anwenders (wie schell und zuverlässig der Nutzer mit der Applikation arbeiten kann) und die Konfiguration der einzelnen Bestandteile der Umgebung miteinander korreliert. Das Ergebnis ist ein eigenständig lernendes System, das selbst bewerten soll, welche Konfigurationsfehler für welche Programme und für welche Anwendungsfälle relevant sind und behoben werden müssen. So bewertet eine Organisation, die die Lieferung neuer Software-Features um 25 Prozent reduzieren will, Probleme in der Continous-Delivery-Kette wesentlich singifikanter, als eine, die neue Software nur alle 6-8 Monate bereitstellt.

Datrium basiert auf dem Prinzip ungenutzte CPU-Kapazität in Servern zum Betreiben von eingebautem Commodity-Flash-Storage einzusetzen. Teure Flash Storage Arrays sind nicht notwendig. Typischerweise sollen 20 Prozent des Prozessors zum Storage Processing verwendet werden, ohne Auswirkungen auf die restliche Leistung des Systems. Entsprechend ist ein Großteil des SAN bereits kostenlos im VM-Host-Server eingebaut.

Datrium erlaubt VMs direkten Zugriff auf Server Flash Storage.

(Bild: Datrium)

Für optimale Effizienz übernimmt ein von Datrium gelieferter separater Dual Storage Controller die Hauptlast des Storage Processing. Entsprechend werden Hochverfügbarkeit, Deduplikation und Kompression zentral angepackt und belasten nicht die einzelnen Server Nodes. Letztere können sich ausschließlich mit den VMs beschäftigen.

Mit Datrium kann man linear die Kapazität erhöhen, da man einfach mehr generischen Flash-Speicher und neue generische Server hinzufügt, bis die Datrium-Appliance "voll" ist. Laut Entwickler soll man zum Preis von 6000 Euro 50 TByte an effektiver Flash-Kapazität hinzufügen können.

VeloStrata ist vordergründig eines von vielen Startups, das verspricht, Applikationen in die Cloud zu migrieren. Jedoch ist das immer ein Prozess, der das Kopieren von unmengen Daten über das WAN mit sich bringt.

Der Ansatz, der VeloStrata zu einem der angesagtesten Startups im Silcon Valley gemacht hat, ist hingegen ein anderer. Scheinbar haben die Entwickler die Regeln der Enterprise-Architektur außer Kraft gesetzt, indem VMs ausschließlich CPU, RAM und Netzwerk-Ressourcen der Public Cloud – zur Zeit per Amazon oder Azure – nutzen, während der Storage lokal bleibt. Dabei trennt VeloStrata die VM von ihrer VMDK (Virtual Machine Disk).

VeloStrata trennt den Storage von der VM.

(Bild: VeloStrata)

Das Prinzip dahinter: VeloStrata analysiert alle VMs einer Applikationsumgebung und fertigt eine Block-Level Heat Map für deren Storage I/O an. Basierend auf dieser Heatmap entscheidet die Software, ob sie einen Block in die Public Cloud transferieren muss oder ob er weiterhin auf lokalem Storage verbleiben kann. Dies führt dazu, dass die Public Cloud nur bestimmte Blocks cachen muss und andere in bestimmten Situationen temporär transferiert (pre-fetching), um die Leistung zu garantieren.

Diese Trennung von VMs und deren Storage ermöglicht laut VeloStrata die Migration von ganzen Applikationsumgebungen innerhalb weniger Minuten. Sollten sie in der Cloud nicht die gewünschte Leistung zeigen, zieht das System automatisch mehr Blocks nach, um die Storage-Latenz zu verringern.

VeloStrata gibt Kunden also die Flexibilitaet um "schnell mal was in der Amazon- oder Azure-Cloud auszutesten" oder gleich ganze Produktivumgebungen ohne Downtime in die Cloud zu verschieben. Damit würde sich eines der uralten Verprechen der Cloud endlich erfüllen: Cloud Bursting, also der Sprung in die Public Cloud, wenn die eigenen Kapazitäten nicht mehr genügen. Dabei ist es natürlich wichtig, dass man auf Knopfdruck alles wieder zurück ins eigene Rechenzentrum holen kann.

Siehe dazu auch: