Sichere Virtualisierung: Viel Lärm um beinahe nichts?

Nach Ansicht des Virtualisierungsexperten Christopher Hoff verkomplizieren IT-Verantwortliche das Erstellen eines Sicherheitskonzepts für virtualisierte Umgebungen in der Praxis allzu oft. Nicht selten werde über völlig theoretische Gefahren diskutiert.

In Pocket speichern vorlesen Druckansicht 54 Kommentare lesen
Lesezeit: 3 Min.
Von
  • Uli Ries
  • Daniel Bachfeld

Während einer Podiumsdiskussion im Rahmen der bis Freitag andauernden IT-Sicherheitskonferenz RSA Conference 2009 stellte der streitbare Virtualisierungsexperte Christopher Hoff klar, dass IT-Verantwortliche das Erstellen eines Sicherheitskonzepts für virtualisierte Umgebungen in der Praxis allzu oft verkomplizieren. Insbesondere die von den Herstellern gebetsmühlenartig angepriesene Funktion der mobilen virtuellen Maschinen (VM), beim Platzhirsch VMware VMotion genannt, spiele im Alltag laut Hoff kaum eine Rolle.

Unterstützt wurde diese Aussage von den Zuhörern: Zwar setzen geschätzte 85 Prozent auf den Hypervisor von VMware, aber lediglich eine Handvoll dieser Anwender nutzt auch VMotion. Das veranlasst Hoff und seinen Mitdiskutanten David Shackleford, Chief Security Officer von Configuresoft zu dem Ratschlag, die durch den konsequenten Einsatz von VMotion drohende Komplexität nicht überzubewerten, da das Tool wahrscheinlich eh nicht genutzt werde.

Gleichzeitig warnen die Experten einstimmig davor, zu viele Aspekte rund um die Virtualisierung in einen Topf zu werfen. Laut Hoff führt es zu nichts, wenn die drei relevanten Punkte nicht getrennt behandelt werden: Absichern des Hypervisors, Absichern der virtuellen Maschinen und Einsatz von Virtualisierung als Sicherheitsmaßnahme. Fehlt die Trennung, dann droht laut Hoff das Chaos: Das endet dann darin, dass irgendein Naseweis das Schlagwort Blue Pill in den Raum wirft und alle über völlig theoretische Gefahren diskutieren, die mit der eigenen Infrastruktur gar nichts zu tun haben.

Einig sind sich Hoff und Shackelford auch bei ihrer Kritik an den führenden Herstellern von Hypervisoren. Denn diese stellen laut Shackleford immer noch keine Dokumente bereit, die den Umgang mit virtualisierten Storage- und Netzwerkkomponenten erklären. Selbst der ebenfalls an der Diskussion beteiligte VMware-Verteter mochte nicht widersprechen und gab zu, dass es noch keine Unterlagen hierzu gebe. Dabei sind diese Themen unter Umständen ungleich komplexer als die Virtualisierung von Servern, so dass Best-Practice-Dokumente nötiger sind denn je.

Insbesondere die ständig größer werdende Anzahl von virtuellen Netzwerkkomponenten sieht vor allem Hoff mit Sorge: Neben dem virtuellen Switch des Hypervisors finden sich in virtualisierten Umgebungen demnächst noch physikalische Netzwerkkarten, die selbst virtualisieren können, virtuelle Switches von Drittherstellern, Netzwerkinfrastruktur, die wie Ciscos Nexus selbst virtualisiert und nicht zuletzt der Direktzugriff der VMs auf die eigentliche Netzwerkhardware des Servers.

Angesichts dieser geballten Menge an aktiven Netzwerkkomponenten rätseln Hoff und Shackleford, wie die IT-Fachleute im Problemfall die Ursache des Problems identifizieren sollen. "In diesem Fall frage ich mich, wo das Netzwerk eigentlich nicht ist?", meinte Hoff. Um im Problemfall nicht völlig hilflos dazustehen, rät Shackleford vor dem Start des Virtualisierungsprojekts mit dem jeweiligen Hersteller zu klären, ob die bisher verwendete Software wie Netzwerkanalysetools oder Patchmanagement-Anwendung auch in virtualisierten Umgebungen funktionieren. (Uli Ries) / (dab)