Teilerfolg
Hosting-Kunden, die sich Hardware mittels Virtualisierungstechnik teilen, sparen Geld und Energie und haben dennoch das GefĂĽhl, der eigene Herr im Haus zu sein. Ob vHosts darĂĽber hinaus fĂĽr anspruchsvolle Anwendungen taugen, zeigt ein anonym durchgefĂĽhrter Vergleichstest.
- Marcus Proest
Server mit vollen Root-Rechten bieten weit mehr Möglichkeiten als traditionelle Webangebote. Die Flexibilität, genau die nötige Software zu installieren und mit genau der Linux-Distribution zu arbeiten, die einem am besten liegt, gibt für viele Administratoren den Ausschlag. Zudem bietet eine eigene Maschine die Möglichkeit der komplett eigenen Verwaltung von E-Mail-Adressen inklusive Anti-Spam-Maßnahmen, den Einsatz einer oder mehrerer eigener IP-Adressen sowie die Kontrolle des DNS-Namensraumes der eigenen Domain.
Dedizierte Mietserver sind jedoch recht teuer, die preiswertesten Angebote schlagen bereits mit einem Vielfachen dessen zu Buche, was fĂĽr klassischen Webspace zu veranschlagen ist. Nach einer Phase der Dumping-Angebote ziehen die Preise ĂĽberdies wieder an. Als Alternative haben sich in den letzten Jahren virtualisierte Mietserver etabliert. Sie sind preiswerter zu bekommen als ihre realen GegenstĂĽcke und bieten dennoch fast komplette Freiheit.
Virtualisierung verteilt die Leistung eines realen Rechnersystems auf viele virtuelle Systeme. Dies geschieht durch die Nutzung einer Virtualisierungsschicht, die dem virtuellen System eine echte Hardware vorgaukelt und die wirklichen Ressourcen auf die virtuellen Maschinen verteilt. Dadurch können viele verschiedene User ihren eigenen Bereich nutzen. Jedoch entspricht die Leistung der einzelnen virtuellen Maschine nur einem Bruchteil der Leistung einer echten.
Hier haben die virtuellen Serverangebote ihren Haken: Welche Leistung sie ganz real bieten, bleibt meist im Dunkeln. Die Angebote sind nicht nur in ihrer preislichen Gestaltung sehr unterschiedlich, auch die angegebenen Leistungswerte schwanken beträchtlich und sind oftmals unklar oder schwer verständlich angegeben.
Worauf es ankommt
Den Betreiber eines Servers interessieren im Wesentlichen vier Eckpunkte der Leistungsfähigkeit: CPU-Takt, Arbeitsspeicher, Festplattenplatz und Netzanbindung. Bei realen Servern sind diese Werte - bis auf die Netzanbindung, die immer von vielen Einflüssen abhängt - relativ klar zu bestimmen. vServer-Kunden jedoch teilen sich die Leistung der Hardware mit einer zunächst unbekannten Zahl von Konkurrenten. Während sich der Festplattenplatz fest einteilen lässt, wird es bei RAM und CPU schon deutlich schwieriger, da diese Ressourcen dynamisch zuzuteilen sind.
Arbeitsspeicher garantieren vServer-Anbieter in einer bestimmten Menge. Die meisten geben zusätzlich an, wie viel RAM die virtuelle Maschine maximal belegen kann, wenn es dem Host-System zur Verfügung steht. Dies ist insbesondere bei kurzzeitigen Lastanstiegen relevant, beispielsweise wenn erhöhter Traffic weitere Apache-Prozesse benötigt. Die Menge des Arbeitsspeichers beeinflusst die Leistung des Systems beträchtlich. Die 128-MByte-Grenze durchbricht ein als Webserver mit Datenbank konfiguriertes Gerät locker, schnell wird auch das Doppelte daraus.
Die CPU-Leistung schwankt mit der Leistung, die alle virtuellen Instanzen auf dem Wirtssystem beanspruchen, und ist durch einen Maximalwert begrenzt. Insbesondere hier tun sich die Anbieter schwer, Aussagen zur voraussichtlichen Leistung zu machen. Die Reaktionsgeschwindigkeit des Rechners hängt direkt von diesem Wert ab, was insbesondere bei der Antwortzeit eines Webservers eine Rolle spielt.
Bei der Netzanbindung interessieren die Laufzeiten der Pakete und der Jitter, also die Varianz der Laufzeiten untereinander. Diese hängen immer von allen Netzen ab, die das Paket auf dem Weg von der Quelle zum Server durchquert. Jedoch lässt sich durch einen Vergleich durchaus eine interessante Aussage ableiten.
Anonymer Hosting-Test
Alle im vorliegenden Test genannten Systeme wurden anonym, also nicht direkt durch die iX-Redaktion, angemietet. Es kamen Verfahren zum Einsatz, die neben dem tatsächlich verfügbaren RAM die Leistung des zugewiesenen CPU-Kontingents messen. Zusätzlich mussten sich die Systeme über einen Zeitraum von mehreren Wochen als LAMP-Server bewähren, einer üblichen Konfiguration für virtuelle Server. Dem Test der Netzanbindung diente ein ping. Bis auf den vServer von 1&1 liefen alle Systeme unter Debian; 1&1 bot allein Suse 9.3 als Image an.
Eine virtuelle Maschine bietet zwar viele Freiheiten, beschränkt jedoch zwangsläufig den direkten Zugriff auf tiefere Systemebenen, etwa auf das Gerät /dev/mem. Das Tool nmap zeigt in virtuellen Umgebungen zwar interessante Werte des Host-Systems an, die aber keine Auskunft über die Ausstattung des virtuellen Servers geben.
Wer den wirklich verfügbaren Arbeitsspeicher eines Systems herausfinden will, muss nachzählen. Beim RAM-Test wurden bis auf die notwendigen Prozesse alle Programme beendet. Die für den Test erforderlichen Prozesse, etwa der SSH-Server, nahmen etwa 10 bis 20 MByte in Anspruch. In diesem Zustand belegte ein kleines C-Programm nach und nach Speicher, bis die Systeme keinen mehr bereitstellten. So ließ sich auf einige MByte genau klären, wie viel RAM im Extremfall wirklich zur Verfügung steht (siehe Tabelle). Die im Laufe des Testzeitraums mehrmals durchgeführten RAM-Zählungen wichen kaum voneinander ab, was dafür spricht, dass die Anbieter die Gratwanderung zwischen Zusage und Realität recht gut ausbalanciert haben.
| Arbeitsspeicher: Versprochen vs. gemessen | |||
| Produkt | RAM garantiert [MByte] | dynamisch lt. Anbieter [MByte] | gemessen [MByte] |
| 1&1 XL | 256 | 512 | 476 |
| 1blu Power | 200 | 1 000 | 1 043 |
| FirstDedicated XL | k.A. | k.A. | 994 |
| Host Europe VPS Linux L 2.0 | 256 | 768 | 771 |
| Lycos 512 | 256 | k.A. | 3 056 |
| Netfabrik vServer Small | k.A. | k.A. | 225 |
| Strato V-PowerServer C | 256 | 700 | 910 |
| Webtropia Virtual Expert | k.A. | k.A. | 357 |
Virtuelle Server, echte Last
Die freie Linux-Portierung nbench des bekannten BYTEmark-Benchmarks führt diverse Rechenoperationen durch, beispielsweise zum Sortieren oder Verschlüsseln. Diese Tests provozieren sowohl eine starke Auslastung des Servers als auch umfangreiche Datenbewegungen innerhalb des Arbeitsspeichers. Aus den Tests ergeben sich Kennzahlen für die Leistung von Speicherbewegungen, Gleitkomma- und Ganzzahl-Operationen (siehe Tabelle „Testläufe mit nbench“).
| Testläufe mit nbench | ||||
| Produkt | Memory Index | Integer Index | Floating Point Index | Summe |
| 1&1 XL | 15,14 | 12,59 | 23,63 | 51,36 |
| 1blu Power | 13,69 | 12,02 | 18,73 | 44,44 |
| FirstDedicated XL | 6,47 | 5,75 | 10,08 | 22,3 |
| Host Europe VPS Linux L 2.0 | 10,3 | 7,73 | 14,98 | 33,01 |
| Lycos 512 | 14,7 | 13,25 | 22,19 | 50,14 |
| Netfabrik vServer Small | 9,98 | 9,3 | 13,58 | 32,86 |
| Strato V-PowerServer C | 12,57 | 9,18 | 19,39 | 41,14 |
| Webtropia Virtual Expert | 12,76 | 10,21 | 15,49 | 38,46 |
Darüber hinaus belastete Siege die Server. Das Tool stellt viele Anfragen zugleich und protokolliert die Antwortzeiten. Es lief mehrere Wochen lang und lud zufällig gewählte Webseiten von einem Apache2-Server. Die PHP-Seiten führen verschiedene Operationen auf einem MySQL-Server aus. Die Software lief jeweils im Auslieferungszustand des Host nach dem Installieren mittels apt-get respektive YaST.
Siege lief mit zehn zugleich offenen Verbindungen im Benchmark- und im Internet-Modus. In letzterer Betriebsart lädt die Software ohne Wartezeiten zufällig aus einer Liste gewählte URLs. Die Webseiten führen einige stark belastende MySQL-Anfragen aus. Die Datenbank besteht aus einer Tabelle mit 20 000 Zeilen, die jeweils eine Indexzahl sowie einen 16 KByte großen, zufälligen String enthalten. Die PHP-Webseiten führen auf der Datenbank verschiedene Operationen jeweils 256-mal aus.
Die Auswahl besteht aus der Abfrage und Rückgabe des Strings, der Abfrage des Strings ohne eine Rückgabe, der Abfrage des Strings und Vorhalten der Daten der 256 Wiederholungen im Speicher sowie der Abfrage des Strings mit anschließender Verarbeitung der Daten durch den SHA1-Algorithmus. Zusätzlich führt eine Website ein Update mit einem 16-KByte-Zufalls-String auf einer Zeile aus. Löschen und Einfügen von Zeilen fanden bewusst nicht statt, um die Größe der Datenbank konstant zu halten. Alles in allem also ein sehr belastender Test für die CPU, den Speicher und auch die Festplatte, auf die die Datenbank letztlich zugreift, zumal zusätzlich die Testsoftware selbst auf dem System lief, um eine Verfälschung der Ergebnisse durch unterschiedliche Netzanbindungen zu vermeiden.
Der Test lief jeweils 15 Minuten lang über mehrere Wochen hinweg. Insgesamt basiert das Ergebnis auf mehr als 1500 Datensätzen pro System. Hier zeigt sich insbesondere die Gesamtleistung des Systems, auch bezogen auf die Leistung der Festplatte und des Arbeitsspeichers.
Den vollständigen Artikel finden Sie in der aktuellen Printausgabe. (un)