Kongress lotet Grenzen des Internets aus
"Beyond the Borders" überschreibt der eco-Verband den am heutigen Tag in Köln eröffneten Branchenkongress. Am Vormittag ging es um technische Herausforderungen und effizientes Energiemanagement für Rechenzentren.
Unter dem Motto Beyond the Borders ergründet der Verband der deutschen Internetwirtschaft eco heute in Köln die Grenzen, denen sich Provider und IT-Wirtschaft stellen müssen. Bevor es am Nachtmittag um hochpolitische Fragen geht, standen zunächst technische Fragen auf der Tagesordnung.
Immer wieder in der Diskussion sind Anforderungen an Rechenzentren und Infrastruktur. Dieter Schramm, Physiker im Dienste des Computerkonzerns Dell, stellte vor gut 100 Zuhörern das Rechenzentrum der Zukunft vor. "70 Prozent des IT-Budgets werden gebunden, um die IT in Betrieb zu halten", dabei bleibe zu wenig Geld für Innovationen und Erneuerungen übrig. Besonderes Augenmerk bei Dell liegt natürlich auf der Energieeffizienz der Server und der Kühlung.
Um diese Effizienz zu steigern, plädiert der Hersteller und IT-Dienstleister für eine Renaissance des Gleichstroms. Mit Wechselstrom kämen nur 54 Prozent der Energie tatsächlich bei CPU, Festplatte und Speicher an. Mit Gleichstrom sei dieser Wert bis auf 76 Prozent zu steigern. Problematisch seien die heute verbreiteten Rechenzentren, die oft vor 10 bis 15 Jahren gebaut wurden. Rechenleistung, die im Jahr 2000 auf 25 Racks verteilt war, ist heute in einem einzigen Rack konzentriert. "Für diese Energiedichten waren die Rechenzentren aber gar nicht gebaut", erklärte Schramm.
Für mehr Effizienz müssten Unternehmen ihre Rechenzentren genau analysieren. "Was man nicht messen kann, kann man nicht managen". In normalen Rechenzentren werde derzeit für jedes Watt Rechenleistung 2,3 Watt für Strom und Kühlung verwendet. Um diesen Wert zu steigern, propagiert Dell eine bessere Trennung der kalten und warmen Luftströme in Rechenzentren. Ein weiterer wesentlicher Faktor zur Energieeffizienz sei ein höherer Temperaturunterschied. Wenn man den Servern kühlere Luft zuführe, könne man beträchtlich Energie sparen – und auch die Mitarbeiter in den Rechnerräumen würden es danken.
Einen etwas anderen Blick auf Rechenzentrums-Effizienz bot Gerhard Leo Büttner vom Design Institut München, der schon seit Beginn der Achtzigerjahre Rechenzentren einrichtet. Damals waren Energiedichten von 200 bis 400 Watt pro Rack üblich, derzeit seien die Serverschränke an den Grenzen der Luftkühlung angelangt. Werde zu kalte Luft zu schnell durch die Hardware geleitet, komme es zur Tröpfchenbildung. Stattdessen sei die Kühlung mit dichteren Kühlmitteln angesagt. "Wenn Sie die Möglichkeit haben, Wasser zu nutzen, nutzen Sie es."
Als Energiesparer hat Büttner die freie Kühlung identifiziert, bei der die Außenluft verwendet wird – in zehn Monaten pro Jahr sind die Außentemperaturen niedrig genug. Nachteil: "Was wirtschaftlich ist, ist häufig anfällig und nicht sicher." Wer beispielsweise mit Brunnenwasser kühle, habe ein sehr wirtschaftliches System, müsse aber parallel noch konventionelle Kühltechnik als Backup aufbauen. Wie Dell empfiehlt auch Büttner den konsequenten Einsatz von Virtualisierung zur Konsolidierung von Rechenzentren. "Was man abschalten kann, sollte man abschalten." In der Praxis beobachte er immer wieder, dass 10 bis 15 Prozent der Server unnötig Energie verbrauchen.
Eine Grenze bei der Konstruktion neuer Rechenzentren sei auch die vorhandene Technik: Schaltanlagen seien bei 4,5 Megawatt begrenzt. Wer mehr Energie verbrauche, müsse mehrere parallele Stromnetze aufbauen – mit enormen Nachteilen. Unlösbar seien die Probleme allerdings nicht, so gebe es keine festen Grenzen, sondern nur neue Herausforderungen.
Eine andere Knappheit thematisierte Frank Orlowski, Manager beim Frankfurter Netzknoten DE-CIX. Dass der Traffic durch die höhere Breitbandpenetration ungebremst zunehme, sieht Orlowski im Gegensatz zu einer oft zitierten Studie als kein akutes Problem. Fakt sei: Das Internet funktioniere, und das enorme Wachstum habe schon immer zum Geschäft des DE-CIX gehört. Zwar sei der Traffic in Frankfurt höher als das, was die Hardware des Herstellers Cisco bewältigen konnte. Durch einen Wechsel des Hardwareanbieters wurde dieses Problem aber gelöst.
Viel ernster sei eine andere Entwicklung: "Ein echtes Problem ist, dass uns die IPv4-Adressen ausgehen." Zwar würden schon viele Netzknoten und Provider bereits Ipv6 verwenden – dies seien aber in der Regel nur Testinstallationen und keine Arbeitssysteme. Der IPv6-Traffic bewege sich noch im Promillebereich: "Die meisten Provider beschäftigen sich unserer Meinung nach nicht intensiv genug mit dem Thema", erklärte Orlowski. (Torsten Kleinz) / (vbr)