Meerwasser kühlt Server
Google baut eine alte finnische Papierfabrik zum Rechenzentrum um und lässt auf einer Konferenz auch Konkurrenten über innovative Kühlkonzepte berichten.
Cloud Computing und andere Internet-Dienstleistungen laufen in teils gigantischen Rechenzentren, die Unmengen von Strom schlucken – nicht nur für die eigentlichen Server, Storage- und Netzwerkgeräte, sondern auch für die Kühlung. Hinzu kommen noch Verluste bei der (unterbrechungsfreien) Stromversorgung. Große Web-Unternehmen wie Google, Amazon, eBay, Facebook, Microsoft oder Yahoo zahlen jährlich Energiekosten in mehrstelliger Millionenhöhe; gleichzeitig besitzen sie jeweils zahlreiche Rechenzentren und betreiben abertausende von Servern parallel, also mit hoher Redundanz. Deshalb riskieren sie Investitionen in innovative, aber wenig erprobte Kühlverfahren, die große Einsparungen und damit auch Wettbewerbsvorteile versprechen.
In St. Ghislain nahe dem belgischen Mons betreibt Google seit rund zwei Jahren ein Rechenzentrum, das völlig ohne Kältemaschinen auskommt. Durch die Verdampfung und das Verrieseln von vorgereinigtem Wasser aus einem Industriekanal wird dort die warme Luft der Server gekühlt. Dabei lässt Google im Rechenzentrum höhere Lufttemperaturen zu als üblich und nimmt auch in Kauf, die Last an besonders heißen Sommertagen für einige Stunden reduzieren zu müssen.
In Finnland setzt Google auf ein anderes Konzept: Die alte Papierfabrik in Hamina liegt direkt am Finnischen Meerbusen. Durch den Fels unter dem Werk führt ein Tunnel, um Kühlwasser aus dem Meer zu pumpen. Das will Google nutzen, um Wärmetauscher für das Rechenzentrum zu speisen.
Ähnliche (Süß-)Wasserkühlungen haben andere Firmen bereits im Einsatz, etwa der Webhoster Plusserver: Im Rheinhafen von Straßburg – französischer Atomstrom ist vergleichsweise billig, [Update] aber das Datadock nutzt zu 100 Prozent Ökostrom von Energies Strasbourg [/Update] – wurde aus einem alten Lagerhaus ein modernes Rechenzentrum, das tiefe Grundwasserbrunnen anzapft. Die schweizerische DeepGreen wiederum saugt Wasser in 60 Meter Tiefe aus dem Walensee und speist es leicht erwärmt 30 Meter höher wieder zurück.
Die Leistungsaufnahme der benötigten Wasserpumpen ist jeweils winzig im Vergleich zum Energiebedarf klassischer Kältemaschinen, die in herkömmlichen Rechenzentren arbeiten (Computer Room Air Conditioner/CRAC). Im Durchschnitt verbraten typische Rechenzentren für Kühlung und Versorgung eine zusätzliche Energiemenge, die 100 bis 140 Prozent des eigentlichen Server-Bedarfs entspricht. Insgesamt zieht das Rechenzentrum dann also das 2- bis 2,4-fache der Leistungsaufnahme der Server aus dem Stromnetz. Man spricht von einer Power Usage Efficiency (PUE) von 2 bis 2,4.
Für den Standort St. Ghislain nennt Google hingegen einen PUE-Wert von 1,16 im Mittel über den Verlauf der letzten zwölf Monate (Trailing Twelve Months/TTM); weil die PUE schwankt, etwa in Abhängigkeit von Außentemperatur, Luftfeuchtigkeit oder Serverlast, sind nur langfristige Mittelwerte vergleichbar.
Microsoft experimentiert mit einem anderen Ansatz, der direkten Luftkühlung. Es klingt zunächst trivial, schlichtweg Außenluft durchs Rechenzentrum zu blasen, doch diese muss je nach Belastung aufwendig gefiltert werden, möglicherweise auch be- oder entfeuchtet, um einerseits bei Trockenheit elektrostatische Entladungen (ESD) zu vermeiden und andererseits Korrosion. Eine Kühlung der angesaugten Luft war in Irland bisher nicht nötig, weil auch Microsoft höhere Temperaturen der Server hinnimmt; der italienische Fertigungspartner Saiver baut aber in die luftgekühlten Server-Container auch eine Wasser-Verdampferkühlung ein, die man an heißen Tagen zuschalten kann.
Selbstverständlich arbeitet man auch an der Optimierung der Server selbst; kürzlich hatte Facebook im Rahmen des Open Compute Project Spezifikationen für effiziente Hardware veröffentlicht. Je nach Anbieter sind hier aber äußerst unterschiedliche Lösungen sinnvoll. Einen Extrempunkt markierte Ex-Sun-Mitarbeiter Dean Nelson, der nun den rasend schnell wachsenden Rechen- und Speicherbedarf von eBay stillen muss. Während andere besonders sparsame Systeme propagieren, setzt er auf besonders dicht gepackte Blade-Systeme mit hoch taktenden Prozessoren, die er sogar noch übertakten würde, um den optimalen Betriebspunkt zu erreichen. Doch mehr als 28 Kilowatt, so seine Erfahrung, sind mit Standardtechnik nicht zuverlässig in einem Rack kühlbar. Alle zwei Jahre werden die eBay-Server ausgetauscht, um mehr Rechenleistung pro Watt zu erhalten – Google hingegen berichtet über längere Zyklen, die zudem je nach Einsatzzweck der Maschinen eingeschätzt würden. Bei Banken oder Telekommunikationsdienstleistern wiederum sind teilweise uralte Geräte im Einsatz.
Auf Googles European Data Center Summit in Zürich berichteten noch andere Firmen über ihre Erfahrungen, darunter auch Colocation-Hoster, die auf klassische Kühlung angewiesen sind. Die Fachleute waren sich aber einig, dass man oft schon mit einfachen Mitteln – etwa der Trennung warmer und kalter Luftströmungen mit simplen Lamellenvorhängen (Video) oder mit CRAC-Blechaufsätzen – viel Energie sparen kann. Auch Beispiele für Abwärmenutzung und die auch beim SuperMUC geplante Heißwasserkühlung wurden diskutiert. Google-Fellow Urs Hölzle wiederum hob hervor, dass Strom aus erneuerbaren Quellen die CO2-Bilanz der Rechenzentren verbessert – Google betreibt einige Rechenzentren nahe an Wasserkraftwerken sowie Windkraftanlagen und investiert massiv in Windparks und Solaranlagen. Durchaus im eigenen Interesse: Langfristige Lieferverträge sorgen für kalkulierbare Strompreise. Mit grünem Strom und kühler, sauberer Luft wirbt auch der Colocation-Anbieter Verne Global – aus Island. (ciw)