Das Koomey'sche Gesetz

Nicht nur die Leistungsfähigkeit von Rechnern verdoppelt sich alle 18 Monate, sondern auch deren Energieeffizienz, hat eine neue Studie herausgefunden.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Lesezeit: 4 Min.
Von
  • Kate Greene

Nicht nur die Leistungsfähigkeit von Rechnern verdoppelt sich alle 18 Monate, sondern auch deren Energieeffizienz, hat eine neue Studie herausgefunden.

Das berühmte Moore’sche Gesetz besagt, dass sich die Leistungsfähigkeit von Prozessoren etwa alle 18 Monate verdoppelt. US-Forscher haben nun nachgerechnet, dass diese seit sechs Jahrzehnten beobachtbare Gesetzmäßigkeit auch für die Energieeffizienz von Rechnern gilt: Sie verdoppelt sich ebenfalls alle 18 Monate.

„Bei einer definierten Rechenlast halbiert sich die nötige Batterieleistung alle eineinhalb Jahre“, beschreibt Jonathan Koomey von der Stanford University, der Hauptautor der Studie, die Schlussfolgerung aus der neuen Beobachtung. Für die Untersuchung arbeitete er mit Ingenieuren von Intel, Microsoft und der Carnegie Mellon University zusammen.

Dabei zogen die Forscher Daten zum Spitzen-Energieverbrauch von elektronischen Rechnern seit dem ENIAC – kurz für: „Electronic Numerical Integrator and Computer“ – von 1956 heran. Der ENIAC war als erster Allzweck-Rechner für das US-Militär gebaut worden, um die Flugbahnen von Artilleriegeschossen zu berechnen. Er arbeitete noch mit Elektronenröhren statt Transistoren, belegte eine Grundfläche von 167 Quadratmetern und hatte eine Leistung von 150 Kilowatt. Seine Rechenleistung lag bei einigen hundert Operationen pro Sekunde.

Die neu gefundene Gesetzmäßigkeit einer Verdoppelung der Energieeffizienz alle 18 Monate gelte auch für diese alte Rechnergeneration vor der Einführung des Transistors, sagt Koomey. „Es handelt sich um eine fundamentale Eigenschaft von Informationstechnologien, die Elektronen zum Schalten benutzen“, so der Stanford-Ingenieur. „Die Rate ist nicht nur eine Funktion der Komponenten auf einem Chip.“ In die Effizienzsteigerung gingen auch ingenieurwissenschaftliche Überlegungen ein, etwa die Geschwindigkeit, mit der Bauteile miteinander kommunzieren oder deren Größe.

Bereits im Juli hatte Koomey einen Bericht veröffentlicht, in dem er zeigte, dass der Stromverbrauch in den Rechenzentren weltweit zwischen 2005 und 2010 um 56 Prozent zugenommen. Deutlich weniger als erwartet, denn im vorherigen Fünfjahresabschnitt 2000 bis 2005 hatte sich der Stromverbrauch noch verdoppelt.

Dass die Rechenzentren 2010 weniger Energie verbrauchten als zuvor prognostiziert, liegt nur zum Teil an einer größeren Energieeffizienz neuer Maschinen. Ein weiterer Grund ist, dass weniger neue Server installiert wurden als erwartet. Stattdessen setzten Betreiber von Rechenzentren stärker als vorher auf die Technik der so genannten Virtualisierung, mit der vorhandene Geräte mehr Programme parallel laufen lassen können. Rechenzentren würden nur selten unter Höchstlast laufen, fügt Koomey hinzu. Im Gegenteil seien viele Rechner „total unausgelastet“.

In den verbesserten Daten zum Stromverbrauch zeigt sich auch ein Trend der letzten Jahre: Die IT-Welt versucht nicht mehr, nur die Hardware-Leistung voranzutreiben, sondern auch die Effizienz. Denn mit dem Siegeszug von Smartphones und anderen mobilen Geräten, die nicht permanent an der Steckdose hängen können, ist die Batterielaufzeit wichtiger geworden.

Seit der Einführung der Intel-Core- Prozessorarchitektur 2006 habe es in dem Unternehmen einen regelrechten „Umbruch“ gegeben, sagt Lorie Wigle, Managerin des Umwelt-Technik-Programms bei Intel. „Während wir uns lange um Leistung und Batterielaufzeit separat gekümmert haben, rücken beide Punkte nun näher zusammen.“

Das Moore’sche Gesetz allein zähle nicht mehr so viel wie früher, hat auch Erik Brynjolfsson von der Sloan School of Management am MIT beobachtet. Die Batterielaufzeit werde für Verbraucher immer wichtiger. „In dieser Hinsicht könnte das ‚Koomey’sche Gesetz’ dem Moore’schen Gesetz den Rang ablaufen“, meint Brynjolfsson.

Für Koomey ist nicht so sehr die neu gefundene Gesetzmäßigkeit selbst interessant, sondern die Frage, was in der Computertechnik noch möglich ist. Die Grenze der Energieeffienz ist jedenfalls noch lange nicht ausgereizt: Der Physiker Richard Feynman kam 1985 in einer theoretischen Berechnung zu dem Ergebnis, dass die Energieeffizienz von herkömmlichen Computern sich noch um einen Faktor von 100 Milliarden steigern lässt, bevor eine physikalische Grenze erreicht ist. Für Quantencomputer gilt die Rechnung im Übrigen nicht. Seit 1985 ist die Energieeffizienz erst um das 40.000-fache gestiegen. „Da geht also noch sehr viel“, sagt Koomey. „Nicht die Physik ist die Grenze, sondern unsere Raffinesse.“ (nbo)