Missing Link: Grenzen bei Energiebedarf und Geschwindigkeit von Prozessoren - Thermodynamik und IT

Um den steigenden Ressourcenbedarf der Informationsgesellschaft einzudämmen, braucht es neue Ansätze. Das berührt auch fundamentale physikalische Grenzen.

In Pocket speichern vorlesen Druckansicht 170 Kommentare lesen
Missing Link: Grenzen bei Energiebedarf und Geschwindigkeit von Prozessoren

(Bild: Connect world/Shutterstock.com/heise online)

Lesezeit: 15 Min.
Von
  • Jan Klärs
Inhaltsverzeichnis

Dieser Artikel wurde zuerst abgedruckt im Physik Journal 19, 2020.

Die Digitalisierung unserer Gesellschaft hat eine allgegenwärtige Informationsverarbeitung entstehen lassen. Mobiltelefone, Laptops, Arbeitsplatzrechner, smarte Haushaltsgeräte sind der sichtbare Teil dieser gigantischen Informationsmaschine. Weniger sichtbar, wenngleich für den reibungslosen Betrieb unerlässlich, ist die Infrastruktur, die für die Vernetzung all dieser Geräte verantwortlich ist. Mobilfunk und glasfaserbasierte Netze ermöglichen heutzutage einen noch nicht dagewesenen Informationsaustausch.

Dass wir enorme Energiemengen für den Unterhalt dieser Technologien bereitstellen müssen, ist eine der Kehrseiten dieser Entwicklung. Der Internetkonzern Google hat berechnet, dass die Verarbeitung einer Suchanfrage genauso viel Energie verbraucht wie das Leuchten einer 60-Watt-Glühbirne für 17 Sekunden. Dabei sollte man sich vor Augen führen, dass Google im Jahr 2016 rund 3,3 Billionen Suchanfragen verarbeitet hat, sodass diese insgesamt rund 900 Millionen Kilowattstunden Strom verbrauchen. Das entspricht dem Stromverbrauch von 300.000 Haushalten mit zwei Personen.

Ein Ansatz, um den Energieverbrauch zur Kühlung von Datenzentren zu reduzieren, ist, diese im Meer zu versenken.

(Bild: Microsoft)

Was aber passiert mit der Energie, die eine große Serverfarm für das Verarbeiten von Suchanfragen verbraucht? Das Beispiel der Glühbirne gibt auch hier Aufschluss. Letztlich gelangt diese Energie als Wärme in die Umgebung. Daher gilt es, Serverfarmen aktiv zu kühlen, etwa durch kaltes Meerwasser, wie es im Projekt Natick von Microsoft der Fall ist. Eine bessere Lösung wäre es natürlich, das Entstehen von Abwärme so weit wie möglich zu verhindern. Hier gab es durch die fortschreitende Miniaturisierung von integrierten Halbleiterschaltkreisen in den letzten Jahrzehnten enorme technologische Fortschritte.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Generell teilt sich die Energiedissipation in CPUs in zwei ungefähr gleich wichtige Beiträge: eine statische Verlustleistung verursacht durch Leckströme und dynamische Verluste durch Schaltprozesse. Die dynamischen Verluste entstehen dann, wenn Logikgatter ihren Zustand verändern.

Mehr Infos

Dr. Jan Klärs studierte an der RWTH Aachen und promovierte 2011 an der Universität Bonn im Institut für Angewandte Physik. Darauf folgten Postdoc-Aufenthalte in Bonn und am Institut für Quantenelektronik an der ETH Zürich. Seit 2017 ist er Assistant Professor für Nanophotonik am Lehrstuhl für Komplexe Photonische Systeme an der Universität Twente in den Niederlanden. Er forscht zur Thermodynamik von nanoskaligen optischen und optomechanischen Systemen und zu optischen Spin-Glas-Simulatoren.

Physikalisch geschieht dies durch das Auf- oder Entladen von Kapazitäten innerhalb des Gatters, was mit Energieverlusten verbunden ist. Die für einen Schaltprozess notwendige Energie hat sich in den letzten Jahrzehnten um viele Größenordnungen verringert. Während der erste Intel-Pentium-Prozessor von 1994 noch eine Schaltenergie von etwa 130 Femtojoule aufwies, unterschritten Prozessoren ab etwa 2005 die Marke von einem Femtojoule. Mittlerweile liegen die Schaltenergien um die 10 Attojoule.

Die Frage, inwieweit sich die Schaltenergie weiter reduzieren lassen könnte, ist keine rein technologische Frage. Sie berührt auch fundamentale physikalische Prinzipien. Schon weit vor dem Siegeszug der Computer hat sich der deutsch-amerikanische Physiker Rolf Landauer eingehend mit dieser Thematik beschäftigt. Er entwickelte in den frühen 1960er-Jahren ein genial einfaches Modell, mit dem ergrundlegende Fragen zur Physik der Informationsverarbeitung untersuchen konnte. Sein Modell beantwortet konkret die Frage nach der Schaltenergie in Computerkernen.

Abb. 2: Landauers Modell für einen 1-Bit-Speicher besteht aus einem Behälter mit einer Trennwand in der Mitte, in dem sich ein einzelnes Teilchen aufhält. Befindet sich das Teilchen auf der linken bzw. rechten Seite der Trennwand, so ordnet man dem Speicher den logischen Zustand 0 bzw. 1 zu. Das Initialisieren bzw. das Löschen des Speichers lässt sich durch das Entfernen der Trennwand (freie Expansion), eine reversible isotherme Kompression sowie das Wiedereinfügen der Trennwand realisieren.

(Bild: Physik-Journal)

Landauers Ausgangspunkt ist die Überlegung, dass jede Information physikalisch codiert ist, das heißt jeder logische Zustand entspricht einem physikalischen Zustand. Landauers Gedankenexperiment basiert auf einem Teilchen, das sich in einem quaderförmigen Behälter bewegt. Durch wiederholte Stöße mit den Wänden nimmt dieses 1-Teilchen-Gas die Temperatur der Umgebung an. Der Behälter lässt sich zudem mithilfe einer Trennwand in zwei Bereiche unterteilen (Abb. 2). Falls sich das Teilchen auf der linken Seite befindet, sagen wir, dass das System im logischen Zustand "0" sei. Der Fall, dass sich das Teilchen im rechten Teil des Kastens befindet, entspricht dem logischen Zustand "1". Damit hatte Landauer ein minimalistisches mechanisches Modell für einen 1-Bit-Speicher kreiert, das mithilfe einfacher physikalischer Gesetzmäßigkeiten zu untersuchen war.

Allgemeiner betrachtet betrifft das Landauer-Limit auch das Verhältnis von Information und Thermodynamik, wie es etwa durch das Dilemma des Maxwellschen Dämons veranschaulicht wird. Doch dazu später mehr.

Wichtig für die Untersuchung der Schaltenergie sind das Initialisieren bzw. Löschen des Speichers. Das Initialisieren versetzt den Speicher von einem unbekannten Ausgangszustand in den Zustand "0" (Abb. 2). Landauer hatte sich dafür folgende Prozedur überlegt:

  • Die Trennwand wird entfernt. Unabhängig von seiner ursprünglichen Lage nimmt das Teilchen nun also das gesamte Volumen des Behälters ein (freie Expansion).
  • Ein Kolben wird von der rechten Seite in den Be hälter eingeführt, der das 1-Teilchen-Gas komprimiert und so dafür sorgt, dass sich das Teilchen auf der linken Seite des Behälters wiederfindet (isotherme Kompression). Für die Kompression ist eine bestimmte Arbeit aufzuwenden.
  • Schließlich setzt man die Trennwand wieder in die Mitte des Behälters ein und entfernt den Kolben. Der Speicher ist damit im Zustand "0".

In physikalischen Systemen mit wenigen Freiheitsgraden, wie es ein Gas aus einem einzelnen Teilchen darstellt, werden die thermodynamischen Größen, z. B. der Druck, zu stochastischen Variablen. Die Größen fluktuieren als Funktion der Zeit, erfüllen aber die bekannten Gesetze der Thermodynamik wie das ideale Gasgesetz bei hinreichend langer Mittelung. Die thermodynamische Analyse zeigt nun, dass sich beim Löschen des 1-Bit-Speichers die Entropie des Universums um ΔS = kBln2 erhöht, was mit einem Energiebedarf von W = TΔS = kBTln2 einhergeht.

Die Tragweite dieses Resultats mag auf den ersten Blick nicht ganz ersichtlich sein. Was hat dieses Gedankenexperiment mit den Schaltprozessen in einem Computer zu tun? In einer abstrakteren Formulierung des Experiments lässt sich der bewegliche Kolben durch ein zeitabhängiges Potential ersetzen, das die Position des Teilchens kontrollieren kann. Solche zeitabhängigen Potentiale treten auch in elektronischen Schaltkreisen auf. Auch hier steuert das Anlegen von Spannungen zeitlich den Elektronenfluss, was zu einer Abfolge von bestimmten logischen Zuständen führt. Das Landauer-Limit lässt sich in dieser Weise recht allgemein auf logisch irreversible Schaltprozesse in der Elektronik anwenden.

Das betrifft sowohl den Speicher-Initialisierungsprozess als auch viele Logikgatter (AND, OR, …). Nicht betroffen sind dagegen gänzlich andersgeartete Rechnerarchitekturen, die ausschließlich auf thermodynamisch und logisch reversiblen Berechnungsprozessen basieren. Das trifft üblicherweise auf Quantencomputer zu, ist aber nicht auf die Quantenwelt beschränkt. Edward Fredkin und Tommaso Toffoli schlugen beispielsweise einen hypothetischen "Billard ball-Computer" vor, der einen Booleschen Schaltkreis ohne Energiedissipation simulieren kann. Gegenstand theoretischer Untersuchungen waren darüber hinaus auch reversibel arbeitende zelluläre Automaten. Eine Verallgemeinerung des Landauer-Limits auf beliebige logische Prozesse unabhängig von ihrer physikalischen Realisierung haben Forscher der ETH Zürich 2014 vorgeschlagen.