Klimaforschung: Wie das Deutsche Klimarechenzentrum die Erd-Zukunft simuliert

Nobelpreisträger Hasselmann baute in den 80ern das Klimarechenzentrum auf. Dort wies er nach, dass die von Menschen erzeugte CO2-Belastung die Erde aufheizt.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen
, Bild: DKRZ

(Bild: DKRZ)

Lesezeit: 13 Min.
Inhaltsverzeichnis

Wir können mit unserem Klima nicht experimentieren, weil wir kein zweites haben. Ein schlichter Satz, mit dem der spätere Physik-Nobelpreisträger Klaus Hasselmann und sein Team aus dem Deutschen Klimarechenzentrum (DKRZ) bereits zur UN-Umweltkonferenz 1992 ihre Simulationsergebnisse präsentierten. Hasselmanns großer Schritt bestand darin, die modernsten Superrechner seiner Zeit zu nutzen, um Atmosphärensimulationen mit dreidimensionalen Ozeanmodellen zu koppeln. Ohne die Zirkulation warmer Wasserschichten und den Transport von CO2-Molekülen in die Tiefen der Weltmeere ließen sich die Treibhauseffekte zuvor nur unzureichend nachweisen.

Etwas später konnten die Wissenschaftler am Hamburger DKRZ mit ihren Simulationen nahezu auszuschließen, dass die bereits beobachtete Erderwärmung natürliche Ursachen wie etwa eine Steigerung der Sonnenaktivität haben könnte. Sie simulierten Klimaveränderungen aufgrund natürlicher Schwankungen und durch vom Menschen verursachte Emissionen vor allem von CO2 und erkannten den "menschlichen Fingerabdruck".

Mehr zum Thema Klimawandel

Dieses Muster fanden sie dann mit 95-prozentiger Sicherheit in den historisch gemessenen Klimaänderungen der zurückliegenden 100 Jahre wieder. Dieses Ergebnis veröffentlichte das Team 1995 im Vorfeld der UN-Klimakonferenz in Berlin. Das Fazit der Hamburger: Offensichtlich heizt der Mensch den Planeten auf.

c't kompakt
  • Die drei Klimaforscher Klaus Hasselmann, Syukuro Manabe und Giorgio Parisi erhalten am 10. Dezember den Physik-Nobelpreis 2021.
  • Hasselmann gründete 1987 das Deutsche Klimarechenzentrum, das seither mit modernsten Superrechnern globale Klimaszenarien simuliert.
  • Komplexe Berechnungen bilden heute die Folgen der Erderwärmung auch auf lokaler Ebene ab und spielen politische Entscheidungen durch.

Das DKRZ entstand 1987 aus einer Kooperation des Meteorologischen Instituts der Universität Hamburg mit dem Max-Planck-Institut für Meteorologie. Dessen Direktor Hasselmann übernahm auch gleich die Leitung als wissenschaftlicher Direktor des DKRZ. Die Simulationen, die Anfang der 90er-Jahre die Rolle des CO2-Anstiegs entlarvten und für kommende Jahrzehnte dramatische Klimaverschiebungen vorhersagten, gelangen auf einer Cray 2S mit vier Prozessoren, einem Gigabyte Hauptspeicher und sagenhaften zwei GigaFLOPS (Milliarden "Floating Point Operations" pro Sekunde). In der 1993 erstmalig erstellten Top-500-Liste der leistungsfähigsten Supercomputer der Welt glänzte dieser Rechner, wenngleich damals schon fünf Jahre alt, auf dem 187. Platz. Aus heutiger Sicht könnte er sich ungefähr mit den Leistungsdaten eines iPhone 4 messen.

Als wissenschaftlicher Direktor des Deutschen Klimarechenzentrums wies Klaus Hasselmann (hier in einem Video von 1992, siehe ct.de/ydtc) die Bedeutung des von Menschen verursachten CO2 für die Erderwärmung nach.

(Bild: DKRZ)

Immerhin hatte man damit bereits ein globales Atmosphärenmodell berechnet, das ein Raster über die Erdoberfläche legt, und diese so in Zellen mit 500 Kilometer Kantenlänge aufteilt. Zwölf dieser Zellen überdecken Westeuropa, zwei genügen fast für Deutschland. Für jede Zelle lässt sich nach diesem Modell ein eigenes Klima errechnen. Zusätzlich zu diesen regionalen Entwicklungen beeinflusst jede Zelle durch Windströmungen ihre Nachbarn. Schrittweise simulieren die Klimaforscher so die Klimaentwicklung auf dem gesamten Planeten. Schon diese grobe Auflösung erforderte Ende der 80er- und Anfang der 90er-Jahre mehrere Wochen Laufzeit, um Modelle bis zum Ende des 21. Jahrhunderts durchzurechnen.

Der neue Superrechner Levante am Deutschen Klimarechenzentrum soll im Endausbau etwa 350.000 Prozessorkerne umfassen und 16 PetaFLOPS erreichen.

(Bild: DKRZ)

Neuland betrat das Team um Hasselmann vor allem bei der Simulation der Ozeane. Bis dahin bildeten Klimamodelle die Weltmeere schlicht als glatte Oberflächen mit einer Wasserschicht von 100 oder 200 Metern darunter ab. Hasselmann, der sich in den 70er-Jahren mit Seegangforschung befasst hatte, erkannte, dass die gewaltigen Ozeane mit mehreren Kilometern Tiefe eine viel bedeutendere Dynamik in die Klimaentwicklung einbringen. Beispielsweise ist der Golfstrom im Atlantik mit einer starken Strömung in die Tiefe verbunden, die erhebliche Wärmemengen abführt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Diese Effekte puffern die spürbare Erderwärmung für einige Jahrzehnte ab. CO2-Moleküle, die das Meer aus der Atmosphäre aufnimmt, können die Tiefseeströmungen sogar bis zu 1000 Jahre umwälzen, bevor sie wieder an die Oberfläche gelangen und das CO2 an die Atmosphäre zurückgeben.

Ein Rastermodell mit Zellen von 500 Kilometer Breite kann die Klimaeffekte der Alpen nicht wiedergeben und die unterschiedlichen Klimabedingungen von Nordsee und Nordatlantik verwischen darin. Aber allein schon die verdoppelte Auflösung mit Zellen von 250 Kilometer Breite erfordert in der Simulation die zehnfache Rechenzeit. Zusätzlich muss der Algorithmus die Zeitspanne zwischen den Rechenschritten halbieren, da Windströmungen nun in der halben Zeit die Grenze von einer Zelle zur nächsten überschreiten.

Für das DKRZ als Dienstleister der Klimaforschung bedeutete das einen wachsenden Bedarf an Rechenkapazität und ein stetiges Aufrüsten. Mit jedem neu angeschafften Parallelrechnersystem errang das Rechenzentrum beachtliche Platzierungen in den Top 500 der Superrechner weltweit: 1994 erreichte die Cray C-916 mit 16 Prozessoren Rang 54; mit 16 GigaFLOPS und 2 Gigabyte Hauptspeicher plus 4 Gigabyte RAM-Disk. 2002 kam "Hurrikan" auf Rang 33, ein NEC-System SX-6 mit 192 Prozessoren, 1,5 TeraFLOPS und 1,5 Terabyte Hauptspeicher. 2009 belegte "Blizzard" sogar Rang 27 mit 8448 IBM-Power6-Prozessoren, 158 TeraFLOPS und 20 Terabyte Hauptspeicher. "Mistral" erreichte 2016 Rang 34 und schaffte im Endausbau mit etwa 100.000 Prozessorkernen mehr als 3 PetaFLOPS. Hier kamen erstmals Blade-Server mit integrierter direkter Flüssigkeitskühlung zum Einsatz.

Derzeit befindet sich parallel ein neuer Hochleistungsrechner im Aufbau, der HLRE-4 "Levante" (Hochleistungsrechner für Erdsystemforschung). Auch bei dieser Investition setzt das DKRZ auf Bulls Blade-Technik mit integrierter Flüssigkeitskühlung. Im Bull-Sequana-XH2000-Supercomputer von Atos fasst jedes Blade drei Knoten à zwei AMD-EPYC-Prozessoren "Milan". So kommen etwa 3000 Rechnerknoten mit 350.000 Prozessorkernen zusammen. In einer zweiten Ausbaustufe ist eine Erweiterung um Blades mit GPUs (Graphics Processing Unit) geplant. Im Endausbau bis Januar 2022 soll etwa ein Fünftel der Rechenleistung auf die Grafikprozessoren entfallen. Die Gesamtrechenleistung erreicht dann voraussichtlich 16 PetaFLOPS.

In einem aufgeschraubten Blade mit drei Rechnerknoten zeigt sich der Kühlmittelschlauch, der direkt an den Prozessoren und Speichereinheiten anliegt.

(Bild: DKRZ)

An diesen Zahlen lässt sich allerdings auch ein Trend bei der Entwicklung der Rechengeschwindigkeit ablesen, auf den DKRZ-Geschäftsführer Thomas Ludwig im Gespräch mit der Redaktion c’t hinweist: Die bezahlbaren Leistungssteigerungen von einer Rechnergeneration zur nächsten fallen von Mal zu Mal geringer aus. Während "Blizzard" die Leistung seines Vorgängers "Hurrikan" noch um das 100-Fache überstieg, konnte "Mistral" dieses Niveau nur noch um Faktor 20 steigern. "Levante" soll nun noch einmal etwa Faktor 5 bringen.

Damit ist auch klar, dass sich Rastermodelle nicht mehr beliebig verfeinern lassen, wenn jede Halbierung der Zellengröße eine Verzehnfachung der erforderlichen Rechenkapazität bedeutet. Für globale Modelle, die bis zum Ende des Jahrhunderts laufen, rechnet man heute mit Rasterweiten von 80 bis 100 Kilometern. Feinere Auflösungen nutzt man für die Simulation regionaler Effekte. Beispielsweise legt ein aktuelles Projekt ein Raster über Deutschland mit 150-Meter-Zellen und sucht nach Berechnungsmodellen für die Wolkenbildung und Wolkeneisentstehung.

Mit zunehmender Rechengenauigkeit geben die Erdklimasimulationen detailliertere Einblicke in lokale Effekte der Erderwärmung, Entwarnung geben sie aber alle nicht. "Nach unseren Modellen wird der Gesamtanstieg der Temperaturen bis Ende des 21. Jahrhunderts wohl bei drei bis vier Grad liegen, das ist aber eigentlich schon lange bekannt", sagt Michael Böttinger. Er folgte Hasselmann 1990 aus dem Max-Planck-Institut für Meteorologie ins DKRZ.

Entscheidend sei aber nicht allein der Temperaturanstieg, sondern außerdem die Temperaturverteilung. Es zeige sich in den Simulationen, dass der Anstieg über dem Meer geringer ausfällt, über Land hingegen stärker. Der große Kontrast zwischen Meer und Land führt wiederum zu heftigeren Winden und Stürmen. Einen weiteren verstärkenden Effekt lösen sterbende Wälder aus, die wiederum weiteres CO2 freisetzen und damit den Treibhauseffekt weiter verstärken. Die steigende Konzentration von CO2 im Meerwasser wiederum sorgt dort auch für eine zunehmende Säurebildung, die Kalzit (Kalziumkarbonat) angreift und so weltweit den Schalentieren zu schaffen macht.

Doch mit ihren Berechnungsmodellen zeichnen die Klimaforscher auf den Rechnern des DKRZ nicht nur immer düsterere Bilder. Sie rechnen auch denkbare Varianten aus, sogenannte Shared Socioeconomic Pathways (SSP). Die Simulationen dieser klimatischen Entwicklungspfade berücksichtigen politische Entscheidungen und sozioökonomische Entwicklungen und berechnen die damit entstehende Konzentration von Treibhausgasen und ihrer CO2-Äquivalente. Daraus lässt sich wiederum der sogenannte Strahlungsantrieb der Erde ableiten, die Änderung der Energiebilanz des Planeten durch zusätzliche Strahlungswärme von außen.

Vier Simulationsszenarien zeigen die zu erwartenden Temperaturveränderungen bis zum Ende des Jahrhunderts. Den Unterschied machen die politischen, gesellschaftlichen und ökonomischen Entscheidungen der Menschheit.

(Bild: DKRZ / Max-Planck-Institut für Meteorologie)

"Zwei Watt pro Quadratmeter haben wir uns durch Industrialisierung und Nutzung fossiler Brennstoffe schon bis heute eingehandelt", erläutert Böttinger. Das bedeutet, selbst bei einer Stabilisierung der CO2-Bilanz würde sich die Temperatur auf der Erde weiter erhöhen.

Fünf Szenarien sind für den sechsten Sachstandsbericht des IPCC (Intergovernmental Panel on Climate Change, der sogenannte Weltklimarat) am DKRZ durchgerechnet worden. Die Ergebnisse sind in den sechsten Sachstandsbericht des Weltklimarates eingeflossen, den dieser im August 2021 veröffentlichte. Die Unterschiede sind immens. Während das Szenario eines nachhaltigen Weges bis 2100 sogar geringere Treibhausgaskonzentrationen als heute verspricht, hält schon ein Weg mit mittelstarken Herausforderungen an die Weltgemeinschaft kaum das Zwei-Grad-Ziel der Pariser UN-Klimakonferenz 2015 ein.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die durchaus realistischen Szenarien SSP3 bis SSP5, die Bilder rivalisierender Regionen und sogar von einer raschen wirtschaftlichen Entwicklung auf der Basis fossiler Brennstoffe zeichnen, lassen im Jahr 2100 einen Strahlungsantrieb von bis zu acht Watt pro Quadratmeter erwarten, mit entsprechend heftig ansteigender Erderwärmung. Dabei gehen die günstigen Modelle von einer globalen Energiewende 2021 aus. Tückisch ist, dass die simulierten Szenarien erst ab etwa 2040 deutlich auseinanderdriften.

Über die globalpolitische Dimension hinaus liefern Simulationen am DKRZ auch ganz praktische Daten als regionale Entscheidungsgrundlagen. Konkret laufen im Rechenzentrum zum Beispiel Programme des Cordex-Projektes (Coordinated Regional Climate Downscaling Experiment). Das Downscaling globaler Klimamodelle kann helfen, beispielsweise über den Bau künftiger Skilifte in den Alpen zu entscheiden oder über den Küstenschutz in den Niederlanden. "Vor 30 Jahren hat noch jeder seinen Datenschatz für sich genutzt, heute ist die Wissenschaft wesentlich offener, kooperativer. So entsteht Mehrwert", schildert Böttinger seine Beobachtung.

Regionalisierte Klimaprognosen stoßen mehr und mehr in neuen Anwendungsbereichen auf Interesse. Ein Beispiel sind Biologie und Medizin, die sich mit der Ausbreitung der asiatischen Tigermücke oder den Bedingungen für verschiedenste Krankheitserreger beschäftigen. Die Verschiebung von Klimazonen kann sich hier in den kommenden Jahrzehnten deutlich auswirken.

In den Bereich der Grundlagenforschung fällt hingegen das Projekt PalMod, mit dem verschiedene Forschergruppen versuchen, einen vollständigen Eiszeitzyklus zu modellieren. Hier geht es um eine Zeitspanne von immerhin etwa 100.000 Jahre. Letztlich können diese Arbeiten helfen, die Plausibilität der kurzfristigeren Klimamodelle zu überprüfen.

Im neuen Hochleistungscomputer "Levante" sollen die Rechnerknoten mit GPUs jeweils einen eigenen Speicherbereich von etwa 80 Gigabyte haben. Sie sind damit gut für die Berechnung von Klimapunkten einsetzbar. DKRZ-Geschäftsführer Ludwig sieht nicht nur Visualisierungsaufgaben als Paradedisziplin für diese Prozessoren an. Auch beim maschinellen Lernen könnten sie ihre Stärken ausspielen.

"Bisher erfordern dynamisch gekoppelte Klimamodelle zumeist die Berechnung vieler partieller Differentialgleichungen", berichtet Ludwig. Es gebe inzwischen aber erste Ansätze, derart rechenintensive Modelle durch Machine Learning eleganter und schneller zu lösen. Seit 2020 hat das DKRZ neue Mitarbeiter mit entsprechenden Kenntnissen eingestellt und kooperiert zudem mit der Initiative Helmholtz AI sowie der FU Berlin. Beide Partner bieten Expertise für Forscher, die Machine-Learning-Ansätze für spezielle Aufgabenstellungen suchen.

Derzeit sind Machine-Learning-Ansätze allerdings weniger in der Klimaforschung als in der Wetterberechnung verbreitet, etwa bei der automatisierten Extremwettererkennung oder beim Identifizieren von Wirbelstürmen. ML-Mustererkennung hilft auch dabei, Lücken in Beobachtungsdaten zu schließen, beispielsweise wenn im Netz des Regenradars einmal eine Station ausgefallen ist.

Das DKRZ hat einerseits den Vorzug seines Hochleistungsrechners, andererseits kann es auf umfangreiche Datenbestände aus den vergangenen Jahrzehnten zurückgreifen. Mittlerweile speichern sieben DKRZ-Magnetbandsilos in Hamburg insgesamt etwa 140 Petabyte; die Gesamtkapazität lässt sich auf bis zu 1000 Petabyte erweitern. Ein weiteres Silo steht am Leibnizrechenzentrum in Garching und dient als Back-up für Daten, die extra abgesichert werden sollen, beispielsweise die Daten für den aktuellen Weltklimabericht.

Dass die Erforscher des Klimawandels selbst so ökologisch wie möglich arbeiten, ist Ehrensache. Grundsätzlich ist der Betrieb eines Rechenzentrums nicht ökologisch. Heute hat das Rechenzentrum eine Leistungsaufnahme von 1,5 Megawatt. "Aber wir beziehen CO2-neutralen Strom und arbeiten mit einer möglichst energieeffizienten Kühlanlage auf dem Dach", berichtet Ludwig. Die Kühlflüssigkeit darf bis zu 40 Grad warm sein und muss nicht energieintensiv heruntergekühlt werden, bevor sie durch die Rechner-Blades läuft. Abwärme wird zudem an das benachbarte Chemieinstitut der Hamburger Universität als Heizenergie abgegeben.

Über die Klimaberechnungen hinaus trägt das DKRZ zur politischen Sichtbarkeit der Erderwärmung bei. So waren in den letzten Jahren zum Beispiel Olaf Scholz und Heiko Maas Besucher des Rechenzentrums und auch viele Teilnehmer des G20-Gipfels in Hamburg 2017 nahmen an einer Infoveranstaltung der Klimaforscher teil. Vor der Covid19-Pandemie besichtigten jährlich einige Besuchergruppen die Einrichtung und Schüler diskutieren mit den Forschern. "Mich freut, dass wir heute kaum noch auf Skeptiker treffen", sagt Böttinger. Unter Wissenschaftlern gebe es die ohnehin längst nicht mehr. Die Beweislast der Klimasimulationen aus den vergangenen mehr als 30 Jahren lässt für Zweifel an der Bedeutung des durch Menschen verursachten CO2-Eintrags für die Erderwärmung keinen Raum mehr.

c't Ausgabe 2/2022

In c’t 2/2022 haben wir für Sie das c’t-Notfall-Windows 2022 zusammengestellt. Mit dem Bausatz für das vom USB-Stick laufendes System finden Sie Viren, retten Daten oder setzen Passörter zurück. Wir beleuchten, wie die EU Schlupflöcher der DSGVO für Content-Scanner nutzen will, wir haben Highend-Smartphones getestet, mobile USB-C-Monitore und Server-Software für die private Mediensammlung. Ausgabe 2/2022 finden Sie ab dem 31. Dezember im Heise-Shop und am gut sortierten Zeitschriftenkiosk.

(agr)