Erdzwilling im Exascale-Computer soll Klimakatastrophen vorhersehen

Der erste europäische Exascale-Superrechner wird in Jülich aufgebaut. Mit seiner Rechenleistung könnten Wetterdienste lokalen Starkregen im Voraus ankündigen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
Die Darstellung simuliert die globale Wolkenbildung mit dem Atmosphärenmodell ICON mit einer Auflösung von 1,25 Kilometern pro Pixel. Mit Exascale-Rechenkapazität ließe sich das Wettergeschehen weltweit in Echtzeit über Tage vorausberechnen.

(Bild: DKRZ / MPI-M produziert mit Nvidia Omniverse)

Lesezeit: 7 Min.
Von
  • Christiane Schulzki-Haddouti
Inhaltsverzeichnis

Der diesjährige Dürresommer hat nicht nur Waldbrände verursacht, es drohen auch gravierende Ernteausfälle. Im Juli 2021 traf eine Hochwasserkatastrophe das Ahrtal, viele Menschen ertranken oder verloren Haus und Hof. Um solche Dürren und Starkregen besser vorherzusagen, brauchen die Forscher erheblich genauere Klimamodelle, als derzeit zur Verfügung stehen.

Klimasimulationen erreichen auf heutigen Petascale-Superrechnern eine Auflösung von etwa zehn Kilometern. Das bedeutet, dass sie die Erdoberfläche in ein virtuelles Raster mit jeweils zehn Kilometern Kantenlänge aufteilen und für jedes dieser Areale ein eigenes Klima berechnen. Spezialsimulationen für Bewölkung können bereits mit einer Auflösung von 1,25 Kilometern rechnen. Deren Abbildungen sind kaum noch von Satellitenbildern zu unterscheiden (siehe Erdkugel im Aufmacherbild).

Erst Exascale-Rechner, die heutige Weltspitze mit einer Trillion Rechenoperationen pro Sekunde, können vollständige Klimasimulationen in einer Auflösung von einem Kilometer berechnen, erklärte Thomas Lippert, Leiter des Jülich Supercomputing Centre (JSC) im Mai. Im Juni fiel dann die Entscheidung der europäischen Supercomputing-Initiative EuroHPC JU, 2023 den ersten europäischen Exascale-Rechner in Jülich aufzubauen. Weil dieser Superrechner allerdings nicht nur Wetterverläufe, sondern beispielsweise auch Pandemien und Energieerzeugung simulieren soll, fordern deutsche, britische, US-amerikanische und Schweizer Klimawissenschaftler in einer internationalen Initiative bereits einen weiteren Exascale-Rechner, der ausschließlich Klima- und Klimafolgenmodelle berechnen soll.

"Die große Vision ist die Schaffung eines digitalen Zwillings der Erde", sagt Peter Bauer, Leiter der europäischen Initiative Destination Earth. Das digitale Modell soll globale Auswirkungen des Klimawandels und extremer Wetterereignisse vorhersagen und zudem die Wechselwirkung von Naturphänomenen und menschlichen Aktivitäten simulieren. Tim Palmer von der Universität Oxford plädiert für eine Art "Klima-CERN", wie er sagt: In einem Projekt, das mit der aufwendigen physikalischen Grundlagenforschung am großen Teilchenbeschleuniger bei Genf vergleichbar wäre, solle Europa globale Klimamodelle mit Kilometergenauigkeit entwickeln und auf einem eigenen Exascale-Computer betreiben.

Dabei wollen die Forscher die besten Klimamodelle, die es konzeptionell oder bereits prototypisch gibt, mit den besten Impaktmodellen koppeln. Das Ziel besteht darin, Starkregen-, Sturm- und Wald-Simulationssysteme zu bauen. Damit könnte ein Höchstleistungsrechner räumlich und zeitlich sehr differenzierte statistische Vorhersagen für Extremereignisse berechnen und diese im Internet zur Verfügung stellen. Planer bekämen so aussagefähige Daten, um Neubauten an das sich wandelnde Klima anzupassen, den Katastrophenschutz neu auszurichten, Flächennutzungspläne zu überarbeiten und Konzepte für resilientes Bauen zu entwerfen.

Den Superrechner Juwels in Jülich will die europäische Supercomputing-Initiative EuroHPC JU 2023 zu Europas erstem Exascale-Rechner ausbauen.

(Bild: Forschungszentrum Jülich / Sascha Kreklau)

"Heute schaut man in die Vergangenheit, um zu planen", sagt Georg Teutsch vom Helmholtz-Zentrum für Umweltforschung UFZ. "Doch mit dem Klimawandel gehen die Veränderungen so schnell vor sich, dass der Blick zurück nicht mehr unbedingt hilft." Beispielsweise prognostizieren bisherige Klimamodelle in Mitteleuropa leicht anwachsende Jahresniederschläge für die kommenden Jahrzehnte. Laut Teutsch wissen die Forscher aber nicht, wo und wann es künftig wie stark regnen wird und ob sich durch die Veränderungen womöglich lokal sogar weniger Grundwasser neu bilden könnte. Das würde die Wasserreserven des Landes gefährden und etwa den breiten Einsatz von Bewässerungssystemen in der Landwirtschaft verbieten.

Die Klimamodelle, die in den vergangenen 30 Jahren aufgebaut wurden, konzentrieren sich auf die Prognose der Temperaturveränderungen. Sie vereinfachen aber wasserführende Systeme stark. Damit können sie die Wasseraufnahme der Atmosphäre, die Wolkenbildung und das Entstehen von Stürmen oder längeren Regenperioden wie beim Monsun nicht detailliert nachbilden. Erst mit einer Auflösung von einem Kilometer lassen sich etwa bei der Modellierung von Stürmen Konvektionszellen ausmachen. Die Algorithmen dazu existieren; man braucht aber vor allem große Rechenpower.

Globale Klimamodelle legen heute in der Regel Raster mit Kantenlängen von 100 bis 200 Kilometern über die Erdoberfläche. Die angestrebte Auflösung von einem Kilometer wäre sogar besser als die der heutigen regionalen Wettermodelle. Modelle des Deutschen Wetterdiensts DWD arbeiten für Deutschland inzwischen mit einer Rasterweite von 2,1 Kilometern, für Europa mit 6,5 Kilometern. "Klassische Gewitterwolken rutschen bei 6,5 Kilometern durch, aber für Deutschland lassen sie sich im Modell darstellen", erklärt Uwe Kirsche vom DWD. Hochauflösende Modelle würden anders als die heute üblichen Berechnungen auch den Einfluss von Mittelgebirgen nicht einfach wegglätten. Für den Rest der Welt rechnet der DWD heute mit einer Maschenweite von 13 Kilometern – das macht zusammen 315 Millionen Gitterpunkte. Damit berechnen Superrechner für Deutschland Wettervorhersagen über eine Woche und mittelfristige Wettervorhersagen für Europa über zwei Wochen.

Ein Exascale-Rechner könnte sowohl bei der Wettervorhersage als auch bei Klimamodellen erhebliche Verbesserungen erreichen. Man werde zwar nicht vorhersagen können, wie das Wetter in zwanzig Jahren wird, erklärt Teutsch. Aber man könnte ein stochastisches Modell entwickeln, das kilometergenau die Verteilung von wahrscheinlichen Niederschlagsmengen und Varianzen vorhersagt. "Wenn wir wissen, welche Niederschlagsmengen in einer Region in zwanzig Jahren im Frühjahr zu erwarten sind, hilft das sehr, geeignete Klimaanpassungsmaßnahmen zu konzipieren."

Die Vorhersage von Starkregen-Ereignissen gehört zur Königsdisziplin der Wetter- und Klimawissenschaft. Die Herausforderung besteht darin, die aktuellen hydrologischen Flächenmodelle mit hoher räumlicher Auflösung direkt an hochauflösende Wettermodelle zu koppeln. Diese könnten dann auch Stürme abbilden und unter Verwendung von präzisen Geländemodellen sowie aktuellen Bodenfeuchtedaten ausrechnen, welche Wassermengen versickern und welche abfließen. Das ist für ein europaweites Starkregen-Warnsystem und die Planung von Katastrophenschutzmaßnahmen entscheidend. Doch diese Kopplungen seien nicht einfach, sagt Bauer: "Manche der Prozesse sind nicht gut bekannt und nur ungenau vermessen." Da gebe es noch einigen Entwicklungsbedarf, zumal das Gesamtsystem chaotisch sei. Das bedeutet, dass kleine Ungenauigkeiten große Auswirkungen haben – was bei den Berechnungen berücksichtigt werden muss.

Vier Klimasimulationen zeigen realistische Temperatursteigerungen auf der Erde bis zum Ende des Jahrhunderts: Je nach politischen Weichenstellungen (Shared Socioeconomic Pathways, SSP) wird das Zwei-Grad-Ziel eingehalten (ganz links) oder wie im pessimistischen Weiter-so-Szenario (rechts) klar verfehlt.

(Bild: Deutsches Klimarechenzentrum)

Ziel ist es, künftig die Intensität und die Folgen von Starkregen in kleinen Einzugsgebieten wie im Ahrtal mit mehreren Tagen Vorlaufzeit zu prognostizieren. Teutsch: "Eine Erweiterung der Vorwarnzeit auf zwei Tage würde es dem Katastrophenschutz erlauben, rechtzeitig Evakuierungsmaßnahmen einzuleiten, die Elektroversorgung zu sichern und Gegenstände wie Container oder Autos zu entfernen, die sonst später den Wasserabfluss blockieren und damit zusätzliche Zerstörungen nach sich ziehen."

Derzeit lassen sich intensive Niederschlagsereignisse und damit verbundene Überschwemmungen nicht im Einzelnen dem Klimawandel zuordnen. Gleiches gilt für Dürren, Waldbrände oder Wirbelstürme. Attributionswissenschaftler um Friederike Otto an der Universität Oxford weisen in ihrer jüngsten Veröffentlichung in der Zeitschrift Environmental Research darauf hin, dass auch das eine Frage der Rechenpower sowie der Auswertung extremer Wetterereignisse weltweit sei. Erst durch die Zuordnung (Attribution) der Wetterereignisse zu ihren Ursachen kann es gelingen, den Wert von Klima-Anpassungsmaßnahmen einzuschätzen.

Klima oder Wetter?

Im Gegensatz zum Wetter, das den Zustand der Atmosphäre an einem Ort zu einem Zeitpunkt beschreibt, fasst das Klima statistische Eigenschaften über Jahrzehnte zusammen. Typisch für die Beschreibung des Klimas sind daher Mittelwerte, Extremwerte und Häufigkeiten von Wetterereignissen wie Sonnenschein und Temperaturentwicklung, Regenmengen und Winden. Ein Sonderfall der Klimatologie ist die Attributionsforschung. Diese Disziplin untersucht den Anteil einzelner Faktoren an Klimaänderungen, insbesondere den Einfluss menschengemachter Emissionen. Das könnte es einmal ermöglichen, bei extremen Wetterereignissen die konkreten Schadenssummen durch menschenverursachten Klimawandel zu beziffern.

Welch großes Engagement die Klimaforscher von den Regierungen verlangen, zeigt Tim Palmers bereits zitierte Vision eines künftigen "Klima-CERN": Der europäische Teilchenbeschleuniger verschlingt jährlich eine Milliarde Euro für seine laufenden Kosten. Unter den 23 Staaten, die das finanzieren, trägt allein Deutschland 20 Prozent. Dieser Vergleich wirft die Frage auf, in welche Forschung künftig ein Großteil der öffentlichen Mittel fließen soll. Erst im vergangenen Jahr hatte das CERN-Management die Anschaffung eines eigenen Exascale-Computers gefordert.

c’t – Europas größtes IT- und Tech-Magazin

Alle 14 Tage präsentiert Ihnen Deutschlands größte IT-Redaktion aktuelle Tipps, kritische Berichte, aufwendige Tests und tiefgehende Reportagen zu IT-Sicherheit & Datenschutz, Hardware, Software- und App-Entwicklungen, Smart Home und vielem mehr. Unabhängiger Journalismus ist bei c't das A und O.

(agr)