Welt-Fieberkurve aus dem Rechenzentrum
Sechs Jahre haben hunderte von Wissenschaftlern daran gearbeitet, die Entwicklung des Weltklimas zu berechnen. So gut die Computermodelle auch werden – wie sich das Klima entwickeln wird, hängt maßgeblich vom Faktor Mensch ab.
- Denis Dilba
Das Klima sei ein unberechenbares wildes Tier, hat der Klimatologe Wallace Broecker von der Columbia University in New York einmal formuliert. Er und seine Kollegen versuchen schon seit Jahrzehnten dieses Biest zu bändigen. Aufwendige Simulationen helfen den Wissenschaftlern bei ihrem Vorhaben und sollen Aufschluss über die zukünftige Entwicklung des Klimas geben. Einen Zwischenstand über die Ergebnisse aus den Berechnungen der Klimaforscher gibt jetzt der vierte Bericht des Intergovernmental Panel on Climate Change (IPCC), der heute in Paris vorgestellt wird.
Die wichtigsten Erkenntnisse aus den Simulationen: Im 21. Jahrhundert werde die Temperatur um 2 bis 4,5 Grad steigen; am wahrscheinlichsten seien 3 Grad. Bei verstärkter Nutzung von fossilen Ressourcen, wie Gas, Öl und Kohle könnte die Arktis schon 2080 eisfrei sein. Und der Meeresspiegel könnte bis 2100 um mehr als einen halben Meter ansteigen. Traditionell nicht erwähnt werden die Irrtümer, denen man aufgesessen ist. Im letzten IPCC-Bericht aus dem Jahr 2001 etwa wurde behauptet, die globale Temperatur steige erst seit 1860 steil an. Stimmt nicht, wie sich nun herausgestellt hat – die Berechnungen basierten auf falschen Statistiken. Wie zuverlässig sind also solche numerischen Klimasimulationen?
„Man muss dazu wissen, dass Klimamodellierung eine der komplexesten Aufgaben ist, die man kennt – da kann auch mal ein Fehler passieren“, sagt Holger Göttel vom Max Planck Institut für Meteorologie in Hamburg. Der Klimaforscher arbeitet zusammen mit rund einem dutzend Kollegen an dem regionalen Klimamodell „Remo“ für Deutschland, Österreich und die Schweiz. Grundsätzlich, so Göttel, sind alle Klimamodelle nach dem gleichen Prinzip aufgebaut. Zunächst wird die Erdkugel oder die zu betrachtende Region mit einem Gitternetz überzogen. Für globale Modelle beträgt die Maschenweite typischerweise 200 mal 200 Kilometer. Um die Vorgänge in der Atmosphäre möglichst genau abbilden zu können, liegen in der Vertikalen 30 dieser Gitternetze übereinander. In einem Rechenschritt wird für jedes dieser Kästchen das Klima berechnet. Ein Simulationsdurchlauf deckt dabei einen Zeitraum von mehreren hundert Jahren ab. Auch wenn die Berechnungen im starken Zeitraffer durchgeführt werden – bei bis zu 432 Billarden Rechenoperationen, wie beispielsweise Remo sie erfordert, können solche Simulationen nur mit dem Einsatz von Hochleistungsrechnern durchgeführt werden. „Ein PC der neusten Generation wäre mit der Berechnung von solch komplexen Klimamodellen hoffnungslos überfordert und deutlich langsamer als das Klima selbst“, sagt Michael Böttinger vom Deutschen Klimarechenzentrum (DKRZ). Für „Remo“, schätzt Göttel, wäre ein PC rund 70 Jahre beschäftigt. Aber auch Supercomputer kommen schnell an ihre Grenzen: Für alle Modelle gilt nämlich je feiner die Auflösung, also die Maschenweite des Gitters ist, desto mehr Rechenleistung wird benötigt. „Bei globalen Modellen ist man mit einer Auflösung von 200 Kilometern schon an der Leistungsgrenze moderner Computercluster angekommen“, so Böttinger. Für das neuste Erdklima-Modell am Max Planck Institut für Meteorologie in Hamburg seien die Rechner ein Jahr im Dauereinsatz gelaufen.
Kein Wunder, müssen doch jedes Mal eine Vielzahl von mathematischen Gleichungen gelöst werden. Die Formeln beschreiben unter anderem die Veränderung der Temperatur, von Winden und den Transport der Feuchtigkeit von einer Gitterbox zu nächsten. Und das für den gesamten Erdball. „Wir unterscheiden bei der Modellierung dynamische Prozesse, die mit präzisen Gleichungen abgebildet werden können und so genannte physikalische Parametrisierungen“, erklärt Göttel. Das seien im Prinzip Schätzungen für Prozesse die die Wissenschaft noch nicht verstanden hat oder die einfach nicht im Modell wiedergegeben werden können. „Die Wolkenbildung ist so ein Beispiel“, sagt Böttinger. „Im Anfangsstadium sind die kondensierenden Wassertröpfchen nur wenige Mikrometer groß. Bei einer Maschenweite von 200 Kilometern sind sie schlicht zu klein, um wirklichkeitsgetreu simuliert zu werden.“
Trotz solcher Probleme hat man seit Mitte der 70er-Jahre große Fortschritte im Bereich der Klimasimulation erzielen können. Bestanden die ersten Klimamodelle noch ausschließlich aus einem Modell für die Atmosphäre, setzen sich die aktuellen Klimamodelle aus mehreren Untersystemen, etwa für den Ozean, die Landmasse oder den Kohlenstoffkreislauf, zusammen. „In die neusten Modelle werden auch die Änderungen der Vegetation berücksichtigt und in Form von Gleichungen integriert“, erklärt Göttel. Denn ändert sich das Klima, ändert sich dementsprechend auch der Bewuchs. Immergrüne Wälder etwa schlucken viel Sonneneinstrahlung und erwärmen so die jeweilige Klimazone. Mit schnelleren Rechnern könnte man in Zukunft die globalen Modelle feiner auflösen und somit genauere Szenarien errechnen. Neben dem Einfluss der Vegetation ist eine der wichtigsten Forschungsfragen der Einfluss von Schwebeteilchen (Aerosolen), wie Ruß- und Staubpartikel auf die Sonneneinstrahlung. Auch wenn deren genaue Wirkung auf das Klima noch nicht geklärt ist – das Ziel für die Zukunft ist klar: ein möglichst umfassendes Erdmodell. „Die Genauigkeit der Szenarien hat durch den Fortschritt in der Modellierung jedenfalls stark zugenommen“, sagt Lars Schanz, von der deutschen IPCC-Koordinierungsstelle.
So gut die Modelle aber auch werden – wie sich das Klima entwickeln wird, hängt maßgeblich vom Faktor Mensch ab. „Die größte Ungenauigkeit bei den Simulationen ergibt sich dadurch, dass wir nicht voraussagen können, wie sich der Treibhausgasausstoß in Zukunft entwickeln wird“, sagt Göttel. Sicher ist allerdings: Selbst wenn ab heute kein Kohlendioxid mehr in die Atmosphäre gelangen würde, ist eine Erwärmung des Weltklimas nicht mehr aufzuhalten. (wst)