»Unglückliche Verquickung von Politik und Wissenschaft«

Ein Gespräch mit dem Physiker Stefan Rahmstorf über Ursachen und Bedeutung der neu entflammten Klimadebatte.

vorlesen Druckansicht
Lesezeit: 15 Min.
Von
  • Astrid Dähn
Inhaltsverzeichnis

Stefan Rahmstorf ist Professoram Potsdam-Institut für Klimafolgenforschung und Mitglied im Panel on Abrupt Climate Change.

Technology Review: Was halten Sie von der Diskussion um die Studie von Michael Mann und seinen Kollegen. Sind die Vorwürfe der beiden kanadischen Forscher, McIntyre und McKitrick,berechtigt?

Stefan Rahmstorf: Mein Spezialgebiet sind die Klimaänderungen der letzten Eiszeit. Ich habe bisher nicht an der Rekonstruktion der Klimageschichte des vergangenen Jahrtausends gearbeitet. Und ohne es selbst durchgerechnet zu haben, kann ich auch nicht mit Sicherheit beurteilen, inwieweit diese doch sehr ins technische Detail gehende Kritik zutrifft. Gemeinsam mit Experten für Zeitreihenanalyse von der Universität Potsdam haben wir aber gerade ein Projekt beantragt, in dem wir uns die verschiedenen Rekonstruktionen des vergangenen Jahrtausends näher ansehen wollen.

Greifen wir schon einmal vor: Was wäre, wenn sich herausstellte, die Mann-Kurve müsste tatsächlich korrigiert werden? Müsste man dann grundlegende Aussagen der Klimaforschung revidieren?

Nein, es gibt natürlich noch weitere Arbeitsgruppen, die mit anderen Methoden jeweils ihre eigenen Rekonstruktionen für das letzte Jahrtausend aus Proxydaten gemacht haben, also aus Baumringen, Eisbohrkernen und ähnlichem. Die Rekonstruktionen der anderen Forscherteams unterscheiden sich zwar durchaus von Manns Kurve, zum Beispiel in der Amplitude der Temperaturschwankungen und in den Details, wo es etwas wärmer und wo es etwas kälter ist. Aber Michael Mann hat, was ich sehr lobenswert finde, als einziger auch die Fehlermargen dazu angegeben. Und weil die Temperaturdaten relativ dünn gesät sind, wenn man so weit in die Klimageschichte zurückgeht, sind die Margen entsprechend groß. Deshalb spielen sich die Abweichungen der Kurven großenteils innerhalb der von Mann angegebenen Fehlergrenzen ab. Auch die Korrektur von McIntyre und McKitrick liegt gerade noch am Rand des Fehlerbereichs. Insofern wäre das keine dramatische Änderung.

Aber mal angenommen, all diese auf Proxydaten basierenden Temperaturverläufe wären falsch, etwa wegen eines systematischen Fehlers in der statistischen Analyse.

Dann gibt es neben diesen Datenrekonstruktionen noch eine Reihe von Modellsimulationen für das letzte Jahrtausend. Solche Modellrechnungen kommen auf ganz andere Weise zustande als die Datenrekonstruktionen: Man analysiert die Sonnenaktivität und die Vulkanausbrüche in vergangenen Zeiten. Das sind die beiden Hauptauslöser für natürliche Temperaturschwankungen. Dazu kommen noch andere potenziell klimaverändernde Faktoren wie etwa die Konzentration der Treibhausgase; sie kennt man aus Eisbohrkernen. Oder die Änderung der Landnutzung, also im Wesentlichen die Abholzung. Oder die zyklischen Variationen der Erdbahn, die einst die Eiszeiten verursacht haben. Nimmt man nun all diese Antriebsfaktoren zusammen, dann lassen sich die daraus zu erwartenden Klimaschwankungen berechnen. Einzelne solcher Simulationskurven unterscheiden sich zwar in ihrem Verlauf. Aber in wesentlichen Kernaussagen sind sich sowohl die Modellsimulationen als auch die Datenrekonstruktionen einig.

Wie lauten diese Kernaussagen?

Das Klima des Mittelalters war relativ warm, anschließend gab es eine Abkühlung bis ins 17. oder 18. Jahrhundert, wo sich kürzere Schwankungen überlagerten. Danach haben wir im 19. und im 20. Jahrhundert einen starken Trend zur Erwärmung. Was die Studien auch übereinstimmend ergeben, ist die Tatsache, dass es Ende des 20. Jahrhunderts wärmer ist als je zuvor in den letzten tausend Jahren. Das bliebe im Übrigen auch gültig, wenn die Korrektur von McKitrick und McIntyre zuträfe.