Konsequenzenlose Klarheit

Die roten Säulen stellen die Abweichung des globalen Jahresmittels von einem Referenzwert dar, und zwar in diesem Fall das Mittel der Jahre 1901 bis 2000. Eine derartige Darstellungsweise als Anomalie ist in den Klimawissenschaften weit verbreitet, um die Veränderungen deutlicher hervortreten zu lassen. Die blaue Linie beschreibt ein gleitendes mehrjähriges Mittel und hätte eigentlich nicht bis 2010 durchgezeichnet werden dürfen. Bild: NOAA

Die Energie- und Klimawochenschau: Über den Klimawandel und seine Folgen hat das Jahr noch größere Gewissheit gebracht, aber vor den Schlussfolgerungen wird sich weiter gedrückt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Das Jahr geht zu Ende und verabschiedet sich mit katastrophalen Unwettern. Nordindien wird derzeit von einer Kältewelle heimgesucht, und auf den Philippinen hat Tropensturm "Washi" fast 1000 Menschenleben gefordert. Recht unsanft werden wir daran erinnert, was uns in einer wärmeren Welt blüht: mehr Variabilität, mehr Temperaturschwankungen oder mit anderen Worten: mehr Wetterextreme.

Klimawissenschaftler haben in den vergangenen Jahren auch über diesen Aspekt des Klimawandels ausgiebig geforscht, und der IPCC, der Intergovernmental Panel on Climate Change, hat die Ergebnisse, wie erwähnt (Energiewende ausbremsen?), in einem Sonderbericht zusammengetragen. Die Zusammenfassung wurde im November veröffentlicht, der vollständige Bericht soll im Februar 2012 folgen, und wird dann hier herunter zu laden sein. Insgesamt zeichnen die 220 Autoren des Berichts, die aus 62 Ländern kommen, einen differenziertes Bild im Bezug sowohl auf den Ist-Zustand als auch auf die Zukunftsaussichten. Wenig Zweifel gibt es daran, dass sowohl die Tagesminimum-Temperaturen als auch die Maxima in den meisten Regionen steigen. Ziemlich sicher ist auch, dass es noch weit schlimmer kommen kann. "Für die Szenarien mit hohen Emissionen ist es wahrscheinlich, dass die Häufigkeit heißer Tage in den meisten Regionen der Welt um den Faktor zehn zunehmen wird", meint der stellvertretende Leiter der IPCC-Arbeitsgruppe I, Thomas Stocker, der an der Uni Bern forscht und lehrt.

Bei den tropischen Wirbelstürmen gehen die Meinungen nach wie vor auseinander. Das spezielle Problem dort ist, dass sie nicht nur von den Temperaturen, sondern auch von anderen meteorologischen Parametern bestimmt werden. Höhere Temperaturen der unteren Troposphäre und vor allem der obersten Wasserschichten der Meere befördern zwar ihre Bildung. Ist aber die sogenannte Windscherung zu groß, das heißt, nehmen die Winde in der entsprechenden Region mit der Höhe zu stark zu, so wird die Herausbildung der oft gewalttätigen Stürme dennoch unterdrückt. Ziemlich sicher ist dagegen das große Bild der Veränderungen der Niederschläge. Sowohl Starkregen als auch Dürren werden zunehmen und heftiger ausfallen, mitunter auch in den gleichen Regionen. In einigen ist derlei heute schon zu beobachten.

Die Zuordnung einzelner Ereignisse ist dabei natürlich unmöglich. Extremereignisse treten per Definition selten auf. Es geht also eher darum, eine Tendenz festzustellen. Aber wenn ein Ereignis so selten ist, dass es in der überblickbaren Zeit einmalig ist, dann stellt dies natürlich ein gewisses Indiz dar. Insbesondere, wenn sich derlei Rekorde häufen, wie in den letzten Jahren.

Man denke nur an die westeuropäische Hitzewelle 2003, die schweren Überschwemmungen in Pakistan in 2010 sowie die nie zuvor gesehene Serie von Waldbränden im europäischen Teil der russischen Föderation, ein Ergebnis starker Hitze gepaart mit extremen Mangel an Niederschlägen.

In diesem Jahr erlebte die gleiche Region übrigens den drittheißesten Sommer seit Beginn der Wetteraufzeichnungen. Im benachbarten Helsinki war 2011 der heißeste Sommer in den fast 200jährigen Wetteraufzeichnungen, und im Süden verzeichnete Armenien nach den Angaben der Weltmeteorologieorganisation mit 43,7 Grad Celsius einen neuen nationalen Hitzerekord.

Auch die Dürre, die den US-Bundesstaat Texas und angrenzende Gebiete seit vielen Monaten im Griff hat (Texas: Rekord-Dürre hält weiter an), ist ein Kandidat, wenn es um die Indiziensuche für den Klimawandel geht. Auf jeden Fall gibt ein Blick auf die dortigen Buschbrände, die ruinierten Bauern und die notgeschlachteten Rinderherden einen Vorgeschmack darauf, was noch alles kommen mag, zum Beispiel in der Region rund um das Mittelmeer, für die alle Klimamodelle eine drastische Verstärkung der Wasserkrise vorhersagen.

Dabei zeigt sich in Texas mal wieder, dass es natürlich einen erheblichen Unterschied macht, ob ein reiches oder ein armes Land von derartigen Naturgewalten getroffen wird. Denn immerhin hat der US-Staat die Mittel, mit den Bränden umzugehen, wenn auch vielleicht nicht mehr ganz im wünschenswerten Umfang, weil eine neoliberale Politik zuvor bei den Feuerwehren reichlich Kürzungen durchgesetzt hatte. Und immerhin können die reicheren Ranchers noch den Grundstock ihrer Herden in anderen Landesteilen in Sicherheit bringen. Ihre Kollegen in der afrikanischen Sahel-Zone hätten dafür wohl kaum die Möglichkeit.

In Texas und einigen benachbarten US-Bundesstaaten hält die Dürre derweil unvermindert an, wie ein Blick auf den Drought Monitor zeigt. Und auch für die nächsten Monate ist keine Besserung in Sicht: Die Klimavorhersage der US-Wetterfrösche von der NOOA geht davon aus, dass es in weiten Teilen der betroffenen Region auch im ersten Quartal 2012 überdurchschnittlich warm sein wird, während die Niederschläge unterdurchschnittlich bleiben.

Ein neuer Blick auf die Temperaturdaten

In den letzten Jahren war es ein beliebtes Argument der regen Gemeinde selbsternannter Skeptiker, dass die globale Erwärmung zum Stillstand gekommen sei. Seitdem die Temperaturdaten für letztes Jahr vorliegen, lässt sich das schwer aufrechterhalten. 2010 war nämlich entweder alleine oder gemeinsam mit 2005 das wärmste je gemessene Jahr.

Also gewann eine andere Argumentationslinie neue Bedeutung. Die globale Temperatur werde falsch berechnet, zum Beispiel weil der Urbanisierungseffekt in den Daten nicht berücksichtigt wird. Das ist natürlich ähnlicher Blödsinn, denn Meteorologen und Klimatologen ist das Phänomen seit vielen Jahrzehnten bekannt, und entsprechend werden die Daten korrigiert, bevor aus ihnen die globale Mitteltemperatur berechnet wird.

Dabei geht es um folgendes: Wenn Messstationen einst im Grünen errichtet wurden und um sie herum später die Städte wuchsen, weisen ihre Temperaturzeitreihen meist einen positiven Trend auf. Das liegt daran, dass das lokale Klima in Städten meist signifikant wärmer als im Umland ist. Aus den Daten lässt sich dieser für die globalen Betrachtungen unerwünschte Effekt meist eliminieren.

Eine Methode ist es, die Lage der Städte aus den Helligkeitswerten nächtlicher Satellitenaufnahmen abzuleiten und dadurch fragliche Datensätze zu identifizieren. In einem anderen Verfahren werden die Daten mit denen nahgelegener Stationen verglichen, deren ungestörte Geschichte belegt ist. Zeigen sich abweichende Entwicklungen, so wird der Datensatz genauer untersucht und gegebenenfalls korrigiert, sofern sich der Stadt-Effekt einwandfrei quantifizieren lässt, oder ausgesondert.

All das sind für Statistiker auch in anderen Fachrichtungen keine ungewöhnlichen Dinge. Wer Zeitreihen analysiert, muss immer als erstes sicher stellen, dass seine Datengrundlage möglichst frei von Artefakten ist. Und da Menschen natürlich fehlbar sind, ist es immer besser, wenn zwei oder auch drei Augenpaare auf die gleichen Daten schauen.

Im Falle der globalen Temperatur sind es bisher drei Forschergruppen gewesen, die voneinander unabhängig zu sehr ähnlichen Ergebnissen gekommen sind. In den USA analysieren sowohl bei der National Ocean and Atmosphere Administration (NOAA) als auch am New Yorker Goddard-Institut der NASA (GISS) Klimawissenschaftler regelmäßig die Daten, um die Fieberkurve des Planeten fortzuschreiben. Die dritte Gruppe arbeitet beim britischen Wetterdienst am Hadley Centre.

Seit Oktober diesen Jahres liegen nun die Ergebnisse einer vierten Gruppe vor. Im kalifornischen Berkeley hatten sich einige hochkarätige Statistiker und Physiker, darunter Nobelpreisträger Saul Perlmutter, zusammengetan, die angesichts der schlechten Qualität vieler Klimadatensätze nicht so recht glauben wollten, dass die anderen Gruppen den globalen Trend richtig berechnet haben. Sie gründeten das Projekt Berkley Earth Surface Temperature, und ließen sich eine neue Untersuchung der Datenbasis von Lobby-Organisationen bezahlen, die gewöhnlich gegen den Klimaschutz zu Felde ziehen. Jedenfalls berichtet letzteres der britische Fernsehsender BBC.

Die Ergebnisse vier unabhängiger Wissenschaftlergruppen sind trotz der Verwendung unterschiedlicher Datensätze und Analyseverfahren nahezu identisch. Dargestellt ist wie oben die Abweichung der globalen Mitteltemperatur von einem Referenzwert. Der rote Graph stellt die Ergebnisse der britischen Gruppe dar. Bild: Berkeley-Gruppe

Das Ergebnis der Arbeit wird den Auftraggebern allerdings gar nicht geschmeckt haben. Die Kalifornier kommen nämlich zu dem gleichen Ergebnis wie die anderen drei Gruppen: Die globale Temperatur steigt. Ihre Kurve ist mit denen der anderen Wissenschaftler nahezu identisch, Abweichungen sind meist nicht statistisch signifikant (alles, was in der obigen Grafik außerhalb des grauen Bereichs ober- oder unterhalb der Berkeley-Kurve liegt, stellt eine signifikante Abweichung dar).

Auffallend ist übrigens, dass insbesondere in den letzten zehn Jahren die globalen Mittelwerte der britischen Gruppe deutlich geringer als die aller anderen sind. Das hielt die Gemeinde der selbsternannten Skeptiker allerdings nicht davon ab, diese Wissenschaftler vor zwei Jahren im Zusammenhang mit den gestohlenen Emails (Datenklau) in besonders gehässiger Weise anzufeinden.

Die Ursache der Abweichung ist schon seit längerem bekannt. Die Briten schließen aufgrund der Datenknappheit in der Arktis weite Teile dieser Region aus ihrer Analyse aus. Da dort aber die Erwärmung besonders stark ausfällt, ist der Mittelwert für den Rest des Planeten entsprechend geringer.

Neue Einsichten in die Statistik

Die Arbeit des Berkeley-Teams ist aber, obwohl das Endergebnis nichts Neues bietet, in mancherlei Hinsicht ziemlich interessant. Zum einen konnten sie zeigen, dass auch Stationen, die für die Bestimmung der absoluten Temperatur unbrauchbar sind, weil sie in der Nähe von Gebäuden, Parkplätzen oder gar Hitzequellen stehen, immer noch den gleichen Trend zeigen wie Datensätze guter Qualität. Die Messdaten mögen also für Aussagen über die absolute Temperatur wertlos sein, sie enthalten dennoch eine unverfälschte Information über den Trend, wie Studienleiter Richard Muller im Frühjahr vor dem US-Kongress aussagte.

Muller wies auch darauf hin, dass die Datensätze im allgemeinen viel Rauschen enthalten und sich sinnvolle Aussagen über den Trend erst ergeben, wenn ein Mittel über viele Zeitreihen gebildet wird. Zufällige Abweichungen heben sich dann nämlich gegenseitig auf. Insofern mache es auch keinen Sinn, die Messungen einzelner Stationen als Gegenbeweis anzuführen, so Muller. Die globale Erwärmung sei eben nichts, was sich durch unmittelbares menschliches Erleben erschließe. Nur statistische Betrachtungen können die Veränderung in der Temperatur erfassen.

Konsequenzen werden nicht gezogen

Somit könnte das Jahr 2011 eigentlich als das Jahr in die Geschichte eingehen, in dem die letzten Zweifel an der globalen Erwärmung ausgeräumt wurden. Doch das wäre sicherlich nur dann der Fall, wenn es nicht weiter mächtige wirtschaftliche Interessen gebe, die vom Klimaschutz nur Nachteile zu erwarten haben und die daher auch weiter für das Säen von Zweifel sorgen werden.

Mit Erfolg, wie die diesjährige UN-Klimakonferenz in Durban gezeigt hat. Wie berichtet (Lukrativer Wahnsinn) wurde der internationale Klimaschutz dort mal wieder auf die lange Bank geschoben. Zum Glück tut sich aber immerhin so manches beim Ausbau der erneuerbaren Energieträger. Darüber soll im zweiten Teil des Jahresrückblicks in der nächsten Wochenschau berichtet werden.