Das CO2-Syndrom

Vom Zeitalter der Aufklärung in die "Heißzeit" der Narrative, Ängste und Glaubenskriege

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Wie schön muss das Leben in der Zeit vor der Aufklärung gewesen sein. Sonne und Wind, Kälte und Regen kamen aus Gottes Hand. Um von weiterer Unbill des Wetters verschont zu werden, wurde gebetet, gespendet und gepilgert. Dagegen ist das Leben seit der Aufklärung immer komplizierter geworden: alles wird gewusst oder soll demnächst gewusst werden. Vor lauter (möglichem) Wissen und den Schwierigkeiten, danach sein Handeln auszurichten, kann man stattdessen rein lebenspraktisch auf das Sprichwort setzen: "Was ich nicht weiß, macht mich nicht heiß." Eine solche Einstellung dosiert auf positive Weise durch Wissen hervorgerufene unangenehme Erlebnisse und Ängste.

Leider können und wollen sich die Menschen aber dem wachsenden Wissen über die verschiedensten Lebensbedingungen nicht entziehen, denn man könnte von dem sonst unbekannt Bleibenden persönlich bedroht sein oder umgekehrt sogar Kapital aus dem Wissen schlagen. Immer mehr Wissen der Menschen hat daher auch häufig die leidige Konsequenz, dass sie immer öfter und schneller "heiß drehen". Das, was gewusst wird, wissen nicht alle und viele nicht richtig. Zudem schafft der Verstand des Menschen es nicht, den Kopf zu dominieren und so die von den Entdeckungen ausgelösten Gefühle, insbesondere die Ängste, zu neutralisieren.

Zu den Entdeckungen der aufgeklärten Menschheit gehören auch Erkenntnisse über Bedrohungen des Menschen: Masern, Diesel, Atomkraftwerke, Ozonlöcher. Meist stammen die Bedrohungen von natürlichen Organismen oder chemischen Substanzen. Bakterien, Viren oder Atome, Feinstaub und Stickoxyd usw. drohen - wenn schon nicht mit dem Tod - so doch mit erheblichen Einschränkungen der Lebensumstände.

Vertrackt wird es, wenn diese Stoffe und Substanzen nicht nur schädigen, sondern - zumindest in der richtigen Dosierung - auch nützen können. Sie können sozusagen eine Dual-Use-Eigenschaft tragen. Zu diesen Dual-Use-Stoffen zählt auch das Gas Kohlendioxyd. Aufgrund der einseitigen Fokussierung auf seine potentiell schädigenden Wirkungen wird es - gerade wegen seiner globalen Wirkmächtigkeit - in der aktuellen Diskussion zum Kampfobjekt, im Ökologiekrieg zum Feind, der vollständig beseitigt werden muss. Das (Halb-)Wissen (nur) um seine schädlichen Wirkungen lässt die Gefühle und den politischen Kampf heiß laufen.

Das Dual-Use des CO2

CO2 ist als natürlicher Bestandteil der Luft ein wichtiges Treibhausgas in der Erdatmosphäre. Kohlendioxyd ist, anders als man es außerhalb der Wissenschaft zurzeit für wahr hält, eigentlich und im Grundsatz kein Feind, sondern ein Freund des Menschen. Erst durch diesen und weitere Stoffe (Treibhausgase) ist Leben auf der Erde möglich. Ohne natürliches CO2 und z.B. Wasserdampf in der Atmosphäre wäre die Erde im globalen Mittel -18° Celsius kalt. Sie wäre vereist, Leben wäre nicht möglich.

Leben ist aber deshalb möglich, weil eine Ansammlung dieser Gase in der Atmosphäre in der Tendenz zu einer Erwärmung der unteren Erdluftschichten führt. Die Treibhausgase haben die besondere Eigenschaft, die von der Sonne auf die Erdatmosphäre treffende energiereiche Strahlung relativ ungehindert passieren zu lassen. Die von der Erdoberfläche und den Wolken ausgehende Wärmerückstrahlung wird wiederum von den Treibhausgasen absorbiert und zum Teil ins Weltall und zum Teil zur Erde wieder zurückgestrahlt. Diese Erd-gerichtete Rückstrahlung hat den Effekt, dass auf der Erde ein Zustand wie im Treibhaus entsteht. Ohne Treibhausgase würde die Wärmestrahlung sonst vollständig ins Weltall entweichen. CO2 hat somit zusammen mit anderen Treibhausgasen in der Atmosphäre eine wärmerückstrahlende Eigenschaft, die verhindert, dass zu viel von der von der Erde zurückreflektierten Sonnenenergie wieder in den Weltraum entweicht. Diese Eigenschaft u.a. des CO2 bewirkt, dass sich die bodennahe Mitteltemperatur gegenüber dem ungeschützten Zustand ohne Treibhausgase um 33° erhöht und so im Mittel eine globale mittlere Temperatur von ungefähr +15°C sicherstellt. Damit kann Leben auf der Erde stattfinden.

Um es provokativ zu formulieren: Von diesem nützlichen Stoff stößt Deutschland betrachtet über den Zeitraum der letzten 60 Jahre immer weniger aus. (Alle nachfolgenden CO2-bezogenen Daten sind dem Global Carbon Projekt entnommen.) Im Jahr 1960 wurden in Deutschland 814 Mio. t CO2 emittiert. Nach einem Anstieg bis zum Peak im Jahr 1979 mit rd. 1120 Mio. t CO2 sanken die Emissionen auf 799 Mio. t im Jahr 2017. Es wird damit heute in Deutschland weniger CO2 emittiert als vor 60 Jahren. Gegenüber dem Höhepunkt in 1979 mit 1.120 Mio. t ist der Ausstoß im Verlauf von 40 Jahren um rd. 320 Mio. t bzw. 28,5% gesunken.

Grafik: Friedrich Homann

Diese Entwicklung ist angesichts der gleichzeitig in diesem Zeitraum in Deutschland stark angewachsenen Wirtschaftsleistung überraschend. Denkt man doch gemeinhin, dass mit immer mehr Waren, Dienstleistungen und Konsum zwangsläufig die CO2-Emissionen zunehmen. Denn bei fast allen Aktivitäten ist der Einsatz von Energie, dabei primär aus der Verbrennung von Kohlenstoff, erforderlich.

Da der Einsatz von Kohlenstoff - also Kohle, Öl, Gas - aber Kosten verursacht, resultierte aus dem wirtschaftlichen Interesse um Kosteneinsparung zugleich eine Reduzierung der zur Verbrennung eingesetzten Kohlenstoffe und damit der daraus resultierenden CO2-Emissionen. Das ist im Kern auch der konzeptionelle Hintergrund für den bereits laufenden Emissionshandel und die aktuellen Überlegungen zur Einführung einer CO2-Steuer.

Das nachfolgende Diagramm zeigt für den Zeitraum 1970 bis 2017 auf, dass in Deutschland je Mrd. € Wirtschaftsleistung mit der Zeit immer weniger CO2-Emissionen verbunden waren. 1970 fiel mit 361 Mrd. € Wirtschaftsleistung die Menge von rd. 1.026 Mio. t CO2 an. Jeder eingesetzten Tonne CO2 standen also rd. 352 € Wirtschaftsleistung gegenüber. Bis zum Jahr 2017 war dagegen das BIP auf rd. 3,3 Billionen € gestiegen, während die CO2-Emissionen auf 799 Mio. t gesunken waren. Damit hat sich im Laufe von rd. 50 Jahren bis zum Jahr 2017 die Effizienz der aus dem Kohlenstoffeinsatz resultierenden Wirtschaftsleistung nahezu verzwölffacht: mit jeder Tonne CO2 sind jetzt nicht mehr 352 € Wirtschaftsleistung wie in 1970, sondern rd. 4,101 Mio. € BIP verknüpft.

Grafik: Friedrich Homann

Die zweite Seite des CO2

Neben der oben beschriebenen klimafreundlichen Eigenschaft des CO2 gibt es auch eine das Klima beeinträchtigende Seite. Sie wird nicht an den Emissionen in Deutschland, die ja sogar im Zeitverlauf gesunken sind, deutlich, sondern erst in der globalen Betrachtung. Nicht das Gas an sich, sondern die Überschreitung bestimmter Mengen bzw. Konzentrationen (ppm) in der Atmosphäre hat negative klimarelevante Folgen. Dabei ist auch die Anhäufung der Treibhausgase in der Erdatmosphäre über die Gesamtdauer ihrer Emissionen einzurechnen. Ein einmal emittiertes CO2-Molekül verbleibt rd. 100 Jahre in der Atmosphäre. Die seit langem aktiv emittierenden Industriestaaten spielen deshalb eine gewichtigere Rolle und diese haben infolgedessen auch eine größere Verantwortung zu tragen.

Der weltweite Gesamtausstoß an CO2 ist seit 1960 genau erfasst. Erst in der Zusammenschau aller weltweiten Emissionen ergibt sich die klimaverändernde Seite des CO2. Von rd. 9.411 Mio. t CO2 im Jahr 1960 hat sich der Ausstoß innerhalb von 20 Jahren bis 1980 bereits mehr als verdoppelt (19.600 Mio.t), um sich dann im Verlauf der nächsten 40 Jahre noch einmal um 16.600 Mio. t auf rd. 36.200 Mio. t in 2017 zu erhöhen (siehe Diagramm unten).

Grafik: Friedrich Homann

Dadurch ist die CO2-Konzentration in der Atmosphäre bereits heute auf etwa 400 ppm gestiegen. Dieser Wert liegt deutlich oberhalb des Wertes von 280 - 300 ppm aus vorindustrieller Zeit. Damit werden nach weitgehendem Konsens der Klimawissenschaft steigende globale Durchschnittstemperaturen und infolge dessen gravierende Klimaveränderungen in Verbindung gebracht.

Hintergrund ist, dass die größere Dichte der Treibhausgase in der Atmosphäre die Re-Reflexion der von der Erde Richtung Atmosphäre reflektierten Wärmestrahlung verstärkt, mit der Folge, dass die erdnahe Lufttemperatur sukzessive steigt. Die Frage ist, ab wann wird es unnormal bzw. gefährlich.

Der absolute Wert der globalen Erdmitteltemperatur beträgt, wie ausgeführt, ungefähr 15 Grad. Genau ist die globale Erdmitteltemperatur ohne anthropogene Einflussnahme aber nicht bekannt. Aus heutiger Sicht werden die 15° Normaltemperatur als etwas zu hoch bewertet. Bekannt und relevant ist aber letztlich nur die tatsächliche Veränderung der globalen Temperatur. Unter Einbeziehung der oben beschriebenen Faktoren (v.a. 280 ppm > 400 ppm Treibhausgasdichte) ist nach Aussage des IPCC die durchschnittliche globale Temperatur im Vergleich zur vorindustriellen Zeit seit 1850 um ca. 1° gestiegen.

Ob der absolute (normale, vorindustrielle) Temperaturwert daher bei 14,5° oder bei 15,0° liegt, ist jedenfalls dann unerheblich, wenn - welcher Wert auch immer - er auf jeden Fall in der weiteren Entwicklung deutlich überschritten wird. Bei weiter anwachsenden Treibhausgasen wird ein mit 14,5° definierter Normalwert lediglich eher überschritten.

Blick in die Systemzukunft

Bei unveränderten Treibhausgasemissionen wird sich der Trend steigender Temperaturen fortsetzen. Dieser Sachverhalt legt die Frage nach der zu erwartenden Zukunft nahe.

Nachdem in den letzten 2,4 Mrd. Jahren sieben Eiszeitalter mit einer geschätzten Gesamtdauer von etwa 515 Mio. Jahren entstandenen sind und vor 34 Mio. Jahren die Vereisung der Antarktis und die der Arktis vor 2,7 Mio. Jahren begann (gegenwärtiges Eiszeitalter, Quartär), wechselten sich längere Zeiten mit niedrigen Temperaturen (Kaltzeiten) und kürzere Zeiten mit höheren Temperaturen (Warmzeiten oder Interglaziale) ab. Als deren Folge sind Schwankungen der globalen Mitteltemperatur in den letzten Millionen Jahren zwischen 9 Grad Celsius und 16 Grad Celsius feststellbar. Während der Kaltzeiten sank die CO2-Konzentration bis auf 180 ppm ab, während sie in den dazwischenliegenden Warmzeiten auf 250-300 ppm hinaufkletterte.

Vor etwa 11.700 Jahren ging die letzte Kaltzeit zu Ende (sog. Weichsel- und Würm-Kaltzeit). Daran schloss sich unsere heutige Warmzeit, das Holozän, an, das selbst wiederum von kälteren und wärmeren Intervallen unterbrochen wurde und starke Schwankungen bei den Vergletscherungen aufwies (z.B. die Warmperiode von 950 bis 1250, sog. mittelalterliche Klimaanomalie, oder die "kleine Eiszeit" von 1350 bis 1850 auf der Nordhemisphäre mit 1 Grad kälter als heute).

Wärmer war es immer schon mal

Da sich das Erdklima seit rd. 12.000 Jahren in einer Warmzeit-Phase (Holozän) befindet, liegt eine Erwärmung grundsätzlich im allgemeinen Klimatrend. Es besteht vom Erwärmungstrend her in rein klimatischer Hinsicht auch kein grundlegender Unterschied zu anderen Warmzeiten.

Die Besonderheit der aktuellen Situation liegt nach Auffassung der Klimawissenschaft aber vor allem darin, dass - anders als in früheren Zeiten - die Temperaturen seit der Industrialisierung in sehr kurzer Zeit auf ein sehr hohes Maß angestiegen sind und dieser Trend bei anhaltender Steigerung der CO2-Emissionen sich fortsetzt. Ohne Korrekturen wird der jährliche CO2-Ausstoß bis 2050 um 195% steigen. Die Konzentration werden dann bei 750 ppm liegen und entsprechende Temperatursteigerungen ausgelöst haben.

Hinzukommt ein sozialer Aspekt: Nimmt man nur den modernen Menschen (homo sapiens) als relevante Bezugsgröße für die Folgenabschätzung von Klimaänderungen, so waren bis vor 200.- 300.000 Jahren alle Klimaänderungen nicht relevant; es gab ihn noch nicht. Erst vor rd. 80.000 Jahren begann er sich in ganz Afrika und dem Nahen Osten auszubreiten.

Klimatisch bedingte Veränderungen der Lebensumstände haben im weiteren Menschheitsverlauf immer wieder zu Gegenreaktionen in Form von Wanderungsbewegungen oder Anpassungsmaßnahmen geführt. Bereits kurz nach seinem Auftauchen erlitt homo sapiens die erste Klimakatastrophe: Vor 75.000 Jahren schrumpfte infolge des Ausbruchs des Supervulkans Toba die Zahl der Menschen weltweit auf 1.000 bis 10.000. Erst vor 45.000 Jahren hatte der moderne Mensch, wenn auch in insgesamt geringer Anzahl, ganz Asien und Europa besiedelt. Bis zum Ende der letzten Kaltzeit vor rd. 12.000 Jahren lebten dann etwa 5 bis 10 Millionen Menschen weltweit. Vor 1500 Jahren führten Änderungen des Erdklimas in Europa zu einem steigenden Meeresspiegel, an der Nordsee zu Malaria und in asiatischen Steppengebieten zu veränderter Vegetation und lösten im Zuge dessen die bekannten Völkerwanderungen aus.

Insoweit ist das aktuelle Verhältnis von Mensch und Klima nichts grundsätzlich Besonderes. Gegenüber früheren Zeiten liegt die soziale Dramatik des aktuellen Klimawandels allerdings in der Größenordnung der Betroffenen: die Menschheit ist seit dem Jahr 1800 von 1 Mrd. auf rd. 7,6 Mrd. Menschen in 2018 angewachsen. Zudem finden in exorbitantem Ausmaß Besiedlungen an den Meeresküsten statt, nahezu jede kleine Insel ist bewohnt. Grob geschätzt leben weltweit mehr als 200 Mio. Küstenbewohner unterhalb von 5 Metern (über Normalnull). Diese Zahl wird bis zum Ende des 21. Jahrhunderts auf schätzungsweise 400 bis 500 Mio. ansteigen. Darüber hinaus werden in diesem Zeitraum die Millionenstädte an den Küsten weiterwachsen. Für Europa schätzt man, dass bei einem Meeresspiegelanstieg von 1 Meter etwa 13 Mio. Menschen bedroht sein würden. Die gesamte wirtschaftliche Lebensweise der Menschen ist in weiten Teilen der Erde in hohem Maße durch klimasensible technologische Verfahren geprägt.

Der sehr schnelle und zugleich sehr hohe Temperaturanstieg bei gleichzeitig weltweit sehr hoher Zahl der von klimatischen Veränderungen Betroffenen macht den großen Unterschied zu früheren Zeiten. Lange Zeiten zur allmählichen Anpassung an veränderte Umstände sind aufgrund der rasch ansteigenden Temperaturen nicht gegeben.

Probleme von Prognosen und Projektionen

Die Klimaforschung identifiziert - nach heutiger Kenntnislage und in großem Konsens - als ausschlaggebenden Faktor für die seit der Industrialisierung feststellbare Erderwärmung die Zunahme von CO2 und anderen Treibhausgasen in der Atmosphäre. Viele Faktoren können das Klima zwar beeinflussen, der Faktor menschengemachter Treibhausgase gilt aber für die Gegenwart als der ausschlaggebende wissenschaftlich erkennbare Grund für den Temperaturanstieg.

Es gibt zwar auch - und zwar nicht a priori unsolide - kritische Gegenstimmen, sie beeinflussen aber momentan nicht den herrschenden Diskurs. Richtig ist, dass der Verweis auf die weit überwiegende Überzeugung der Klimawissenschaft (angeblich 98%) kein Beweis für die Richtigkeit dieser Überzeugung ist. Wissenschaft funktioniert nicht nach der demokratischen Spielregel des Mehrheitsentscheids, sondern nach wahr oder unwahr. Insofern ist - zumindest wissenschaftsbasierten - Kritiken durchaus öffentlicher, fairer Diskussionsraum zu gewähren. Es sollte nicht reflexartig mit dem Klimaleugner-Hammer operiert werden. Im Übrigen gehört kritisches Infragestellen elementar zur Wissenschaft, was bei den Reaktionen auf kritische Gegenstimmen nicht selten überblendet wird!

Etwas ganz anderes ist, auf welche Grundlage die Politik in einer solchen Situation ihre Entscheidungen über Handlungsnotwendigkeit und Handlungsrichtung stützen soll. Politik ist nicht Wissenschaft, sie kann sich - zumindest auf diesem Feld möglicher globaler negativer Klimaentwicklungen - nur auf das stützen, was breiter wissenschaftlicher Konsens ist. Niemand kann ernsthaft von der Politik erwarten, dass sie angesichts der überwältigenden wissenschaftlichen Konsenslage die Dinge einfach sich selbst überlässt.

Während also heute viele (aber nicht alle) klimatologischen Fakten der letzten 100 bis 150 Jahre (wenig, gut, bestens) bekannt sind und der seitdem vergangene Klimaverlauf somit hinreichend erklärt werden kann, stellt sich zwangsläufig die Frage nach der Zukunft.

Das Klimasystem ist ein typisches Exemplar für ein nicht lineares, chaotisches System. Es verändert sich über die Zeit unter dem Einfluss seiner eigenen inneren Dynamik und durch äußere Antriebe wie Vulkanausbrüche, solare Schwankungen und anthropogene Einflüsse, wie z.B. die Änderung der chemischen Zusammensetzung der Atmosphäre und Änderungen der Landnutzung. Zwar besteht zwischen den vielfältigen klimarelevanten Bestandteilen und Faktoren ein eindeutig bestimmbares festes Wirkungsverhältnis (deterministisch), die Entwicklungen unterliegen also im Grundsatz nicht dem puren Zufall. Aber selbst allerkleinste Veränderungen eines Parameters können auf längere Perspektive zu völlig anders gelagerten Ergebnissen führen als beim unveränderten Parameter.

Aus dieser chaotischen (nicht deterministischen) Eigenschaft des Klimasystems und seiner zugleich hochkomplexen Struktur ist verständlich, dass über das Klima in 30 oder 80 Jahren keine Prognosen abgegeben werden können.

Basis von Prognosen bilden Fakten aus der Vergangenheit, die z.B. durch Messungen und zeitliche Messreihen erhoben wurden. Sie extrapolieren unter Einbezug einiger Annahmen einen bestimmten vergangenen Prozess. Das ist für Aussagen über das zu erwartende künftige Klima nicht sachgerecht, weil - wie dargestellt - sich bereits kleinste Änderungen der Anfangswerte im Zeitverlauf grundlegend auf die Systementwicklung auswirken können.

In dieser Situation behilft sich die Klimawissenschaft für Aussagen über die Zukunft mit sog. Projektionen. Um zu verstehen, wie der Weltklimarat IPCC zu seinen Zukunftsaussagen kommt und was er eigentlich damit ausdrückt, ist das Wissen um das Zustandekommen dieser Projektionen von erheblicher Bedeutung. Die Klima-Projektionen werden in einem dreistufigen Prozess erstellt.

Zunächst werden verschiedene Szenarien entwickelt, d.h. plausible Darstellungen möglicher zukünftiger gesellschaftlicher Entwicklungen, die auf zusammenhängenden und in sich stimmigen Annahmen über wesentliche klimarelevante Antriebskräfte (z.B. Geschwindigkeit des Technologiewandels, Preise) und Beziehungen beruhen. Je nach Szenario ergeben sich dementsprechend unterschiedliche Szenarien von zu erwartenden zukünftigen Emissionen und damit Konzentrationen von Treibhausgasen. Wichtig zu wissen ist, dass die Szenarien auf Annahmen beruhen, beispielsweise über zukünftige sozioökonomische und technologische Entwicklungen, die eintreten können oder auch nicht.

Auf der Basis der Szenarien werden dann Klimaprojektionen erstellt. Dabei wird die Reaktion des Klimasystems auf die verschiedenen unterstellten Szenarien zukünftiger Emissionen und Konzentrationen von Treibhausgasen simuliert. Von Klimaprognosen unterscheiden sich Klimaprojektionen durch ihre Abhängigkeit von den verwendeten Szenarien zu Emissionen, Konzentrationen und der Änderung der von der Sonne an die obere Atmosphäre abgegebenen Energie, deren jeweiliger Eintritt wiederum nicht sicher ist.

Um das künftige Klima zu simulieren, also die Projektionen rechenbar zu machen, werden unterschiedlich komplexe Klimamodelle eingesetzt, die auf klimarelevanten Bestandteilen und deren Wechselwirkungen und Rückkopplungsprozessen basieren und einige seiner bekannten Eigenschaften berücksichtigen. "Gekoppelte Allgemeine Atmosphären-Ozean-Zirkulationsmodelle" stellen gegenwärtig das höchstentwickelte Klimamodell dar. Ergebnis dieser Operationen ist je nach Szenario ein möglicher künftiger Temperaturkorridor, also ein Bereich mit einer Schwankungsbreite möglicher Temperaturen - kein bestimmter einzelner Temperaturwert. Aus dem Temperaturkorridor wiederum werden dann nochmals Annahmen über das künftige Klima (Hitze, Überschwemmungen, Stürme, Niederschläge etc.) abgeleitet.

Die vier Temperatur-Projektionen des IPCC

Das IPCC liefert insoweit aufgrund vier zugrunde gelegter Szenarien vier mögliche Temperaturprojektionen, die jeweils eigene Temperatur-Korridore aufweisen, für die dann unterschiedliche Klimafolgen projiziert werden.

Die Darstellungen im 5. IPCC-Bericht sind differenziert und zugleich uneindeutig. Die bezogen auf den Referenzzeitraum 1986-2005 projizierte Änderung der globalen Lufttemperatur an der Erdoberfläche sowohl für das mittlere als auch das späte 21. Jahrhundert wird entsprechend der vier Szenarien dargestellt. Die Szenarien unterscheiden sich durch die für den Zeitraum 2012 bis 2100 geschätzte Menge an kumuliertem CO2 in der Atmosphäre.

TABELLE 1

Projektionen
RPC-Szenarien nach kumulierten t CO2 2012-2100 in Mrd. Wahrschein-licher Temperatur-anstieg Bereich von Spannbreite min/max Wahrschein-licher Temperatur-anstieg Bereich von Spannbreite min/max
Anstieg der globalen Erdmitteltemperatur RPC 2.6: 510 bis 1.505 t 0,4° bis 1,6° 1,2° 0,3° bis 1,7° 1,4°
RPC 4.5: 2.180 bis 3.690 t 0,9° bis 2,0° 1,1° 1,1° bis 2,6° 1,5°
RPC 6.0: 3.080 bis 4.585 t 0,8° bis 1,8° 1,0° 1,4° bis 3,1° 1,7°
RPC 8.5: 5.185 bis 7.005 t 1,4° bis 2,6° 1,2° 2,6° bis 4,8° 2,2°
Projizierte Temperaturänderungen bezogen auf den Referenzzeitraum 1986-2005

Die Schwankungsbreite der Temperaturen hängt im Übrigen nicht vollständig von der projizierten kumulierten CO2-Menge im Jahr 2100 ab, wie die Abweichung der Minimal- zu den Maximalwerten bei CO2-Menge und Temperaturbereichen veranschaulichen. Die CO2-Menge verursacht zwischen 40% und 50% die jeweiligen Temperaturanstiege.

TABELLE 2

i.J. 2100 kumuliertes CO2 in Mrd. t i.J. 2100 Temperaturanstieg
von bis Mini/Max von bis Mini/Max
510 t 1.505 t 195% 0,3° 1,7° 467%
2.180 t 3.690 t 69% 1,1° 2,6° 136%
3.080 t 4.585 t 49% 1,4° 3,1° 121%
5.185 t 7.005 t 35% 2,6° 4,8° 85%

In drei der vier untersuchten Szenarien könnte in dem Fall, dass die CO2-Kumulation max. 3.080 Mrd. t nicht überschreitet, ein Temperaturanstieg von unter 2° erwartet werden: 0,3°oder 1,1° oder 1,4°. Das deutet auf unterschiedliche technologisch-wirtschaftliche Spielräume hin, wenn der Wert von 2° nicht überschritten werden soll.

Der Kommentar des IPCC geht dagegen in eine andere Richtung: "Der weitere Anstieg der globalen Erdoberflächentemperatur wird", so das IPCC, "am Ende des 21. Jahrhunderts dazu führen, dass - mit Ausnahme von Szenario RCP2.6 - der Temperaturanstieg gegenüber der durchschnittlichen Temperatur von 1850-1900 wahrscheinlich mehr als 1,5°C höher liegen wird." Diese IPCC-Aussage ergibt sich erst durch eine Mittelwertbildung bei den Temperatur-Korridoren. Um die Schwankungsbreiten der vier Szenarien rechenbar zu machen, wird auf Mittelwerte zurückgegriffen. Diese Mittelwerte als zentrale Tendenz neutralisieren dabei die durchaus erwartbar möglichen besseren (und schlechteren) Entwicklungen.

TABELLE 3

Projektionen nach IPCC 2046-2065 2081-2100
RPC Szenarien Wahrscheinlicher Temperaturanstieg Bereich Mittelwert Wahrscheinlicher Temperaturanstieg Bereich Mittelwert
Anstieg der globalen Erdmitteltemperatur 2,6 0,4° bis 1,6° 1,0° 0,3° bis 1,7° 1,0°
4,5 0,9° bis 2,0° 1,4° 1,1° bis 2,6° 1,8°
6 0,8° bis 1,8° 1,3° 1,4° bis 3,1° 2,2°
8,5 1,4° bis 2,6° 2,0° 2,6° bis 4,8° 3,7°

Legt man allein die Mittelwerte an, erfolgt zum Jahrhundertende nur bei den zwei Szenarien 2.6 und 4.5 ein Temperaturanstieg von unter 2°. In der dritten Alternative 6.0 werden die 2° leicht überschritten. Nur beim Szenario 8.5 erhöht sich die Temperatur um 3,7°.

Der IPCC trifft nun weitergehend unter Bezug auf die Mittelwertbildung die Aussage: "Die Änderung der globalen Erdoberflächentemperatur wird am Ende des 21. Jahrhunderts für alle Szenarien außer RCP2.6 wahrscheinlich 1,5°C übersteigen. Sie wird für RCP6.0 und RCP8.5 wahrscheinlich mehr als 2°C sein und für RCP4.5 eher wahrscheinlich als nicht 2°C übersteigen."

Interessant ist, dass der IPCC jetzt die Mittelwertbildung nutzt, um den Eintritt des innerhalb der Schwankungsbreiten ermittelten höheren Temperaturwertes als wahrscheinlicher zu erklären. Obwohl z.B. bei RCP 4.5 die projektierte Temperaturerhöhung zwischen 1,1° bis 2,6° und der Mittelwert als zentrale Tendenz bei 1,8° liegt, soll die Erhöhung der Erdoberflächentemperatur dennoch über das Mittel 1,8° hinausgehend eher wahrscheinlich über 2° liegen. Darüber kann man noch nachdenken!

Der 5. Sachstandsbericht oder der Sonderbericht über 1,5°C globale Erwärmung des IPCC, selbst die Zusammenfassungen für politische Entscheidungsträger zeigen schon bei oberflächlicher Lektüre auf, um was für ein gewaltiges wissenschaftliches Programm es sich handelt. Mehr und besseres Wissen kann zur Frage über unsere möglichen künftigen Klimaverhältnisse nicht geliefert werden - auch oder gerade weil es sich bei den Zukunftsaussagen (nur) um eine Verkettung verschiedener begründeter Hypothesen handelt. Trotz hochkomplexer Berechnungen in Millionen von Rechenoperationen wollen die Wissenschaftler nicht den Eindruck erwecken, dass sie alles ganz genau wüssten. Vielmehr werden alle Annahmen und Aussagen des IPCC von ihm selbst an jeder Stelle unter den Vorbehalt bestimmter Grade von sicherem Wissen über vergangene Ereignisse und Vertrauenswürdigkeit über den Eintritt künftiger Ereignisse gestellt.

Das drückt sich gerade in den selbstreferentiellen Feststellungen zu sicherem Wissen, Wahrscheinlichkeit und Vertrauenswürdigkeit aus (siehe nachfolgende Tabelle, IPCC 5. Sachstandsbericht, Zusammenfassung für politische Entscheidungsträger, Tabelle SPM1).

Quelle: IPCC 2013

Einen absoluten Wahrheitsgehalt der vom IPCC vorgelegten Szenarien gibt es nicht, da sie allesamt - gut begründete - Hypothesenketten sind. Man könnte die Szenarien sarkastisch auch so umschreiben:

Die Klimamodelle erzeugen auf der Basis der in den Szenarien unterstellten Hypothesen zur künftigen sozioökonomischen und technologischen Entwicklung und den daraus folgenden Hypothesen zu Emissionen und Konzentrationen von Treibhausgasen hypothetische Aussagen über die künftigen Temperaturverhältnisse, aus denen Hypothesen zum künftigen Verlauf des Erdklimas (Hitze, Stürme, Überschwemmungen etc.) abgeleitet werden. Je nach projektionsspezifischem Klimazustand werden schließlich Annahmen über die Auswirkungen auf die Lebensbedingungen der Menschen getroffen.

Aus diesem Grund wird in der Klimawissenschaft insbesondere nicht behauptet, dass eine bestimmte Temperaturentwicklung zwingend eintreten wird mit ganz bestimmten Folgen. Es wird auch nicht behauptet, dass ein bestimmtes Szenario bewiesen ist und daher als wahr bzw. als sicher erwartete Tatsache gelten muss - wie auch, wenn es konzeptionell nur eine von mehreren möglichen Annahmen darstellt und die Folgen auch nur (plausible) Annahmen sind. Schon 2001, als der Klimawandel noch nicht im scharfen politischen Fokus stand, hat das IPCC formuliert, dass das Klimasystem längerfristige Zukunftsaussagen ausschließt.

Vom Klimawandel zum Erkenntniswandel

Verständlich ist, dass die Politik mit vier Hypothesenmodellen, je verschiedenen Bandbreiten von Temperaturverläufen und je divergierenden Klimafolgen nicht arbeiten kann. Politik kann nur entscheiden, ob sie die von der Wissenschaft aufbereitete Thematik ernsthaft und grundsätzlich für eine sehr wahrscheinliche Möglichkeit der künftigen Entwicklung hält. Sie muss sich auf ein operationalisierbares Temperaturziel festlegen und die für dessen Erreichung erforderlichen Maßnahmen einleiten. Politisch ist als max. Erwärmung gegenüber vorindustrieller Zeit das 2°-Ziel festgelegt worden. Um die Erderwärmung - mit einer Wahrscheinlichkeit von mindestens 66% (!) - auf 2° zu begrenzen, darf die CO2-Konzentration danach bis zum Jahrhundertende 450 ppm in der Atmosphäre nicht überschreiten.

Wenn eine Temperaturerhöhung um 2° zum Jahrhundertende von der Politik als noch tragbare Entwicklung bewertet wird, verbleiben ihr - gestützt auf die vom IPCC genannten Mittelwerte - dann noch die Szenarien RPC 2.4 und 4.5 mit - je nach kumulierter Treibhausgasmenge - von 1,0° bzw. 1,8° Temperaturanstieg zum Jahrhundertende.

Die auch diskutierte Alternative, statt der totalradikalen CO2-Kehrtwende primär auf Anpassungsmaßnahmen bei moderateren CO2-Reduktionen zu setzen, ist zumindest wissenschaftlich nicht abwegig. Ihr unterliegen die (ebenfalls nicht gesicherten) Annahmen, dass die Temperaturkorridore in den ersten drei Szenarien bei positivem Verlauf unter 2° Temperaturanstieg liegen; im Übrigen seien Null-Emissionen nicht oder nicht in der erforderlichen Zeit zu erreichen; das kann sein oder auch nicht. Es ist eine andere Form der Risikoabwägung. (Interessen wirtschaftlich Betroffener sind hier ebenso wenig ausgeschlossen wie umgekehrt im Fall der Vertreter grüner Technologien.)

Ganz anders als in der Wissenschaft und (einem Teil) der Politik gestalten sich in der allgemeinen öffentlichen Diskussion die Klimawandel-Narrative. Hier vollzieht sich ein Wandel eigener Art: die von der Wissenschaft sehr vorsichtig formulierten wissenschaftlichen Grundannahmen über mögliche künftige gesellschaftliche Entwicklungen mit ihren jeweiligen möglichen Temperatur- und Klimaprojektionen konvertieren in definitive Wahrheitsaussagen über eine zwingend eintretende künftige Entwicklung. Hier gibt es nicht mehrere und auch nur mögliche Entwicklungen, sondern nur noch eine und zwar absolut feststehende: Wenn die CO2-Emissionen nicht innerhalb kürzester Zeit auf null zurückgeführt werden, kommt unweigerlich der klimatische Totalkollaps. Die Quintessenz lautet: Die Temperatur steigt, die Erde wird kochen, wir werden untergehen. Nichts anderes symbolisieren die Totstelldemos der "Extinction Rebellion"-Bewegung.

Natürlich kann man sich auf den Eintritt nur der oben dargestellten günstigen Werte des IPCC nicht verlassen, sie sind aber ebenso wenig ausgeschlossen wie die jeweiligen Maximalwerte. Hiermit soll deutlich gemacht werden, dass die einzige in der Öffentlichkeit immer wieder kursierende Konsequenz einer nicht ausreichenden CO2-Reduzierung, nämlich ausschließlich der Anstieg um 5°, nicht nur um 0,2° übertrieben ist (richtig 4,8°), sondern nach den Aussagen des IPCC in dieser undifferenzierten Art auch nicht zutrifft. Während das IPCC für seine weiteren Schlussfolgerungen sich auf Mittelwerte stützt, wird von interessierter Seite allein der höchste Wert innerhalb der Schwankungsbreite des schlechtesten Szenarios propagiert. Aufklärung sieht anders aus.

Die Klimaforscher beschreiben im Weiteren je nach untersuchtem Szenario die klimatischen Folgen einer Temperaturerhöhung sehr differenziert (siehe IPCC-Tabelle oben). Für jedes Szenario gilt: Nicht alle Regionen der Erde sind in gleichem Umfang und gleicher Intensität betroffen, nicht überall wirken die gleichen Klimafaktoren und ebenso ist das zeitliche Ausmaß der Betroffenheit in den Regionen auch ganz unterschiedlich.

Der Erkenntnis-Wandel hin zur deutschen Öffentlichkeit vollzieht sich aber dahingehend, dass ohne sofortige im Jahr 2050 sichergestellte Emissionsreduzierung auf null Deutschland im Jahr 2100 in großen Teilen vom Meer überschwemmt ist und ganzjährig in wechselnder Folge von Hitzewellen, Schneestürmen, Dürren und Wolkenbrüchen heimgesucht wird. Flucht ist ausgeschlossen, da es überall gleich schlecht bestellt ist.

Angst ist ein schlechter Ratgeber

Angesichts solcher Erzählwelten über den Klimawandels ist es sehr gut nachvollziehbar, dass bei nicht wenigen Menschen Panik ausbricht. Sie haben angesichts der verkürzten, zugespitzten und teils unzutreffenden Wiedergabe der wissenschaftlichen Klimaerkenntnisse große Angst vor der von ihnen als sicher angenommenen alsbald eintretenden Bedrohung. Signifikante Einschränkungen der menschlichen Fähigkeiten zum (relativ) ruhigen, ausgewogenen und realitätsbezogenen Denken sind bei solchen panischen Zuständen nicht mehr ausgeschlossen. Insofern enthält der Filmtitel von Rainer Werner Fassbinder "Angst essen Seele auf" nur die halbe Wahrheit; auch der Verstand bleibt bei Angst auf der Strecke. Ist man von solchen Panikschüben erfasst, bleibt definitiv und mit absoluter Sicherheit keine Zeit mehr, es muss sofort etwas passieren! Ich kann mir Greta Thunbergs Aufschrei "Das Haus brennt!" nur vor so einem Gefühlshintergrund erklären.

Kinder sind ohnehin in einer unglücklichen Rolle: Das Erlernen des Weltwissens ist noch nicht abgeschlossen, eigene Lebenserfahrungen sind begrenzt und sie befinden sich bereits in vielfältigen anderen Bedrohungslagen. Um bei Greta Thunberg zu bleiben: Sie ist keine Prophetin neuer Erkenntnisse, auch sie kann sich nur auf das stützen, was erwachsene Menschen bislang erforscht und als Lösungsmöglichkeiten entwickelt haben. Sie kommentiert das Ganze nur mittels ihrer von Angst und Panik geprägten Gemütslage mit der Forderung, dass jetzt endlich etwas (was?) passieren muss.

Im Zustand der Panik wird versucht, alle die Situationen radikal auszuschließen, die die (vermutete) Ursache der eigenen Panik sind. Radikalität in Sprache und Entschlossenheit sind entsprechend vorprogrammiert. Also zwingend, sofort, mit allergrößtem Druck: runter auf Null-Emissionen - Diesel sofort weg, Kohle bald weg, alle Verbrenner auch bald weg (CO2), Massentierhaltung, Klärwerke und Mülldeponien weg (Methan), auch baldiges Ende der Düngemittelproduktion und Kunststoffindustrie (Lachgas) und sofortiger Stopp von Treibgas, Kühl- und Löschmittel (F-Gase). Einschränkung, Verzicht, Verbot, egal was, aber das volle Programm.

Deutschland - kein Maß aller Dinge

Nimmt man die radikalen Forderungen beim Wort, dann muss sofort weltweit und auf allen Feldern eine drastische Emissionsreduzierung erfolgen. Um in Deutschland aber nicht Allmachtsphantasien zu erliegen, ist es ratsam, sich die Ausgangslage zu vergegenwärtigen und das erwartbare Handeln der verschiedenen Staatsregierungen in Rechnung zu stellen.

Von den oben erwähnten weltweit 36.200 Mio. t CO2-Emissionen in 2017 entfallen auf Deutschland mit 799 Mio. t gerade einmal 2,2%. Dabei hat sich der Anteil von 8,6% in 1960 sukzessive auf 2,2% in 2017 reduziert. Der schrumpfende Anteil Deutschlands liegt weniger an dem leichten Rückgang der eigenen Werte (von 814 auf 799 Mio. t) als an dem parallel anwachsenden weltweiten CO2-Ausstoß.

Grafik: Friedrich Homann

Allein das Diagramm führt plastisch vor Augen, dass nichts Nennenswertes passieren wird, wenn allein Deutschland bis 2050 seine CO2-Emissionen auf null herunterfährt, wenn der übrige weltweite Ausstoß gleich hoch bleibt oder sogar noch steigt. Wenn es eine Aufgabe ist, dann eine internationale. Ob alle Staaten, auf die wir hier in Deutschland keinen maßgeblichen Einfluss haben, in erforderlichem Umfang geeignete Schritte umsetzen werden, bleibt abzuwarten und auszuhalten.

Die drei größten industrialisierten Staaten bzw. Staaten-Gemeinschaften (USA, EU, China) der Welt haben 2017 mit rd. 18.700 Mio. t mehr CO2 ausgestoßen als alle anderen Staaten zusammen (17.500 Mio.t). Wenn auch aktuell mit 9.800 Mio. t der größte Einzelemittent, ist der Beitrag Chinas mit Bezug auf Zeit und Bevölkerung zu relativieren. China hat von 1960 bis 2000 deutlich geringere Emissionen als die beiden anderen Blöcke USA und EU produziert, sowohl absolut pro Jahr als auch kumulativ über die Jahre. In Anbetracht der oben beschriebenen Verweildauer von CO2 in der Atmosphäre von rd. 100 Jahren, ist der angesammelte Gesamtbeitrag Chinas gegenüber USA und EU deutlich geringer. Pro Kopf liegt der chinesische CO2-Ausstoß 2017 bei rd. 7,05 t, in den USA bei rd. 16,08 t und in der EU bei rd. 6,91 t pro Kopf. In der restlichen Welt fallen pro Kopf 2.26 t CO2-Emissionen an. Auf jeden Fall stehen primär die drei hochentwickelten Regionen China, USA und EU vor der Aufgabe, rationale CO2-Minderungsprozesse in die Wege zu leiten.

Grafik: Friedrich Homann

Verklärung oder Ignorierung von Lösungen

Würden in Deutschland die Emissionen so wie im Trend seit 2000 um -0,8% p.a weiter sinken (Diagramm unten, blaue Linie), lägen wir mit 613 Mio. t im Jahr 2050 42 % unter dem Niveau von 1990 und mit 410 Mio. t im Jahr 2100 61% darunter.

Stattdessen sollen innerhalb von 10 Jahren bis 2030 die CO2-Emissionen gegenüber dem Stand 1990 um 50% auf rd. 474 Mio. t reduziert werden. Danach sollen sie bis 2050 auf einen Korridor von -80 bis -95% gegenüber 1990 sinken, bei -90% sind das 105 Mio. t (rote Linie; die grüne Linie markiert eine gleichmäßige Reduktion um -5% p.a.). Allein in den nächsten 10 Jahren muss der Ausstoß daher um 325 Mio. t heruntergefahren werden (von 799 auf 474 Mio. t).

Grafik: Friedrich Homann

Die wenigen Zahlen verdeutlichen, was für ein Kraftakt in den nächsten 11 Jahren unternommen werden soll, gefolgt von einer noch stärkeren Reduzierungsperiode von 2030 bis 2050. Zielführende Wege müssen eingeschlagen werden.

Auf dem Weg zur Identifizierung der dafür geeigneten Maßnahmen kommt in der öffentlichen Diskussion wieder das oben bereits angesprochene Angstsyndrom - nur mit umgekehrtem Spin - ins Spiel.

Komplementär zur radikalen Forderung nach sofortiger Beseitigung aller Bedrohungsursachen werden alle auf den Markt kommenden (vermutlich) CO2-optimierten oder -neutralen Techniken und Prozeduren sofort enthusiastisch gehypt und in radikaler Form propagiert. Kritische wissenschaftliche Stellungnahmen, die die unterstellte "grüne" Nützlichkeit einer bestimmten Lösungsvariante infrage stellen oder widerlegen, werden sofort - teils hysterisch - aus Angst, das erhoffte Ziel zu verfehlen, attackiert. Ein aktuelles Beispiel ist der Nutzen des Elektro-Autos.

Die aktuell unter anderem von Christoph Buchal und Hans-Werner Sinn vorgetragenen Bedenken auf der Basis des aktuellen Strommixes sollen in manchen Medienbeiträgen durch das mit hoher Emphase vorgetragene Argument entkräftet werden, dass in Zukunft, also in etwa 10 oder 20 Jahren der Strom zu 100 Prozent CO2-neutral produziert wird. Wir wissen heute aber eben nicht, ob in 10 bis 20 Jahren flächendeckend Ladestationen installiert sind, das Stromnetz ausgebaut und angepasst und die Energieerzeugung zu 100 Prozent aus erneuerbaren Quellen stammt. Und schon gar nicht wissen wir, ob die stromintensive Produktion der Batterien vor allem in Asien dann ebenfalls CO2-neutral ist. Und eine nur mögliche Zukunft stellt den aktuellen Befund nicht in Frage. Bei der Auseinandersetzung um das Elektroauto wird somit ein auf eine aktuelle Situation bezogener kritischer Befund zu den CO2-Einsparpotentialen mit dem bloßen Verweis auf möglicherweise in ferner Zukunft eintretende Verhältnisse in der öffentlichen Diskussion abqualifiziert (nachzulesen etwa in Spiegel Online). Aufklärung ist das nicht.

Zudem hat sich aktuell der Technologiekonzern Bosch, der größte Autozulieferer der Welt, für den Aufbau der Wasserstofftechnologie entschieden, insbesondere - aber nicht nur - für den Schwerlastverkehr: ein 40-Tonner mit 10t Batteriegewicht rechnet sich wahrscheinlich nicht. Soll jetzt in übertriebener Eile dennoch alles auf den Rettungsanker Batterie-Auto gesetzt und Milliardeninvestitionen aufgewendet werden? Ist die Batterietechnik auch nur eine - sehr teure - Brückentechnologie? Japan will bis 2050 stattdessen seine gesamte Energiewirtschaft und Mobilität weitgehend auf Wasserstoff umgestellt haben. Aber auch bei dieser Technologie spielt wie bei der Batterie die Herkunft des Stroms für die Herstellung des Wasserstoffs eine entscheidende Rolle. Bei der Stromerzeugung im Jahr 2030 soll in Japan Nuklearenergie etwa 20 Prozent am Energiemix ausmachen.

Apropos Elektro: Wieso sind die hippen stromverbrauchenden Roller eigentlich ein ökologischer Fortschritt, wenn man den Roller auch CO2-neutral mit Muskelkraft bewegen kann und dabei noch etwas für die Gesundheit tut? Gleiches gilt für Pedelecs.

Wenn es schon um Lösungstechnologien geht: War es nicht gerade vorschnell, vor 10 Jahren die dauerhafte Einlagerung von CO2 unter der Erde (carbon capturing and storage) aus ökologischen Gründen abzulehnen, obwohl sie zumindest eine sinnvolle Zwischenstrategie zur Erreichung des absoluten Hauptziels - die CO2-Minderung in der Atmosphäre - sein könnte? 10 Jahre lang hätte die Emission von CO2 in die Atmosphäre in nennenswertem Ausmaß reduziert werden können.

Daran wird deutlich: Wenn nicht in "Sponti-Manier" gefordert wird: "Wir wollen alles (haben und weghaben), und zwar sofort!", dann muss eine Priorisierung der Ziele vorgenommen werden. Das mit Abstand Wichtigste muss also absolut vorrangig sichergestellt werden und das ist die CO2-Reduzierung.

Die Abschaltung der Kernkraftwerke ist vor dem heute geltenden ökologischen Primat der Dekarbonisierung durchaus wieder diskutabel geworden. Frankreich und Schweden haben mit ihrem weiterlaufenden AKW-Betrieb deshalb bei der kurzfristigen Erreichung ihrer Klimaziele deutlich weniger Schwierigkeiten als Deutschland. Da beim Klimawandel immer die globale Perspektive anzusetzen ist und es nicht allein auf die Insel Deutschland ankommt: Weltweit laufen 450 Kernkraftwerke, 55 sind im Bau. Für nicht wenige Staaten ist der AKW-Betrieb ein Bestandteil der CO2-Minderungsstrategie, auch wenn er bei ganzheitlicher Betrachtung nicht vollständig CO2-frei ist. Mit Kernkraftwerken ließe sich übrigens auch CO2-neutral Wasserstoff produzieren.

Zwei große AKW-Katastrophen hat es bislang gegeben. Bei AKW bestehen potentielle Gefahren, die im Falle ihres Eintretens große regionale Schädigungen nach sich ziehen. CO2-Emissionen verursachen dagegen nicht nur potentielle, sondern bereits heute real existierende Schäden und - legt man die wissenschaftlichen Erkenntnisse an - werden sie in Zukunft nicht nur regional sondern weltweit zu weiteren und noch größeren Schädigungen führen. Am besten wäre bei Vorliegen von tragfähigen Alternativen der Ausschluss beider Technologien. Wenn kurzfristige Alternativen aber nicht in Sicht sind, könnte Kernkraft - wie es Greta Thunberg für Schweden formuliert (dort Kern- und Wasserkraft) - auch in Deutschland unter Abwägung der potentiellen und realen Gefahren eine zwar risikobehaftete, aber angesichts der befürchteten CO2-bedingten globalen Fundamentalschädigungen eine tragbare Zwischenlösung sein (Primat der CO2-Reduzierung). [Nein, ich erhalte kein Geld von irgendwelchen Lobbyisten.]

Jetzt steht die Diskussion an um CO2-Steuern oder die Ausweitung des Emissionshandels (Emissionszertifikate; bislang nur Stromerzeuger und Industrie) und/oder die Einführung eines Mindestpreises für CO2-Zertifikate. Beides kann wohlmöglich einen Beitrag leisten, wobei unsoziale Folgeeffekte nicht auszuschließen sind. Die Frage steht, welche CO2-Reduzierungspotentiale sind mit 20 oder 40 oder 60 Euro je Tonne CO2 bzw. je Zertifikat verbunden und kann das eingenommene Geld wirklich sozial- und verbrauchsadäquat an die Haushalte zurückgegeben werden? Dass auch solche ökonomisch ansetzende, über Geld steuernde Lenkungsstrategien in Ruhe bedacht werden sollten, müsste sich eigentlich von selbst verstehen. Auch bei diesen Konzepten sollten die Erfolgsaussichten vorsichtig eingeschätzt werden. Es geht nicht um Heilslehren. Wieviel CO2 jenseits theoretischer Berechnungen tatsächlich in 10 oder 20 Jahren dadurch eingespart wird, kann nicht sicher gesagt werden. Die Lenkungswirkung von CO2-Steuern soll nicht in Abrede gestellt, aber doch der Glaube an die genial durchbrechende Idee zur Lösung aller CO2-Probleme etwas gedämpft werden.

Es ist ja auch nicht so, als ob Deutschland keine einschlägigen Erfahrungen in punkto Umweltsteuern hätte. Als umweltbezogene Steuern (Ökosteuer) werden solche Steuern bezeichnet, die umweltschädliche Aktivitäten verteuern und somit Anreize zu umweltfreundlichem Verhalten setzen. Konkret sind damit die Energiesteuern (i. E. Energiesteuer [früher Mineralölsteuer], Stromsteuer, Kernbrennstoffsteuer, Emissionsberechtigungen) und die Transportsteuern (Kraftfahrzeugsteuer, Luftverkehrssteuer) angesprochen. 2016 lag das Steueraufkommen aus Energiesteuer/Mineralölsteuer bei stattlichen 40,1 Mrd. €, die Kraftfahrzeugsteuer bei knapp 9 Mrd. € und die Stromsteuer bei 6,5 Mrd. €. Die umweltbezogenen Steuern von privaten Haushalten lagen 2016 bei rund 31,4 Mrd. € und trugen damit zu 54 % zum gesamten umweltbezogenen Steueraufkommen (58,5 Mrd. €) bei. Inländische Unternehmen zahlten 2016 rund 26,2 Milliarden Euro (45% des Gesamtaufkommens). Die mit diesen umweltbezogenen Steuern intendierten Lenkungswirkungen können auf jeden Fall noch nicht als absolut durchschlagender Erfolg bezeichnet werden. Noch wachsen die Verbräuche.

Daneben hat Deutschland seit dem Jahr 2000 einschlägige Erfahrungen mit dem Erneuerbaren-Energien-Gesetz, das die bevorzugte Einspeisung von Strom aus erneuerbaren Quellen ins Stromnetz regelt und deren Erzeugern feste Einspeisevergütungen garantiert. Seit dem Jahr 2000 sind Betreiber von Energieerzeugungsanlagen durch Wasserkraft, Deponie-, Klär- und Grubengas, Biomasse, Geothermie, Windkraft (Onshore & Offshore) sowie Photovoltaik mit mehr als 430 Mrd. € gefördert worden. Davon haben die Privathaushalte durch die EEG-Umlage auf den Strompreis, also für die Betreiberförderung durchschnittlich 64% und insgesamt seit 2000 rd. 280 Mrd. € getragen.

Der dadurch nach 19 Jahren erzielte Erfolg besteht in dem mittlerweile erreichten Anteil der erneuerbaren Energien an der gesamten Stromproduktion von 37,8% im Jahr 2018. Angesichts der gewaltigen Kosten und der langen Laufzeit kann auch das nicht als voller Erfolg schöngeredet werden. Dennoch ist es der Beginn einer grundlegenden Kehrtwende in Richtung CO2-freier Energie. Zumindest für die Stromerzeugung kann das Null- CO2-Ziel bis 2050 eventuell erreicht werden. Der Anteil des CO2-freien Stroms ist bislang durchschnittlich um knapp 2% p.a. gestiegen. Ob sich dieser Prozess gleichmäßig fortsetzen kann angesichts der Strukturprobleme wie Trassen, Speicher sowie "Sonne und Wind" (Dunkelflaute), ist noch offen (der Anteil könnte sich dann rein rechnerisch bis 2030 auf rd. 62% erhöhen und bis 2050 auf 100% anwachsen). Nach Angaben der Internationalen Energieagentur wäre zur Erreichung des 2°-Ziels aber weltweit ein Zubau von solchen sauberen Anlagen mit einer Leistung von 300.000 Megawatt notwendig - jährlich. Das entspricht dem jährlichen Zubau von 300 Atomkraftwerken oder dem dreifachen Zubau der in Deutschland installierten Erneuerbaren pro Jahr.

Nur nicht den Kopf verlieren

Die Menschen hoffen auf kurzfristige Heilsbringer, Retter in der Not, wogegen im Grundsatz nichts zu sagen ist. Trotz der großen Unsicherheit sollten die einzuschlagenden Lösungswege aber vorher vorsichtig tastend, die Vor- und Nachteile abwägend ermittelt werden. Es sollte möglichst ausgeschlossen sein, dass mit größtem Enthusiasmus und Milliardensummen Dinge vorangetrieben werden, die sich dann im Nachhinein als untauglich erweisen und bei anfänglich sachlich orientiertem Vorgehen hätten vermieden werden können. Im Übrigen ist es zweckdienlich, sich mental und emotional immer darauf einzustellen, dass selbst der beste Lösungsvorschlag am Ende daneben gehen kann. Versuch und Irrtum sind in der gesamten Menschheitsgeschichte immer das Mittel des Weiterkommens gewesen.

Vor diesem Hintergrund besteht neben der Herausforderung von Wissenschaft und Technik, der Entdeckung klimanützlicher Prozesse und der Entwicklung technischer Lösungen die Hauptaufgabe der Menschen darin, nicht aus Angst die Selbstbeherrschung und damit die Beherrschung der Situation zu verlieren. Panik sollte in der öffentlichen Diskussion nicht verbreitet werden. Im Vertrauen auf das Können der Menschen, das sie immer wieder durch erfolgreiches Risikomanagement in anderen Handlungsfeldern bewiesen haben, kann eine gewisse Sicherheit und Vertrauen gefunden werden. In diesem Sinne richtet sich ja auch Greta Thunberg an die von erwachsenen Menschen betriebene Wissenschaft und Politik. Die Menschen haben sich immer wieder gefahrenträchtigen Ereignissen graduell angenähert und entsprechende Notfallerfahrungen gesammelt. Gerade in einer Situation wie heute sollte man nicht den Kopf verlieren. Das schlechteste ist, sich bereits gestresst der stresshaltigen Gefahrenlage zuzuwenden. Angst muss, wenn man nicht ins Chaos abgleiten will, ausgehalten werden.