Besprechung von Judith Curry’s Buch „Climate Uncertainty and Risk – Rethinking Our Response“

Buchbesprechung und Kommentar von Judith A. Curry’s Buch „Climate Uncertainty and Risk – Rethinking Our Response
ANTHEM PRESS 2023

von Hans-Rolf Dübal

Judith Currys Buch befasst sich mit den erheblichen Unsicherheiten in der Klimafrage und der sich daraus ergebenden Konsequenzen für einen rationalen Umgang mit dem „Klimawandel“. Die Autorin ist als erfolgreiche und renommierte Wissenschaftlerin seit Jahrzehnten Teil der Klimaforschung und schreibt als Insiderin aus eigener beruflicher Erfahrung, basierend auf einem enormen Wissensschatz.

Das Buch ist auf 309 Seiten in englischer Sprache verfasst (es gibt mittlerweile im Handel auch eine deutsche Übersetzung) und teilt sich auf in drei Hauptteile und insgesamt 15 Kapitel. Die drei Hauptteile sind: die Herausforderung des Klimawandels, Unsicherheit des Klimawandels im 21. Jahrhundert und Klimarisiken und deren Eindämmung. Die Kapitel sind jeweils in kürzere Sektionen unterteilt, was ein fokussiertes Lesen erleichtert. Zudem stellt die Autorin den Abschnitten passende Zitate voran, die einen schnellen Zugang zu dem jeweiligen Kernpunkt der Sektion unterstützen. Nach jedem Kapitel erhält der Leser eine Liste von Referenzen. Insgesamt sind es ca. 1300 ausgewertete Literaturhinweise. Diese beziehen sich nicht nur auf die Klimaforschung selbst, sondern auch auf angrenzende oder übergreifende Themen wie Erkenntnistheorie, Politik, Risikomanagement usw. Das Buch ist textlich gehalten; man findet nur eine einzige Abbildung und drei Tabellen darin.

Die Ausgangslage: Wissen und Nichtwissen

Im ersten Teil befasst sich die Autorin mit dem Stand der Klimaforschung und deren Erkenntnis, die einerseits durch fehlende, lückenhafte, verrauschte oder zu kurze Datensätze eingeschränkt ist und andererseits eine große inhärente Unsicherheit sowie in Teilen gänzliche Unkenntnis oder Unberechenbarkeit innehat. Diese Situation steht im krassen Widerspruch zur grob vereinfachten, weit verbreiteten Kausalkette:

Die Erde erwärmt sich.
Erwärmung ist gefährlich.
Die Erwärmung wird von Treibhausgasen verursacht, die wir emittieren.
Deshalb müssen wir zügig die Treibhausgase reduzieren.

Daran stimmt vieles nicht oder ist mit erheblicher Unsicherheit verbunden. Es ist keineswegs bekannt, ob die Erwärmung gefährlich ist, und falls ja, ab wieviel Grad, in welchem Zeitraum, wo und in welcher Weise. Es wird von interessierter Seite unterstellt, dass die anthropogenen Emissionen die alleinigen oder wesentlichen Temperaturtreiber seien. Natürliche Faktoren wie der Einfluss der Sonne, die Variation der Bewölkung, die ozeanische Zirkulation usw. werden kleingeredet oder ignoriert. Aus dieser künstlich verengten Analyse wird am Ende eine weitreichende Klimapolitik mit erheblicher sozio-ökonomischer Auswirkung abgeleitet. Schwellenwerte wie 1.5 °C oder 2 °C sind zudem weder wissenschaftlich begründet, noch ist die Auslösung einer Gefahr mit diesen Werten verknüpft.

Die auf Treibhausgase verengte Analyse täuscht eine Gewissheit vor, die es objektiv nicht gibt und führt zur Kontrollillusion („overconfidence“). Anstelle fehlender Objektivität wird vom IPCC ein künstlich erzeugter Konsens gesetzt („manufactured consens“), gewissermaßen als Stellvertreter für Wahrheit („proxy for truth“). Wissenschaftler, die diesen Konsens infrage oder sich gar gegen ihn stellen, haben Nachteile, werden bei Publikationen behindert, kommen schwieriger an Forschungsmittel, riskieren ihre Karriere, werden stigmatisiert. Unter diesem Druck verstärkt sich dieser „Konsens“ und wird entsprechend von interessierten Politikern dazu benutzt, ihre Entscheidungen auf die Wissenschaft abzuwälzen und sich ihrer Verantwortung zu entziehen.

Der Klimawandel ist kein monokausales „zahmes“ Problem, dem mit einer einfachen Antwort zu begegnen wäre. Eine lineare Abwendungsstrategie aufgrund einer Prognose („predict-then-act“) ist daher unangemessen. Der fragwürdige Satz „Folgt der Wissenschaft“ („follow the science“) ist Ausdruck dieser Situation. Eine Wissenschaft, die solches vorgaukelt, läuft Gefahr, nicht mehr als unabhängiger, ehrlicher Makler wahrgenommen zu werden und Glaubwürdigkeit zu verlieren.

Das Unsicherheitsmonster

Nach mehreren Jahrzehnten intensiver Klimaforschung ist es nicht gelungen, die Klimatreiber und ihre Wechselwirkung genau genug zu verstehen, um sichere Prognosen zu treffen. So wie in der Sage der Hydra Köpfe nachwuchsen, gebar neue Erkenntnis neue Unsicherheit und weitere offene Fragen. Dies bezeichnet die Autorin als das „Uncertainty Monster“, mit dessen Beschreibung der zweite Buchteil beginnt. Die Aufgabe ist, dieses Monster zu zähmen und einen angemessenen Umgang mit der Klimafrage zu finden, die dem sich ständig verändernden Erkenntnisstand inklusive der objektiven Ungewissheit gerecht wird.

Klimamodelle (GCM = „Global Climate Model“ bzw. „General Circulation Model“) werden in Kapitel VI behandelt. Deren Schwierigkeiten liegen in unvollständig bekannten Grundlagen, eingeschränkter Rechenleistung und vor allem Unkenntnis wichtiger Effekte wie die Dynamik der Eisschilder, der geothermische Wärmeaustausch mit dem Eis, direkte und indirekte Solarschwankungen, Aerosoleinflüsse, Wolkenbildung usw. Modelle werden keineswegs abgelehnt, aber sie sind nicht validiert und derzeit als Basis für ein „predict-then-act“ ungeeignet.

Die Berechnungen werden üblicherweise durch Aufteilung in dreidimensionale Zellen gemacht, etwa 100-200 km in lateraler und 1 km vertikaler Ausdehnung, z.B. mit 30 min Zeitauflösung. Die Modelle basieren jedoch nur zum Teil auf „harter“ Physik. Andere Teile müssen mangels besseren Wissens vereinfacht angenommen, geschätzt, geraten, weggelassen werden oder ihre Existenz ist schlichtweg nicht bekannt. Zudem entzieht sich inhärentes Chaos einer Berechnung. Unterm Strich müssen Tausende, teils willkürliche, Festlegungen erfolgen. Abschnitt 6.2 enthält eine detaillierte Aufstellung der Modellunzulänglichkeiten. Alle Modelle sind von Ungewissheit durchdrungen. Wen wundert es, dass deren Prognosen ziemlich daneben liegen. Das gängige Argument, die Klimamodelle würden doch das 20. Jahrhundert gut treffen, sticht nicht, denn das ist das Ergebnis einer Anpassung („tuning“) der vielen freien Parameter an das 20. Jahrhundert und eben nicht ein freies Rechenergebnis.

Kapitel VII befasst sich mit einer weiteren Ungewissheit, den IPCC-Emissionsszenarien (RCP = Representative Concentration Pathway oder SSP = Shared Socioeconomic Pathway). Dabei bedeutet die Zahl den Wert in W/m² des anthropogenen Strahlungsantriebs (z.B. RCP 4.5 = 4.5 W/m²) oberhalb der Atmosphäre im Jahre 2100. Realistisch sind die Szenarien 3.4 oder 4.5 mit in 30 Jahren etwa ähnlich hohen Emissionen wie heute, aber genau wissen wir das nicht. Das viel zu oft zitierte extreme IPCC-Szenario 8.5 erforderte in 2100 ca. eine 6.5-fache Steigerung der Kohleverbrennung und ist nicht plausibel.

Der Wert der Klimasensitivität von CO2 ist zudem hochgradig umstritten. Temperaturvorhersagen und Schadensprognosen tragen somit mehrfache Unsicherheit in sich. Auf diesem lockeren Sand sind der gesamte Alarmismus und die „Klimaschutzpolitik“ gebaut.  Beispielsweise beziffert das IPCC den bis 2100 prognostizierten Meeresspiegelanstieg mit „sehr wahrscheinlich“ zwischen 0.2 m und 1.0 m. Die Autorin kritisiert nicht, dass das IPCC es nicht genauer weiß. Sie stellt lediglich die enorme Fehlerbreite fest.

Wenn uns die Klimamodelle nicht weiterbringen, was dann? In Kapitel VIII steht ein Kernsatz des Buches: Wir müssen die Unsicherheit als ein Teil der Erkenntnis sehen und sie in die Entscheidungsfindung einbeziehen. Die Unsicherheit ist objektiv und lässt sich nicht entfernen durch Expertenkonsens und wären die Experten noch so klug oder zahlreich. Der Rahmen für den Umgang mit Klimaveränderungen muss aus dem viel zu engen Konsenskäfig der anthropogenen Treibhausgase befreit und gründlich erweitert werden.

Natürliche Klimavarianz wird in den Prognosen zurzeit kaum berücksichtigt, sie ist aber Teil der Realität. Natürliche Faktoren können kühlen bzw. einige auch erwärmen. Bis Mitte des Jahrhunderts liegen deren Spannbreiten bis etwa -0.3°C (AMO), -0.5°C (Vulkane) und -0.5 °C (Sonne). Gerade der Solareinfluss ist in regem Disput, was man den IPCC-Berichten aber nicht entnehmen kann. Die Autorin leitet beispielhaft aus dem 4.5 -Szenario als Basis und den oben erwähnten natürlichen Faktoren insgesamt 81 Szenarien ab, deren Temperaturen im Jahr 2050 im Bereich von 0.5 – 2.5 °C über der Basislinie 1850-1900 liegen. Einige Szenarien kühlen sich also ab, andere erwärmen sich. Was aber ist der „worst case“?

Um den geht es in Kapitel IX. Damit ist nicht gemeint, bei wieviel Grad dieser in der Theorie eintreten könnte. Es geht um schwere, aber seltene Naturkatastrophen, deren Ursache die interne Varianz des Klimasystems ist, wie:  Hurricanes in Florida, der ARk Sturm in Kalifornien, ein Monsunausfall in Asien, ein Kollaps des westantarktischen Shelfeises („MICI“) mit Meeresspiegelanstieg.

Ein ARk („Atmospheric River“) Sturm in Kalifornien würde, sollte er sich wie zuletzt in 1861/62 wiederholen, heute etwa 1.5 Millionen Menschen in die Evakuierung zwingen und 725 Mrd US$ Schaden anrichten. Dieser Regensturm kommt seit 1800 Jahren im Mittel etwa alle 200 Jahre vor, wenngleich in schwankenden Abständen. Eine Wiederkehr in diesem Jahrhundert ist als „worst case“ plausibel. Schätzungen zufolge hat die globale Erwärmung darauf nur einen geringen Einfluss.

Den „worst case“ generell und global zu definieren, ist ein schwieriges Unterfangen. Die Verengung auf CO2 blendet die interne Varianz aus und führt in die Irre. Es gibt keinen einfachen Weg, die mögliche Gefahr eines wärmeren Klimas zu definieren. Man braucht einen breiteren Ansatz.

Wege aus dem Dilemma

Im dritten und letzten Teil des Buches wird dieser breitere Rahmen entwickelt. Man erfährt in den ersten Abschnitten von Kapitel X allgemeines über Risikoanalysen und die speziellen Herausforderungen in Bezug auf das Klima. In Abschnitt 10.3.2 wird konkret herausgearbeitet, nach welchen Grundsätzen die Risikoanalyse von Klimarisiken geschehen sollte.

Systemische Klimarisiken können in zwei Weisen auftreten: erstens als Extremwetterereignisse, die ihren Ursprung in der internen Klimavarianz haben („emergency risks“) und zweitens schleichende, langfristige, zunächst vage Risiken, die ihre Ursache z.B. in der Ansammlung von Treibhausgasen in der Atmosphäre haben („emerging risks“). Die ersten sind akut und offensichtlich, die zweiten zunächst klein und vage, könnten aber wachsen. Diese beiden Fälle dürfen nicht vermischt werden: ein Regensturm hat seine Ursache eben nicht in anthropogenen Emissionen.

Separiert man diese Risikoarten, so wird schnell klar, dass für die zweite Art nur ein kleinerer, langfristiger Rest übrigbleibt. Dieser soll keineswegs ignoriert werden, aber er muss anders behandelt werden als die erste Art und verliert dabei an Schrecken und Dringlichkeit. Die Risiken der ersten Gattung können nicht mit Maßnahmen gegen die zweite Art bekämpft werden, denn sie haben eine andere Ursache. Gegen das ARk-Desaster kann ein guter Katastrophenschutz helfen, aber nicht die Reduktion der CO2-Emissionen. Umgekehrt geht es schon. Sollten irgendwann und irgendwo adverse Effekte der CO2-Ansammlung auftreten, wird man viele dieser Auswirkungen mit Mitteln der allgemeinen Gefahrenabwehr und des Katastrophenschutzes auffangen oder abmildern können.

Bei den „emerging risks“ ist zudem eine Abwägung mit „transition risks“ vorzunehmen. Um auf Akzeptanz zu stoßen, müssen Gegenmaßnahmen notwendig, wirksam und angemessen sein. Solche Risiken müssen fortlaufend beobachtet und neu bewertet, die Maßnahmen nach Erkenntnislage angepasst werden.

Ein zweiter Aspekt ist die Regionalisierung. Systemische Klimarisiken wirken sich regional sehr unterschiedlich aus. Deshalb ist ein dezentrales „bottom-up“ Risikomanagement einem zentralistischen „top-down“ Management überlegen. Es ist wirksamer, da näher am Geschehen, und findet mehr Akzeptanz als das Prokrutesbett eines „perfekten“ globalen Ansatzes, der kaum funktionieren wird.

Im Kapitel XI werden konkrete Grundsätze des Risikomanagements beschrieben. Dieses muss Neben- und Fernwirkungen berücksichtigen. Als warnendes Beispiel wird der deutsche Atomausstieg beschrieben, der aus Vorsicht vor nuklearen Risiken zu überhöhten Strompreisen, zu hohen CO2-Emissionen, mehr Luftverschmutzung, unsicherer Versorgung geführt und am Ende sogar einen Beitrag zu geopolitischer Instabilität eingebracht hat. Die letzten Abschnitte dieses Kapitels sind Gedanken über die Auslegung von Konventionen zu Klimarisiken, der Abwägung und dem Suchen nach dem richtigen Maß der Vorbeugung. Die Autorin weist in Abschnitt 11.3.2 ausdrücklich auf die erheblichen Risiken eines schnellen fossilen Ausstiegs hin.

Kapitel XII ist dem Thema „Decision Making under Deep Uncertainty (DMDU)“ gewidmet. Diese Methode stellt einen Ausweg aus der gegenwärtigen Situation dar, die durch nicht zielführende, erbitterte Dispute um die wahre Ursache des Klimawandels und seiner Folgen gekennzeichnet ist. Intelligente, gebildete und vernünftige Menschen zerstreiten sich über Fragen, die wir nicht objektiv beantworten können.

Ursache und Zukunft sind ungewiss. Abhängig davon, welche Erkenntnisse oder Umstände hinzukommen oder sich verändern, wird eine einmalig getroffene langfristige und starre Festlegung zu einem Glücksspiel. Eine Entscheidung, die nur für ein einziges mögliches Szenario gute Ergebnisse bringt, aber bei anderen versagt, ist nicht robust. Robuste Entscheidungen zeichnen sich dadurch aus, dass sie in möglichst vielen verschiedenen Fällen entweder per se gute Ergebnisse liefern oder dass sie so anpassbar und flexibel sind, dass sie sich im Laufe der Zeit an neue Situationen adaptieren können und deshalb gute Ergebnisse erbringen.

DMDU kann als eine computergestützte und formalisierte Weiterentwicklung der Heuristik verstanden werden. Dazu wird der Prozess „predict-then-act“ umgekehrt. Man beginnt mit einer Reihe möglicher Entscheidungen. Diese werden nun mit mehreren plausiblen Zukunftsszenarien durchgerechnet und verglichen. Dabei werden manche Entscheidungen invarianter bezüglich unterschiedlicher Zukunftsannahmen sein als andere. Diese Entscheidungen sind robuster. Man einigt sich dann in der Regel zunächst auf zunächst kurzfristige und „schmerzfreie“ Schritte („no regret“) und wiederholt den Prozess in geeigneten Zeitabständen unter Einbeziehung neuer Erkenntnisse. So entsteht ein Lernprozess mit immer besserer Treffsicherheit. Bei diesem Verfahren schneiden flexiblere Entscheidungen besser ab als starre.

Der Bezug von DMDU zur europäischen und deutschen „Klimaschutzpolitik“ ist offensichtlich. Die sogenannte „Klimaneutralität“ in 2050 bei sehr hohen Transformationsrisiken ist keine robuste Entscheidung – sie bricht in sich zusammen, falls die Grundannahme „Treibhausgase verursachen in kurzer Zeit einen gefährlichen Klimawandel“ sich als falsch oder überzogen herausstellt. Dann bleiben Wohlstandsverluste als Schaden übrig und möglicherweise weitere Folgen, die man sich ausmalen kann. Eine robustere Strategie würde iterativ vorgehen, um mit wachsender Erkenntnis immer sicherere Entscheidungen treffen zu können.

In Kapitel XIII geht es um Anpassungs- und Widerstandsfähigkeit. Etwaigen Klimarisiken stehen wir keineswegs waffenlos oder passiv gegenüber. Anpassung wird von Aktivisten als Kapitulation empfunden und deshalb in Frage gestellt.  Es ist Mode geworden, den „anthropogenen Klimawandel“ als Ursache für alle möglichen Probleme heranzuziehen, die irgendwie mit Klima und Wetter zusammenhängen. Die Autorin sieht dafür zwei Gründe: erstens als Ausrede für Versagen und Fehlleistungen an anderer Stelle und zweitens, um an Hilfsgelder zu kommen. Die Gefahr, alles Mögliche dem Klimawandel zuzuschreiben, liegt darin, dass auf eine objektive Ursachenanalyse und damit auf einen Lerneffekt verzichtet wird und auf unzulänglicher Basis unwirksame oder sogar kontraproduktive Maßnahmen umgesetzt werden.

Für erfolgreiche Adaption gibt es eindrucksvolle Beispiele. So liegen etwa 50% der Fläche Hollands unter dem Seeniveau. Die hohen Kosten dafür (bis zu 30% des BIP der Niederlande!) sind nicht überall sinnvoll oder verfügbar. Es mag woanders günstiger sein, Überschwemmungsgebiete zu räumen und als solche zu belassen. Einen ganz anderen Aspekt bezeichnet die Autorin als „Microeconomics of Adaptation“ (13.2.2). Damit ist gemeint, dass die Menschen vor Ort meistens schon wissen, wo sie Häuser bauen sollten und wo besser nicht. Manche aber kaufen sich billig Land gerade in überschwemmungs- oder sturmgefährdeten Gebieten und konstruieren die Häuser entsprechend. „Safe-to-fail“ Strategien beim Design von Infrastrukturprojekten erhöhen die Resilienz im Falle eines Desasters, wie z.B. bei der Stromversorgung im ständig von Hurricanes heimgesuchten Staat Florida, wo ein ausgeklügeltes System implementiert wurde, um unvermeidbare Stromausfälle auf ein Minimum zu beschränken. Abschnitt 13.3. enthält eine Zusammenfassung der Adaption, ihrer Chancen, Grenzen und Fehlermöglichkeiten.

Über Mittel und Wege zur Gefahreneindämmung („mitigation“) geht es in Kapitel XIV und da zunächst um die Reduktion von CO2-Emissionen. Befürworter dieser Strategie erhoffen sich davon, ein Übel an der Wurzel zu packen, statt Symptome zu kurieren. Besprochen werden der Kohlenstoffkreislauf, der Technologiewechsel bei der Stromerzeugung und die Risiken des schnellen Übergangs zu einer kohlenstoffärmeren Wirtschaft.

Inwiefern eine geringere CO2-Konzentration zu einem „besseren“ Klima führt, ist umstritten, da jeder Vergleich subjektiv ist. Man kann aber versuchen, herauszufinden, wie sich eine geringere CO2-Emission auf dessen Gehalt in der Luft auswirkt. Auch diese Frage ist von Ungewissheit durchdrungen und sehr langfristig zu sehen, denn dem Klimasystem wohnt eine riesige, auch thermische, Trägheit inne. Als Beispiel wird eine Null-Emissionsstudie herangezogen („ZECMIP“), die ergab, dass erst 50 Jahre nach einem völligem CO2-Emissionsstop die Oberflächentemperatur nur um ca. 0.3 °C absinken würde.

Das Management des Kohlenstoffhaushaltes kann auf natürliche Weise durch Aufforstung oder technisch durch CO2-Abscheidung erfolgen. Bäume zu pflanzen kann niemals falsch sein und hat angenehme Nebenwirkungen („no-regret“), aber ein begrenztes Potential. CO2-Abscheidung (z.B. CCS) ist technisch möglich und wird vom IPCC empfohlen, ist aber noch nicht ausgereift – sich allein darauf zu verlassen, wäre keine robuste Entscheidung.

In Abschnitt 14.3 wird die Energiewende behandelt, dazu das passende Zitat eines Aktivisten: „Wir ertrinken in Versprechungen.“ Sonne und Windenergie sind unbeständig – von einem echten Ersatz für Kohle kann kaum die Rede sein. Sehr schlecht kommt Biosprit weg. Dessen Produktion nimmt riesige Flächen in Anspruch, fördert Bodenerosion und Grundwasserprobleme und kann daher umweltschädlicher sein als fossile Brennstoffe. Die Energiewende bewegt sich auf dünnem Eis und ist überaus anfällig, sofern man in Eile zuverlässige fossile und nukleare Kraftwerke durch unbeständige Wind- und Sonnenenergie ersetzen will. Ähnliches gilt beim Ersatz von Verbrennern durch Elektroautos. Wollte man das im großen Stil umsetzen, fehlten schon in 10 Jahren ca. 90-95% der Produktionskapazitäten für Batterien. Weltweit liegt die Energiewende hinter ihren ambitionierten Zielen zurück.

Spannend zu lesen ist das Kapitel 14.4 „Vision 2100“. Der Energiehunger der Welt ist ungebrochen und steigt dynamisch an. Der Trend zur Elektrifizierung steigert die Stromnachfrage doppelt schnell und unsere Abhängigkeit von einem ausfallsicheren, sauberen, preiswerten Stromnetz wächst. Bei gewünschter CO2-Freiheit, verbleiben neben Wind, Sonne, CO2-Abscheidung die Kernkraftwerke. Kernkraftwerke sind die ergiebigsten und zuverlässigsten Stromlieferanten. Die Autorin sieht sowohl die fossile Verbrennung als auch die Kernenergie in das 22. Jahrhundert reichen

Der enorme Flächenverbrauch von Wind- und Sonnenenergie, geschweige denn Biosprit, ist ein ernstes Umweltthema, das erstaunlich geringe Resonanz erhält. In vielen Ländern reicht die Fläche einfach nicht und in anderen würde in einem Übermaß Wald gerodet und gewerblich genutzt, mit erheblichen Konsequenzen für Bodenqualität, Feuchtehaushalt, Artenschutz und Lebensqualität. Bezüglich der Flächennutzung sind Kernkraftwerke unschlagbar, gefolgt von Geothermie, Solardächern und Müllverbrennung.

Dem Risikomanagement für die Stromversorgung kommt schon heute, aber erst recht in der Zukunft, eine existenzielle Bedeutung zu. Einschränkungen bedeuten eine Aderpresse für unser Leben und setzen auch alle Bemühungen zu mehr Nachhaltigkeit ins Risiko. Gemessen an dem ungewissen und nicht akuten CO2-Risiko kann ein schneller fossiler Ausstieg weit höhere Risiken bewirken als Nutzen erbringen. Eine CO2-arme, aber stromreiche Zukunft ohne ein Rückgrat von Kernenergie ist aus heutiger technologischer Sicht kaum vorstellbar. Zusätzlich kann eine Kombination aus einem kontinentalen „macro grid“ mit lokalen „micro grids“ das Gesamtnetz weniger störanfällig machen. Klumpenrisiken, wie die zu hohe Abhängigkeit von einem Lieferanten oder einer Technologie, sollten vermieden werden. Überkapazitäten sollten nicht als nachteilig, sondern als Sicherheitsmargen begriffen werden. Bei der Transformation ist Robustheit wichtiger als Geschwindigkeit.

Der zukünftigen Rolle der Kernenergie wird in 14.4.2 ein eigener Abschnitt gewidmet. Hier sind die technischen Fortschritte der vergangenen Jahrzehnte zu würdigen, insbesondere bei kleinen Reaktoren („small nuclear reactors“), von denen einige gar kein Kühlwasser benötigen und daher überall einsetzbar sind. Diese Generation ist intrinsisch sicher, arbeitet abfallarm und kostengünstig, kann mehrere nukleare Brennstoffe und sogar Abfälle aus großen Kernkraftwerken verarbeiten.

In Abschnitt 14.5 erhält der Leser eine Vorstellung davon, wie ein Übergang zu gestalten wäre und welche Risiken wie zu vermeiden sind. Es wird eine jahrzehntelange Lernkurve durchlaufen und jede frühe Festlegung ist riskant.

Die Autorin schließt diesen Abschnitt mit einer optimistischen Botschaft: Innovation, Kreislaufwirtschaft für die teuren Rohstoffe und Kostensenkung durch Massenproduktion werden zu einer sich selbst verstärkenden Rückkopplung führen und zukünftigen Generationen ein leistungsfähiges, sicheres, umweltfreundliches und kostengünstiges Energiesystem ermöglichen.

Das Schlusskapitel XV resümiert und schließt den Bogen zur Politik. Das Beschwören einer „Klimakrise“, die es objektiv nicht gibt, bricht sofort zusammen, sobald Not anderer Art herrscht. Nach dem russischen Angriff auf die Ukraine haben viele Staaten Klimabedenken bei Seite geschoben und auf die fossile Verbrennung oder die Förderung fossiler Brennstoffe zurückgegriffen. Die Verhinderung von Blackouts oder die Bekämpfung von Armut und Hunger haben schlichtweg die höhere Priorität. Klimarisiken stehen an Platz 13 von 17 der drängendsten Probleme der Welt. Kostengünstige und saubere Energie steht auf Platz 7, Armut auf Platz 1.

Der Umgang mit dem Klimawandel sollte dem PACED-Prinzip folgen (Proportionate, Aligned, Comprehensive, Embedded, Dynamic; zu Deutsch in etwa:  angemessen, konsistent, umfassend, eingebettet, flexibel). Die Aufwertung von Klimaveränderungen zur „Krise“ impliziert einen Zeitdruck, bei dem die Vielzahl anderer wichtiger Aufgaben unter den Tisch zu fallen drohen. Judith Curry schlägt an dieser Stelle einen „Reset“ vor.

Sie befasst sich auch mit der moralischen Frage. Umweltschützer, die einerseits nicht früh genug aus der fossilen Verbrennung aussteigen wollen und andererseits gegen Kernkraftwerke oder Windparks Sturm laufen, stehen vor einem Dilemma. Welche Moral geht vor? Auch andere moralische Forderungen bezüglich des Klimas erweisen als brüchig. Nehmen wir an, die gegenwärtige Erwärmung wäre ein natürlicher Prozess und nicht überwiegend von den Treibhausgasen, sondern z.B. von der Sonne verursacht. Würden wir dann eine moralische Pflicht empfinden, uns gegen die Natur zu stellen und mit aller Gewalt die Temperatur zu senken, um das gegenwärtige Klima zu bewahren? Wohl kaum. Man würde sich anpassen. Die Bewahrung des Klimas liegt erstens nicht in unserer Hand und zweitens kann niemand objektiv beschreiben, was denn das „richtige“ Klima sei.

Aber gibt es nicht eine moralische Verantwortung für die nachfolgenden Generationen? Natürlich gibt es die. Nur die Vorstellung von einer Welt im Jahre 2100, in knapp 80 Jahren, sind so vage wie die Vorstellungen, die man 1945 von heute haben konnte. Wer hätte damals erraten können, dass es heute eine EU gibt, China zur Supermacht wächst, in jedem Haus Computer stehen, das Internet zur wichtigen Infrastruktur wird?

Die Kontrollillusion über so lange Zeiträume ist eine Spekulation ins Nichts. Selbst die extreme Annahme einer Steigerung der Temperatur um ein weiteres Grad Celsius (also um 2.5 °C seit der kleinen Eiszeit) bis 2100 wäre keine Katastrophe, die dringendes und extremes Handeln diktiert. Stattdessen ist mehr Realismus angebracht. Emissionen sollten nach dem ALARP – Prinzip („As Low As Reasonably Possible“) reduziert werden, aber ohne die Entwicklung der Menschheit zu mehr Freiheit und Wohlstand zu behindern. Risiken sind zu managen, Chancen zu maximieren.

Wie könnte nun eine post-apokalyptische Klimapolitik aussehen? Im 2013er AR5 des IPCC galt das Szenario 8.5 als „business as usual“ und man landete bei 4-6 °C, was mit einer Katastrophe gleichgesetzt wurde. Heute ist 8.5 passé und man ist eher beim 4.5 Szenario. Die Klimawirkung der Treibhausgase wird heute schwächer gesehen und man kommt nur noch auf 2-3 °C.  Nicht wenige leben jedoch mittlerweile vom Narrativ der „Klimakatastrophe“ und haben ein Interesse daran, dass sie in den Köpfen erhalten bleibt. In Ermangelung der Katastrophe hängt man sich mehr und mehr an Extremwetterereignisse und versucht diese als anthropogene Klimawirkung darzustellen. Am Ende versucht man mit Angstmache den Menschen eine Welt mit weniger Freiheit, Wohlstandsverlusten, weniger Demokratie, negatives Wachstum und Antikapitalismus zu verkaufen – glücklicherweise ein schwieriges Unterfangen.

Klimapolitik muss drei Anforderungen gerecht werden:

  1. Bereitstellung sauberer, ständig verfügbarer und preisgünstiger Energie.
  2. Wirksame Schutzmaßnahmen bei Extremwetterereignissen.
  3. Abwehr von etwaigen langfristigen Gefahren durch Ansammlung von Treibhausgasen.

Zu 1. und 2. gibt es keinen grundsätzlichen Disput, sondern Diskussionen über den besten Weg. Solche Klimapolitik kommt ohne Alarmismus aus und kann leise auf der Basis rationaler Argumente entschieden werden.

Forderung Nr. 3 ist eine internationale und ungewisse Sache. Hier gibt es erheblichen Disput und wenig Chancen auf kurzfristige Lösungen, wohl aber einen angelaufenen Verbesserungsprozess. Eine Fokussierung auf die beiden ersten Punkte ist daher in jedem Fall vernünftige Politik („no regret“).

Eine andere Strategie wäre es, generell den Zeitdruck herauszunehmen. Dabei hätten kurzfristige Maßnahmen mit unmittelbarem Nutzen Vorrang vor langfristigen, ungewissen Projekten. Unterm Strich schlägt die Autorin vor, die Klimapolitik weniger „top-down“ und stärker „bottom-up“ zu gestalten und sich auf das zu konzentrieren, was wir sicher wissen und können.  Die Politik muss die Ungewissheit als Teil der Realität anerkennen und statt starrer Ziele einen kontinuierlichen Verbesserungsprozess in Gang bringen, der der Komplexität des Klimas und dem sich ständig verändernden Erkenntnisstand gerecht wird. Demut statt Hybris ist hier gefragt und Pragmatismus ist ein Schlüsselbegriff.

Der letzte Buchabschnitt enthält einen energischen Aufruf zur freien, interdisziplinären Forschung und eine Absage an Konsensdiktatur und „cancel culture“.

Fazit

Judith Currys Buch ist ein beeindruckendes, lehrreiches Werk, das man sich nach dem Lesen griffbereit in Schreibtischnähe hält. Es gehört zu den Arbeiten, die auch noch in 30 Jahren eine Aktualität haben werden. Diesem hervorragenden, sauber recherchierten und von tiefer Sachkenntnis geprägten Buch ist eine möglichst große Verbreitung zu wünschen.

Teilen: