Von Frank Bosse
Ein aktueller Artikel beschreibt die Leistung kommender Modelle, möglich durch eine Verbesserung der Rechenleistung gegenüber bisherigen Hochleistungscomputern: die „Exaflop“-Generation, also 1 Exaflop =10 hoch 18= 1 Trillion Gleitkommaoperationen pro Sekunde. Sie sollen dann auch lokale Klimaberechnungen möglich machen, vorrangig durch ein engeres Gitter und hinterlegte Physik wo heute noch parametriert werden muss. Das ist Zukunftsmusik, viel interessanter sind die Aussagen zu den bisherigen Modellen im Artikel. Tim Palmer, Professor aus Oxford formuliert es so:
„Ein stark nichtlineares System, bei dem Verzerrungen auftreten, die größer sind als die Signale, die Sie vorherzusagen versuchen, ist wirklich ein Rezept für Unzuverlässigkeit“.
Viele Gesetze und physikalischen Gleichungen des Klimasystems sind bekannt, nur war man bisher nicht in der Lage, sie zu implementieren, aus Rechenzeitgründen. Björn Stevens vom Hamburger Max- Planck-Institut für Meteorologie (MPI-M) formuliert es so:
„Es wurde uns irgendwie verboten, dieses Verständnis durch die Grenzen der Berechnung zu nutzen.“
Und weiter:
„Die Menschen vergessen manchmal, wie weit einige der grundlegenden Prozesse in unseren bestehenden Modellen von unserem physikalischen Verständnis entfernt sind.“
Das bezieht sich keinesfalls auf nur lokale Erscheinungen. Stevens beschreibt es so:
„Wenn es endlich gelingt, das Muster der atmosphärischen tiefen Konvektion über den warmen tropischen Meeren in Modellen physikalisch zu beschreiben, können wir tiefer verstehen, wie dies dann große Wellen in der Atmosphäre formt, die Winde leitet und die Außertropen beeinflusst“.
Wir hören ja immer wieder, dass die Modelle „die Physik“ abbilden. Dies tun sie offensichtlich nicht, auch bei großskaligen Erscheinungen. Das sind sehr offene Worte zu den aktuellen Modellen. Sie scheinen im Licht dessen, was vielleicht einmal möglich sein wird, eher grobe statistische Hilfsmittel als Abbilder der Wirklichkeit. So beschreibt denn der Artikel am Ende das Ziel der Modellierung mithilfe des „Exascale-Computing“. Es soll ein wirkliches Abbild des realen irdischen Klimasystems, ein „digitaler Zwilling“ entstehen. Was wir heute haben, wird von Bjorn Stevens so charakterisiert:
„…dass sich die Entscheidungsträger der Welt genauso auf Klimamodelle verlassen müssen, wie sich Landwirte auf Wetterberichte verlassen müssen, aber dieser Wandel erfordert eine konzertierte – und teure – Anstrengung, um eine Art gemeinsame Infrastruktur für Klimamodelle zu schaffen.“
Was wurde uns nicht alles erzählt über die Performance von Klimamodellen! Und nun stellt sich heraus, dass sie bisher noch gar nicht in der Lage sind, „die Entscheidungsträger der Welt“ verlässlich zu informieren. Sie sind in Wahrheit weit weg davon. In diesem Zusammenhang ist es auch verständlich, dass der letzte Zustandsbericht des IPCC eben zum ersten Mal NICHT auf die vielen Modelle zurückgriff, die extra für ihn geschaffen wurden, genannt CMIP6-Familie. Vielmehr bezog das IPCC die wichtigste Kerninformation: „Wie empfindlich ist unser Klimasystem auf CO2-Erhöhung?“ aus einer Arbeit, die verschiedene Abschätzungen ohne Modellnutzung zusammenführte.
Diese eine Arbeit enthielt leider einige Mängel und konnte zudem aktualisiert werden, Lewis (2022) reduzierte den vom IPCC AR6 angenommenen wahrscheinlichsten Wert deutlich, um über 30%.
So ist denn in der Klimawissenschaft Vieles im Fluss und (wie in der Wissenschaft immer üblich) nichts in Stein gemeißelt. Ob sich das irgendwann auch in unsere Medien durchschweigt? Oder zu den Verängstigten, die meinen, sie seien ganz sicher die „letzte Generation“ vor einem Klimakollaps, informiert durch eben diese Medien und wie sie vorgeben: „Die Wissenschaft“? Oder waren es statt Wissenschaft solche Werke wie „Hothouse Earth“ und „Climate-Endgame“?
Bleiben wir Optimisten!