Hans von Storch: Zur Sache Klima. Aufnahme: ©J.Xu Aufnahme: ©J.Xu

Die Absicht dieser Kolumne geht dahin, ruhiger, als es in der Publizistik gemeinhin geschieht, die Hintergründe von Aufregerthemen in Sachen Klimawandel und Klimaschutz zu erläutern, manchmal auch einfach Grundlagen zu erklären. – Hans von Storch, geb. 1949, ist Professor am Meteorologischen Institut der Fakultät für Mathematik, Informatik und Naturwissenschaften (MIN), Zweitmitglied an der Fakultät für Wirtschafts- und Sozialwissenschaften (WiSo) der Universität Hamburg sowie Direktor emeritus des Instituts für Küstenforschung am Helmholtz Forschungszentrum Geesthacht. Er ist Spezialist für Fragen der Klimamodellierung und hat in verschiedenen Arbeitsgruppen des IPCC mitgearbeitet. Zusammen mit Werner Krauß schrieb er das Buch Die Klimafalle: die gefährliche Nähe von Politik und Klimaforschung (2013).

 

von Hans von Storch

Modelle reden ein gewichtiges Wort mit bei der politischen Willensbildung. Modelle, die die zukünftige Entwicklung des Klimasystems abschätzen, sind schon alte Bekannte, seit etwa einem Jahr sind auch Modelle zur Ausbreitung und Einhegung der Corona-Pandemie allgegenwärtig. Was sind das eigentlich für Dinger, diese ›Modelle‹? Das Wort ist mit zahlreichen Bedeutungen im Einsatz, von ›models‹, also von Frauen und Männern, die gewisse Schönheitsideale verkörpern, ›digital elevation models‹, früher Landkarten genannt, hin zu den Instrumenten der Klimaforschung und Epidemiologie.

Insofern sind wir schon beim ersten Problem, wenn von Modellen die Rede ist. Bei Diskussionen haben die Teilnehmer verschiedene Begriffe vor Augen – und verstehen daher in der Regel weder, wie diese Modelle konstruiert sind noch welchen Mehrwert sie zu erzielen in der Lage sind. Häufig genug werden Modelle angenommen als ad hoc Ansätze, in denen eine interessierende Variable dargestellt wird als gewichtete Summe von vermuteten Einflussgrößen. Dabei, so die Vorstellung, werden die Gewichte anhand von Daten so bestimmt, dass diese gewichtete Summe der Variablen, für die man sich interessiert, möglichst nahekommt. Im Prinzip also ein ›statistisches Regressionsmodell‹. Diese ›Bestimmung‹ wird dann – alltagssprachlich – umschrieben als ›Daten werden in den Computer gefüttert‹. Tatsächlich gibt es solche Vorgehensweisen, aber in der Klimaforschung wird das nicht so gemacht.

Modelle sind vereinfachte Darstellungen von Realität, wobei einige Eigenschaften realistisch dargestellt, andere vernachlässigt werden. Modelle dienen einem vorgegebenen Zweck, und die Auswahl der realistisch dargestellten ›Dynamik‹ steht unter dem Vorbehalt dieses Zwecks. ›Digital elevation models‹ dienen dazu, zu informieren, wie hoch es an welchem Ort ist, evtl. auch welche Landnutzung wo betrieben wird. Sie eignen sich zur sozioökonomischen Planung, aber sie stellen nicht dar, welche Gesundheitsprobleme durch große Höhe für Menschen entstehen, oder welche ästhetischen Gewinne Menschen auf Wanderungen verbuchen – weil solche Aspekte in diesem Kontext ohne Belang sind. In modellmäßig beschriebener Atmosphäre als Teil des Klimasystem gibt es keine Schallwellen, wohl aber die für die Ausbildung unseres Wetters wesentlichen ›Rossbywellen‹. Die erste Gruppe an Eigenschaften nennt man ›positive Analoga‹, die zweite ›negative Analoga‹. Wäre die Buchhaltung der Eigenschaften damit erschöpft, dann wären Modelle unbrauchbar, denn sie würden nur darstellen, was wir schon wissen. Wir wollen aber einen Mehrwert, wir wollen etwas lernen von den Modellen, zumindest als Hypothesen. Das sind die ›neutralen Analoga‹, also Eigenschaften von denen wir nicht definitiv wissen, aber doch hoffen, dass sie positive Analoga sind. In den Klimamodellen ist dies z.B. die quantitative Wirkung erhöhter Treibhausgaskonzentrationen auf den klimatischen Zustand.

Als die ersten Klimamodelle Ende der 1970er Modelle dies neutrale Analog anboten, also Abschätzungen der Wirkung etwa einer Verdopplung der CO2 Konzentration in der Atmosphäre, waren diese Zahlen nur Vorschläge; inzwischen haben sie sich erhärtet durch andere Evidenz, insbesondere Wetterdaten der vergangenen einhundert und mehr Jahre, aber auch Wissen aus der Paläoklimaforschung. Diese Erhärtung bezieht sich vor allem auf die Temperatur, und der Erfolg mit dieser Variablen lässt uns vermuten, dass die Modelle auch mit anderen Eigenschaften im Rahmen des plausiblen liegen.

Der guten Ordnung halber sei hier betont, dass die Gewissheit des menschlichen Einflusses auf das Klimasystem durch die Freisetzung von Treibhausgasen kein Resultat von Modellen ist. Vielmehr ist sie Resultat einer statistischen Bewertung langer Zeitreihen von Wetterdaten, bei der Modellergebnisse genutzt werden zur Formulierung von Hypothesen. Man spricht von ›Detektion und Attribution‹.

Modelle haben gegenüber der Realität den Vorteil, dass in ihnen ›Experimente‹ möglich sind – man kann die gleiche Situation mehrfach so durchspielen, dass eine Realisation sich nur in einer bestimmen Art und Weise von der anderen unterscheidet, und so die Wirkung des geänderten Details eindeutig bestimmen. Das klingt einfacher, als es ist – und das Ergebnis steht unter dem Vorbehalt, dass das Ergebnis als neutrales Analogon eben ein positives ist – wessen man sich nicht gewiss sein kann. Experimente mit der Realität sind nicht möglich, weil dort immer eine große Anzahl unkontrollierbarer Einflussfaktoren am Werk ist, und eine beobachtete Änderung durch völlig andere Zusammenhänge entstehen kann als jene, die man untersuchen möchte.

Also, Modelle berücksichtigen nur einen Teil der Realität des betrachteten Systems, es sind weniger Faktoren als in der Realität (sie sind ›kleiner‹) und sie sind ›abgeschlossen‹ (alle Einflussfaktoren sind gezielt und unabhängig voneinander manipulierbar). Die Auswahl des dargestellten Teils der Realität schränkt die Anwendung und damit den möglichen Mehrwert des Einsatzes solcher Modelle ein.

Im Falle der Klimaforschung gibt es Modelle minimaler Komplexität, also Modelle, die so einfach wie möglich sind und sich manifestieren in einfachen Formalen oder einfachen Computer-Codes. Sie stellen ›Verständnis‹ dar, erlauben aber keine detaillierte Beschreibung, wie sich das Klima entwickeln könnte, wenn sich etwa die Konzentration der Treibhausgaskonzentrationen in einer vorgegebenen Weise entwickelt. Dies macht man mit Modellen maximaler Komplexität, deren Ausgestaltung von der Verfügbarkeit von Rechenleistung abhängt. Sie generieren kein ›Verstehen‹, aber Daten, die entsprechend analysiert zur Ableitung minimal komplexer Modelle geeignet sind und so indirekt eben doch Verstehen ermöglichen.

Wenn in der Öffentlichkeit von Klimamodellen die Rede ist, sind immer die maximal komplexen Modelle gemeint. Diese Modelle generieren Wetterabläufe, wie sie möglich erscheinen in einem Regime mit erhöhten Treibhausgaskonzentrationen – aber keine Wettervorhersagen über eine kurze Anfangsphase von wenigen Tagen hinaus. Aus diesen Wetterabläufe können aber Statistiken, etwa Mittelwerte, Variabilität und Korrelationen abgeleitet werden – diese nennt man: Klima. Wenn also ein Modell zweimal mit gleichen Nebenbedingungen gerechnet wird, erzeugt es verschiedene Wetterabläufe, aber deren Statistiken sind (im Rahmen der statistischen Variabilität) gleich.

Dies zur Klärung einer beliebten scheinbar zum Widerspruch führenden Nachfrage, wieso man das Wetter nur wenige Tage vorhersagen könne, das Klima aber für viele Jahre. Dass das geht, zeigt der Erfolg der Beschreibung des Jahresganges: bei uns ist es im Winter kalt, im Sommer warm, wegen der saisonal verschiedenen Strahlungsleistung der Sonne. Klimamodelle haben kein Problem damit, diesen saisonalen Jahresgang nachzuempfinden. Es ist also kein Widerspruch.

Soweit für diesmal – nächstes Mal soll es darum gehen, wie denn realitätsnahe Klimamodelle ›gebaut‹ werden.

Ausführlichere Darstellungen für naturwissenschaftlich gebildete Menschen bieten diese Publikationen an:

von Storch, H., S. Güss und M. Heimann, 1999: Das Klimasystem und seine Modellierung. Eine Einführung. Springer Verlag Berlin - Heidelberg - New York , 255 pp.
Müller, P., and H. von Storch, 2004: Computer Modelling in Atmospheric and Oceanic Sciences – Building Knowledge. Springer Verlag Berlin - Heidelberg - New York, 304pp.
von Storch, H., and G. Flöser (Eds.), 2001: Models in Environmental Research. Proceedings of the Second GKSS School on Environmental Research, Springer Verlag Berlin - Heidelberg - New York 254 pp.
Eine populärwissenschaftliche Einführung in dieses Thema gibt es als Video auf: https://www.br.de/fernsehen/ard-alpha/sendungen/campus/talks/campus-talks-storch-hans100.html

Wir nutzen Cookies auf unserer Website. Sie sind essenziell für den Betrieb der Seite (keine Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.