Hans von Storch: Zur Sache Klima. Aufnahme: ©J.Xu Aufnahme: ©J.Xu

Die Absicht dieser Kolumne geht dahin, ruhiger, als es in der Publizistik gemeinhin geschieht, die Hintergründe von Aufregerthemen in Sachen Klimawandel und Klimaschutz zu erläutern, manchmal auch einfach Grundlagen zu erklären. – Hans von Storch, geb. 1949, ist Professor am Meteorologischen Institut der Fakultät für Mathematik, Informatik und Naturwissenschaften (MIN), Zweitmitglied an der Fakultät für Wirtschafts- und Sozialwissenschaften (WiSo) der Universität Hamburg sowie Direktor emeritus des Instituts für Küstenforschung am Helmholtz Forschungszentrum Geesthacht. Er ist Spezialist für Fragen der Klimamodellierung und hat in verschiedenen Arbeitsgruppen des IPCC mitgearbeitet. Zusammen mit Werner Krauß schrieb er das Buch Die Klimafalle: die gefährliche Nähe von Politik und Klimaforschung (2013).

 

von Hans von Storch

Facebook ist ein Ort, an dem sich viele mit kurzer Reaktionszeit austoben, jedes Maß an Zivilisiertheit fallen lassen und rohe Dummheit walten lassen. Aber es gibt auch andere – und so habe ich eine ganze Reihe kompetenter, angenehmer und intellektuell herausfordernder Leute dort angetroffen und mich mit einigen in einem stetigen konstruktiven und offenen Austausch angefreundet. Immer wieder erreichen mich gute Anregungen von dort – eine war vor wenigen Tagen diese:

»… mir ist gerade von Akademia.edu Dein Aufsatz von 2020: (https://www.academia.edu/43928857/Wollen_wir_Wissenschaftliches_Wissen_oder_Wahrheit) empfohlen worden, in dem Du Dich mit ›Folge der Wissenschaft‹ und Dieter Nuhr befasst. Darin lese ich folgenden Satz – aus dem Zusammenhang gerissen: ›Ergebnisse gelten dann als vorläufig abgesichert, wenn sie einer organisierten, andauernden Falsifikation ausgesetzt werden.‹ – und ich frage mich, welchen Status dann Eure Modelle darin haben, die ja nur schwerlich einer ausdauernden Falsifikation ausgesetzt werden können. Oder sehe ich das falsch? Meinst Du, indem Ihr die Modelle fortwährend durch neuere Erkenntnis anpasst und an deren Schrauben dreht, würden sie damit der Falsifikation ausgesetzt?‹«

Ich war von dieser Nachfrage zunächst etwas überrascht, hatte mir diese Frage nicht gestellt. Meine Antwort darauf war dann:

»Natürlich werden die Modelle ständig ausgebaut, auch um die verbesserte Leistungsfähigkeit der Computer abzuschöpfen, und mehr räumliches Detail und längere Integrationszeiten (Erdgeschichte) zuzulassen. Und um weitere Komponenten hinzu zu koppeln (z.B. Kohlenstoffkreislauf). Aber man kann natürlich nachsehen, ob die so modernisierten Modelle andere Resultate liefern als ältere Exemplare – und in den wesentlichen Dingen, also etwa der mittleren Lufttemperatur und der Neigung, Starkniederschläge zu bilden (auf entsprechend großer Skala), ist das unverändert, auch was die Unsicherheiten angehen. Wenn man sich die ›alten‹ Szenarien ansieht, etwa die von Hansen 1988, dann passen die für die Temperaturentwicklung seit 1990 bemerkenswert gut zur aktuellen Entwicklung. Auch werden die Modelle getestet an erdgeschichtlichen Episoden, in der Wettervorhersage, im Vergleich von empirisch bestimmten Zusammenhängen. Also, methodisch ist da nichts einzuwenden. Und unser Modellbuch (Storch, Güss und Heimann: https://www.springer.com/de/book/9783540658306 ) von 1999 passt immer noch gut.«

Im Nachhinein bin ich nicht mehr ganz zufrieden mit meiner Antwort. Kann man Modelle falsifizieren? Da kommt es sicher drauf an, was man mit Modell meint – etwa eine Vorform von Theorie, wie von Marry Hesse als gängig in der Physik dargestellt (Hesse, M.B., 1970: Models and analogies in science, University of Notre Dame Press, Notre Dame 184 pp.) – oder als Versuch, den Mechanismus eines Systems mit möglichst vielen Details nachzubauen? Das, was üblicherweise unter ›Klimamodell‹ läuft geht in letztere Gruppe – ich habe dies in Teil 2 dieser Serie in GlobKult dargestellt.

Wenn es um solche Modelle geht, dann sind diese immer irgendwie ›falsch‹, in dem Sinn, dass sie Aspekte des wirklichen Systems nicht ›richtig‹ (oder gar nicht) darstellen. Dies ist trivial, denn so ein Modell ist ein kleineres und vereinfachtes aber dennoch sehr komplexes und hochdimensionales Abbild der Realität, eingedampft auf jene Komponenten, die man für wichtig hält. Das Modell teilt mit der Realität einige Eigenschaften, in der Terminologie von Hesse: positive Analoga; einige Eigenschaften werden nicht oder nicht belastbar dargestellt: negative Analoga. Und dann gibt es noch Eigenschaften, von denen man hofft, sie seien positive Analoga, aber man weiß es nicht sicher: neutrale Analoga. Die großskaligen statistischen Eigenschaften des Jahresganges im gegenwärtigen Klima, etwa, ist ein positives Analogon; die turbulenten Wirbel um das Geomatikum in Hamburg sind negative Analoga; die Sensitivität der Lufttemperatur gegenüber einer Verdoppelung der Kohlendioxidkonzentration in der Atmosphäre ist ein neutrales Analogon in den gängigen Klimamodellen.

›Verifikation‹ eines Modells, wenn der Begriff trotz seiner impliziten Widersprüchlichkeit hier erlaubt sei, heißt, die positiven und negativen Analoga zu bestimmen. Bei dieser Verifikation lernt man etwas über das Modell, aber wenig über die Realität, die ja eigentlich interessiert. Legionen von Wissenschaftlern machen nichts anderes und müssten eigentlich vor Langweile eingehen. Die neutralen Analoga sind die kreative Motivation, überhaupt Modellierung zu betreiben, weil sie erlauben, Thesen über unbekannte Zusammenhänge im Klimasystem zu formulieren, und diese anhand der beschränkten empirischen Daten zu prüfen.

Was also kann ›Falsifikation‹ bedeuten? Doch wohl den Nachweis, dass als positiv gedeutete neutrale Analoga, oder auch angebliche positive Analoga, tatsächlich negativ sind. Nicht das Modell wird falsifiziert, sondern die Erwartung, dass es ›etwas‹ richtig darstellt. Welches ›etwas‹ – das hängt davon ab, was man erwartet, dass das Modell es richtig macht. Also, der Modellzweck steht zur Debatte. Man könnte die Aussage ›Gängige Klimamodelle können die Dynamik des klimatischen Zustandes auf Zeitskalen von Jahrzehnten und Jahrhunderten und einer räumlichen Auflösung von 500 Kilometern und weniger in Abhängigkeit von der Konzentration von Treibhausgasen darstellen‹ falsifizieren, nicht aber das Modell selbst.

Wie würden wir diese Aussage falsifizieren? Zum Beispiel dadurch, dass wir demonstrieren, dass die Temperaturentwicklung seit Beginn der Industrialisierung von den Modellen nicht nachempfunden wird. – Nein, das ist nicht der Fall, jedenfalls überwiegend.

Aber so einfach ist das nicht. Vor einiger Zeit wurde in einem hoch anerkannten Journal berichtet, dass einige state-of-the-art Modelle das in Beobachtungsdaten vorhandene Langzeitgedächtnis nicht nachempfinden würden, woraus geschlossen wurde, dass die Modelle fehlerhaft seien. Die Analyse war richtig, die Schlussfolgerung nicht – die Modelle wurden nur mit einem eingeschränkten Satz von Antrieben berechnet – genauer: ohne episodische vulkanische Aerosol-Antriebe – aber sobald diese hinzugenommen wurden, war das Langzeitgedächtnis da. Die Kollegen hätten nur eine Aussage über ihre Simulationen machen dürfen, aber nicht über die Modelle, mit denen die Simulationen durchgeführt wurden.

Daneben gibt es natürlich auch noch das Problem, dass das Klimasystem ein stochastisches System ist, in dem es ›Rauch ohne Feuer‹ gibt. Der beobachtete Ablauf kann also im Detail nicht nachgestellt werden, weil es Schwankungen gibt, die ursachenfrei sind. [Über dieses stochastische Rauschen mehr in der nächsten Kolumne.]

Mein Facebook-Freund hatte vermutet, dass die Modelleure die (zugegebenermaßen) wenigen freien Parameter in den Modellen immer wieder so anpassen, dass auch die neuesten Entwicklungen passen (im Rahmen der internen Variabilität). – Ja, das stimmt, da sind ein paar wenige Parameter, aber die werden nicht massiv nachjustiert, sondern ändern sich im Zuge der Fortentwicklung der Modelle nur wenig. Natürlich kommen neue Parametrisierungen zum Einsatz, was unausweichlich ist, weil diese abhängig davon sind, welche Zustandsgrößen mitgeführt werden, und was für eine raumzeitliche Diskretisierung eingesetzt wird. Neuere Modelle haben mehr Zustandsgrößen und eine feinere raumzeitliche Diskretisierung. Diese Modelle stellen mehr dar, als ihre älteren Schwestern, aber es ist ein zusätzliches Detail, während die weniger umfangreichen Aussagen der älteren Schwestern weitestgehend reproduziert werden.

Das ist jetzt doch etwas technisch geworden – vielleicht war meine erste Antwort zwar verkürzend, aber dem Problem in Umfang und Detail angemessener.

Summa Summarum: Nein, man kann Modelle kaum falsifizieren, aber man kann die Eignung der Nutzung von Modellen für spezifische Anwendungen falsifizieren.

Literturhinweise

Ausführlichere Überlegungen zum Modellbegriff mitsamt Beispielen bieten von Storch, H., 2001: Academia and Applications http://www.hvonstorch.de/klima/pdf/lauenburg.2.models.pdf. In: H. von Storch and G. Flöser (Eds): Models in Environmental Research. Springer Verlag, 17-33 (http://www.hvonstorch.de/klima/pdf/lauenburg.2.models.pdf)
und
Müller, P., and H. von Storch, 2004: Computer Modelling in Atmospheric and Oceanic Sciences – Building Knowledge. Springer Verlag Berlin-Heidelberg-New York, 304pp, ISN 1437-028X

0
0
0
s2smodern
powered by social2s
POLITIK GESELLSCHAFT KULTUR GESCHICHTE
Deutschland Modelle Fluchten Zeitgeschichte
Europa Identitäten L-iteratur Personen
Welt Projektionen Medien Entwicklungen
Besprechungen Besprechungen Ausstellungen Besprechungen
    Besprechungen  

Sämtliche Abbildungen mit freundlicher Genehmigung der Urheber. Die frei verwendeten Motive stammen von Monika Estermann, Renate Solbach und Ulrich Schödlbauer.