Kann man sich auf die Klimaforschung verlassen?

Behauptung: „Klimamodelle sind nicht verlässlich"

„Klimamodelle sind unzuverlässig, für verlässliche Prognosen oder gar weitreichende politische Entscheidungen sind sie jedenfalls unbrauchbar.“

Fakt ist: Computermodelle können das Klimasystem Erde mittlerweile gut simulieren

Antwort: 

Bei der Modellierung des Klimasystems hat die Forschung in den letzten Jahrzehnten große Fortschritte gemacht. Trotz einiger Unschärfen gelingt es dank komplexer Modelle und leistungsfähiger Computer längst, bisherige Klimaentwicklungen verlässlich zu rekonstruieren und künftige Entwicklungen zu projizieren. Die Qualität der Modelle zeigt sich zum Beispiel, wenn man einstige Vorhersagen mit der später beobachteten Realität vergleicht.

Klimamodelle sind extrem komplexe Computerprogramme. Mit ihnen wird versucht, Entwicklungen von und Wechselwirkungen zwischen den einzelnen Komponenten des Klimasystems der Erde zu simulieren – also  beispielsweise von Atmosphäre und Ozeanen, von Wolken, Schnee und Eismassen oder von verschiedenen geologischen, biologischen und chemischen Prozessen.

Die ersten, noch sehr simplen Klimamodelle wurden in den 1960er Jahren entwickelt. Im Laufe der Jahrzehnte entstanden immer ausgefeiltere Modelle. Am gebräuchlichsten sind heute einerseits „Erdsystemmodelle mittlerer Komplexität“ (engl. Abkürzung: EMIC), die bewusst vereinfacht sind und mit denen sich längere Zeitabschnitte (Jahrhunderte oder Jahrtausende) simulieren lassen. Daneben werden für die Projektion der Klimaentwicklung der kommenden Jahrzehnte sogenannte „Globale Zirkulationsmodelle“ (engl. Abkürzung: GCM) eingesetzt, die einzelne Teile des Klimasystem sowie deren Zusammenwirken so genau wie möglich nachvollziehen. Doch trotz aller Komplexität bleiben Klimamodelle natürlich vereinfachte Abbildungen der Wirklichkeit.

Für die Anwendung der Klimamodelle wird die Erde mit einem dreidimensionalen Gitter überzogen, für jede Gitterzelle sowie den Austausch mit benachbarten Zellen werden dann die einzelnen Parameter berechnet. Dank immer schnellerer Hochleistungscomputer konnten in die Klimamodelle immer mehr physikalische Prozesse integriert werden. Besonders die Vorgänge in den Ozeanen können nun wesentlich detaillierter und naturnäher in den Modellen dargestellt werden.

Um die Unsicherheiten bei den Ergebnissen zu verringern, verwenden Forscher meist verschiedene  Modelle bzw. lassen dasselbe Modell Rechendurchläufe in sehr großer Zahl absolvieren. Bei den Ergebnissen von Klimamodellen werden daher üblicherweise die Mittelwerte vieler Berechnungen veröffentlicht und auch die Spannbreite der erhaltenen Ergebnisse. Um die Grenzen der Klimamodellierung zu betonen, wird in der Forschung auch nicht von Klima"prognosen" gesprochen, sondern von Klima"projektionen" , da jeder Simulation für die Zukunft bestimmte Annahmen zugrunde liegen, etwa über die Emissionen von Treibhausgasen. Diese sind kaum vorhersagbar und natürlich durch Menschen und ihr Verhalten beeinflussbar.  

Wie "gut" sind die heutigen Klimamodelle?

Der Fünfte Sachstandsbericht des IPCC von 2013/14 behandelt diese Frage ausführlich auf mehr als einhundert Seiten (Band 1, Kapitel 9). Das klare Fazit lautet (deutsche Übersetzung des SPM, S. 13):

„Die Modelle geben die beobachteten Muster und Trends [des Klimas] über viele Dekaden der Erdoberflächentemperatur im kontinentalen Maßstab wieder, einschließlich der stärkeren Erwärmung seit Mitte des 20. Jahrhunderts und der unmittelbar auf große Vulkaneruptionen folgenden Abkühlung.“

Hinter der Frage nach der Güte der Klimamodelle stecken eigentlich zwei:

  • Können Klimamodelle die Vergangenheit präzise rekonstruieren?
  • Und können sie verlässliche Prognosen hervorbringen?

Die erste Frage ist relativ leicht zu beantworten, denn für die Vergangenheit kann man die Ergebnisse von Modellierungen mit den tatsächlich gemessenen Temperaturen vergleichen. Abbildung 1 zeigt Modellberechnungen für die Erdmitteltemperatur seit Mitte des 19. Jahrhunderts – und zwar sowohl mit als auch ohne Einwirkung des Menschen. Es ist deutlich zu sehen (im obersten Teil der Grafik), dass Klimamodelle die real gemessenen Temperaturen (schwarze Zickzack-Kurve) als Zusammenspiel natürlicher und anthropogener Einflüsse gut nachbilden können.

Abbildung 1: Vergleich zwischen der real beobachteten Entwicklung der Erdmitteltemperatur (jeweils schwarze Kurve, kombiniert aus drei separaten Datensätzen) sowie von Klimamodellrechnungen. Die feinen orangen und bläulichen Linien zeigen die Ergebnisse einzelner Modellberechnungen, die fette rote bzw. blaue Kurve den jeweiligen Mittelwert. Oben (a) sind in den Modellen natürliche und menschliche Einflüsse auf das Klima berücksichtigt, in der Mitte (b) nur natürliche Einflüsse (beispielsweise von Schwankungen der Sonnenaktivität und Vulkanausbrüchen), unten (c) sind Simulationen der Temperaturentwicklung seit dem 19. Jahrhundert dargestellt, die ausschließlich die menschengemachten Emissionen von Treibhausgasen berücksichtigen. Eindeutig am besten stimmen reale Messwerte und Modellergebnisse in Grafik (a) überein; und Grafik (c) zeigt an, dass die Erderwärmung in den vergangenen Jahrzehnten ohne den Effekt natürlicher Klimaeinflüsse höher ausgefallen wäre (rote Linien) als sie real war (schwarze Linie), dass also natürliche Einflüsse die menschengemachte Erwärmung etwas gedämpft haben. Quelle: IPCC 2013, AR5, WG1, Kap.10, Abb.10.01 (Ausschnitt)

Der Fünfte IPCC-Sachstandsbericht enthält eine Grafik, in der die Übereinstimmung zwischen Computermodellen und realen Beobachtungen separat für die einzelnen Kontinente und für die Lufttemperaturen, den Wärmegehalt der Meere und die Meereisausdehnung dargestellt ist (Abbildung 2).

Abbildung 2: Vergleich des beobachteten und simulierten Klimawandels basierend auf drei großräumigen Indikatoren in der Atmosphäre, der Kryosphäre und dem Ozean: Änderungen der kontinentalen Landoberflächentemperaturen (gelb unterlegte Boxen), der Ausdehnung des arktischen und antarktischen Meereises jeweils im September (weiße Boxen mit schwarzem Rahmen) sowie des Wärmegehalts der oberen Ozeanschicht in den großen Ozeanbecken (weiße Boxen mit blauem Rahmen). Die mittleren globalen Änderungen sind ebenfalls dargestellt (die drei Diagramme in der unteren Reihe). Alle Zeitreihen sind Zehn-Jahres-Mittel, welche in der Mitte des Jahrzehnts markiert sind. Die schwarze Linie zeigt jeweils real beobachtete Temperaturen, die rot schraffierten Flächen die Ergebnisse jener Klimamodelle, die natürliche und menschliche Faktoren berücksichtigen - die Übereinstimmung ist augenfällig. Quelle: IPCC 2013, WG1, Figure SPM.6

Dasselbe gilt für längere Zeiträume und die oben genannten EMIC-Klimamodelle, wie beispielsweise eine Studie zeigte, die Temperaturdaten und Modellergebnisse bis zurück zum Jahr 850 verglich (Eby et al. 2013). Die vorübergehende Verlangsamung der Erwärmung nach 1998 (manchmal fälschlich „Erwärmungspause“ genannt), ändert an der grundsätzlichen Verlässlichkeit der heutigen Klimamodelle nichts – denn einzelne Modelldurchläufe ergeben auch jeweils Phasen mit schneller oder langsamer Erwärmung.

Können Computermodelle das künftige Klima vorhersagen?

Gelegentlich ist von Kritikern der Klimaforschung zu hören, Wissenschaftler könnten ja nicht einmal das Wetter für die nächsten Wochen vorhersagen – wie solle das dann für das Klima in ein paar Jahrzehnten funktionieren? Dieser (rhetorischen) Frage liegt die fehlende Unterscheidung zwischen Wetter und Klima zugrunde: Ersteres ist tatsächlich unberechenbar und schwer über längere Zeiträume vorhersagbar, letzteres hingegen ein Langzeitdurchschnitt des Wetters. Zwar kann man tatsächlich das Wetter kaum mehr als zwei Wochen im Voraus vorhersagen – aber man kann beispielsweise im Winter mit sehr hoher Sicherheit vorhersagen, dass es sechs Monate später wärmer sein wird.

Aber selbstverständlich bergen Klimaprojektionen eine Reihe von Schwierigkeiten. So ist etwa die künftige Aktivität der Sonne schwer absehbar, auch lassen sich kurzfristige Einflüsse wie Vulkanausbrüche schwerlich vorhersagen. Doch sind die Wirkungsweisen der wichtigsten Faktoren, die das Klima beeinflussen, lange bekannt. Ende der achtziger Jahre veröffentlichte der US-Klimatologe James Hansen Schätzungen zur künftigen Temperaturentwicklung (Hansen et al. 1988). Schon diese frühen Berechnungen zeigen – siehe Abbildung 3 – eine ziemlich gute Übereinstimmung mit nachfolgenden Beobachtungen (Hansen et al. 2006). Und seitdem sind, wie gesagt, die Klimamodelle deutlich verbessert worden.

Abbildung 3: Vergleich von Simulationen der globalen Temperaturänderung und späterer tatsächlicher Beobachtung – grün, blau und violett verzeichnet ist die weltweite Oberflächentemperatur für verschiedene Szenarien von menschlichen Treibhausgasemissionen, rot und schwarz dargestellt sind zwei verschiedene Analysen tatsächlicher Beobachtungsdaten; Quelle: Hansen 2006

Die engste Korrelation mit den später real gemessenen Temperaturen zeigt Hansens Szenario B. Dieses hatte er einst selbst für die wahrscheinlichste Variante gehalten, später zeigte sie dann tatsächlich die größte Übereinstimmung mit den in der Realität erreichten CO2-Emissionen. Zwar gibt es von Jahr zu Jahr Abweichungen – diese sind jedoch zu erwarten. Die unberechenbare Natur des Wetters mag die Bestimmung des menschlichen Einflusses erschweren, doch die Tendenz insgesamt ist kalkulierbar.

Mit dem Ausbruch des philippinischen Vulkans Pinatubo im Jahr 1991 bot sich die Chance herauszufinden, wie zutreffend die Vorhersagen von Modellen über die Auswirkungen von Sulfat-Aerosolen auf das Klima sind. Ergebnis: Die Modelle sagten ziemlich akkurat die vorübergehende weltweite Abkühlung von ca. 0,5 °C voraus, die bald auf den Ausbruch folgte (siehe Abbildung 4). Mehr noch: Auch die Rückkopplungseffekte etwa von Sonneneinstrahlung und Wasserdampf, die in die Modelle eingeflossen waren, wurden quantitativ bestätigt (Hansen 2007).

Abbildung 4: Tatsächlich beobachtete und simulierte globale Temperaturschwankung nach dem Pinatubo-Ausbruch - grün markiert ist die von Wetterstationen beobachtete Temperatur, in Blau Land- und Meerestemperaturen. rot verzeichnet ist das durchschnittliche Ergebnis der Modellierungen – das Absinken der globalen Temperatur um rund 0,5 Grad Celsius ein Jahr nach der Eruption ist ziemlich genau getroffen, ebenso der folgende schrittweise Wiederanstieg (das Zickzack der kurzfristigen Schwankungen ist dabei normal); Quelle: Hansen 2007

Im Laufe der Jahre konnten Forscher den Einfluss natürlicher Faktoren auf das Klimasystem (wie vulkanische Aktivitäten oder das Ozeanphänomen El Niño) zunehmend genau identifizieren, isolieren und mit Klimamodellen reproduzieren (Fyfe et al. 2010).

Unwägbarkeiten bei Klimaprognosen

Ein bisweilen geäußerter Vorwurf lautet, Klimamodelle würden die Auswirkungen der CO2-Anreicherung in der Atmosphäre übertreiben. Grundsätzlich können sich Unsicherheiten sowohl in Über- als auch Untertreibungen manifestieren. Doch es stimmt, dass Modelle des Klimasystems der Erde größere Unsicherheiten nach oben als nach unten haben. Verantwortlich dafür sind aber nicht irgendwelche Absichten der Klimaforscher, die diese Modelle programmieren – sondern es ist, wie die US-Atmosphärenphysiker Roe und Baker in einem Aufsatz erklären, eine „unvermeidliche Konsequenz“ der Grundcharakteristika des Klimasystem (Roe/Baker 2007): Weil das genaue Ausmaß des Temperaturanstiegs bei fixer Zunahme von Treibhausgasen sehr stark von verschiedenen Rückkopplungsprozessen abhängt und deren Gesamtwirkung insgesamt eine verstärkende ist, ergeben sich bei der oberen Grenze der zu erwartenden Temperaturen eben größere Unsicherheiten als bei der unteren Grenze.

Es gab und gibt tatsächlich Modellergebnisse, in denen Klimaveränderungen überschätzt worden sind – allerdings auch eine ganze Reihe, die sich im Nachhinein als zu konservativ herausgestellt haben, die also von der Realität sogar noch überholt wurden. Beispielsweise wiesen Rahmstorf et al. 2012 darauf hin, dass die Meeresspiegel seit den 1990er Jahren stärker anstiegen als einst in IPCC-Sachstandsberichten auf der Basis von Modellrechnungen projiziert (Abbildung 5). Der durchschnittliche Anstieg zwischen 1993 und 2010 betrug demnach laut Satellitenmessungen 3,2 mm pro Jahr, während beispielsweise der Dritte Sachstandsbericht des IPCC aus dem Jahr 2001 einen jährlichen Anstieg von rund 2 mm erwartet hatte.

Abbildung 5: Veränderung des Meeresspiegels – Gezeitenpegelmessungen sind orange dargestellt, die erst seit Anfang der neunziger Jahre vorliegenden Satellitendaten rot. Die blaue Fläche zeigt die Projektionen des Dritten IPCC-Reports von 2001 (mit der blauen Linie als Mittelwert), die grünen Linien zeigen entsprechend Ober- und Untergrenze sowie Mittelwert aus dem Vierten IPCC-Sachstandsbericht. Die reale Entwicklung lag am oberen Rand bzw. über vorherigen Modellprojektionen; Quelle: Rahmstorf et al. 2012

Auch die Schmelze des arktischen Meereises während der Sommermonate ist weitaus stärker und schneller ausgefallen, als in Klimamodellen vorhergesagt (Abbildung 6).

Abbildung 6: Veränderung der Ausdehnung des arktischen Meereises, jeweils für den Monat September eines Jahres, in Millionen Quadratkilometer– die fette rote Linie zeigt die reale Entwicklung seit Mitte des 20. Jahrhunderts, die feinen bunten Linien zeigen die Ergebnisse von 13 verschiedenen Modellen aus dem Vierten IPCC-Sachstandsbericht, die fett-schwarze Linie das Mittel daraus; Quelle: IPCC/NSDC/Nasa/AWI

Wieviel Genauigkeit kann man überhaupt erwarten?

Gelegentlich heißt es, die Menschheit solle mit Klimaschutzmaßnahmen warten, bis die Ergebnisse von Klimamodellen ganz sicher sind. Doch selbst mit perfekten Modellen würden wegen des prinzipiell chaotischen Charakters des Klimasystems Unsicherheiten bleiben. Alle Feinheiten des Klimas zu simulieren, ist nach menschlichem Ermessen unmöglich - schon heute aber sind die Modelle soweit, dass sie langfristige Klimatrends zuverlässig simulieren können.

Wer also auf absolute Sicherheit bei der Antwort auf alle klimawissenschaftlichen Fragen warten wollte, könnte niemals etwas unternehmen. Üblicherweise handeln aber Menschen bereits bei gewissen Wahrscheinlichkeiten: Wer mit 95-prozentiger Sicherheit weiß, dass sich an Gefahrenstellen bei überhöhter Geschwindigkeit ein Autounfall ereignen wird (genauso sicher ist laut IPCC, dass der Mensch Hauptursache der globalen Erwärmung ist), der wird sich dort an das Tempolimit halten. Im übrigen ist es in der Politik alles andere als ungewöhnlich, Entscheidungen auf der Basis einer unsicherer Faktenlage zu treffen: Bei Haushaltsverhandlungen zum Beispiel stützen sich Politiker auf Steuerschätzungen, deren Verlässlichkeit weit entfernt ist von 95 Prozent.

 John Cook/klimafakten.de, Juli 2010;
zuletzt aktualisiert: Juni 2015