Gibt es wirklich einen Klimawandel?

Behauptung: „Die Temperaturdaten sind nicht verlässlich“

Behauptung: Die Messreihen zur Erdtemperatur, auf deren Basis der Klimawandel diagnostiziert wurde, sind durch menschliche Einflüsse verzerrt. Viele US-amerikanische Wetterstationen beispielsweise stehen in unmittelbarer Nähe zu Abluftventilatoren von Klimaanlagen, asphaltierten Parkplätzen, glühend heißen Dächern sowie Gehwegen und Gebäuden, die Wärme absorbieren und abstrahlen.

Fakt ist: Der Trend der Erderwärmung kann mit unzähligen Daten von Wetterstationen und anderen Quellen belegt werden

Antwort: 

Die Wissenschaft unternimmt große Anstrengungen, um verlässliche Klimadaten zu ermitteln. Weil direkte Messungen, etwa mit Thermometern, nur gut hundert Jahre zurückreichen, greift sie dabei auf viele andere Quellen zurück, etwa auf Rekonstruktionen anhand von Baumringen oder Eisbohrkernen. Abgesehen von kleineren Unterschieden ergibt eine Vielzahl voneinander unabhängigen Studien übereinstimmend: Die Erde erwärmt sich. Der Einfluss lokaler Faktoren auf Wetterstationen, der von Kritikern oft hervorgehoben wird, wird von der Forschung berücksichtigt und hat sich als vernachlässigbar erwiesen.

Unter Wissenschaftlern besteht Konsens, dass bessere Temperaturdaten ein wichtiges Ziel sind – insofern sind die Bemühungen von Kritikern lobenswert, dieser Frage Öffentlichkeit zu verschaffen. Dennoch ist die Annahme falsch, verbesserte Temperaturerhebungen würden die Tendenz der globalen Erwärmung widerlegen oder stark relativieren.

Von Kritikern der Klimawissenschaft wird gern ausgeblendet, dass es für die Aussagen zur Erdtemperatur eine große Zahl voneinander unabhängiger Messungen und Datenanalysen von vielen Forscherteams überall auf der Welt gibt. Sie alle zeigen denselben Trend: Dass sich die Erde seit einigen Jahrzehnten signifikant erwärmt. Wer diesen Fakt bestreiten will, müsste nachweisen, dass alle diese Daten fehlerhaft sind.

Die Vielzahl verschiedener Daten hat der IPCC in seinem Fünften Sachstandsbericht in einer Grafik zusammengestellt (WG1, Kapitel 2, Box FAQ 2.1; S. 199 in diesem pdf-Download) – Abbildung 1 ist ein Ausschnitt daraus:

Abbildung 1: Verschiedenste Datenreihen zum weltweiten Klima zeigen unabhängig voneinander einen Erwärmungstrend – Temperatur an der Erdoberfläche (links oben, vier Datensätze), Satellitenmessungen der unteren Erdatmosphäre (rechts oben, sieben Datensätze), Temperatur an der Meeresoberfläche (links unten, fünf Datensätze) und in den Ozeanen (0-700m Tiefe, rechts unten, fünf Datensätze); Quelle: IPCC 2013, AR5, WG1, Kap.2 Box FAQ 2.1, Abb.2 (Ausschnitt)

Neben diesen direkten Beobachtungsdaten gibt es auch eine ganze Reihe von Belegen für die Erderwärmung, die auf indirekt gewonnenen Daten basieren. So sind seit den 1970er Jahren hunderte Studien erschienen, die sogenannte Klima-Proxies auswerten. Unter einem „Proxy“ (engl. für „Stellvertreter“) versteht man in der Klimaforschung natürliche Temperaturarchive, etwa Baumringe, Korallen, Seesedimente oder Eisbohrkerne. An ihnen lässt sich das Klima der Vergangenheit ablesen, die wohl bekannteste Arbeit ist die sogenannte „Hockeyschläger-Kurve“ eines Teams um den  US-Forscher Michael Mann. Diese und viele andere Untersuchungen zeigen übereinstimmend, dass die Erde zum Ende des 20. Jahrhunderts so warm war wie seit mindestens 800 Jahren nicht mehr. Eine der aufwändigsten Untersuchungen veröffentlichte im Jahr 2013 das Forschungskonsortium „PAGES 2k“. Sie kam zu dem Ergebnis, dass die Erderwärmung der vergangenen rund hundert Jahre einen vorherigen, langanhaltenden Abkühlungstrend beendet hat und es sogar seit 1400 Jahren (weltweit betrachtet) keine so hohen Temperaturen gab wie gegenwärtig.

Ein weiterer Beweisstrang sind sogenannte „Re-Analysen“. Dabei werden historische Messdaten nicht nur für Temperaturen, sondern auch für Parameter wie Luftdruck, Ozeantemperaturen oder Ausdehnung des Meereises zusammengetragen und in computerbasierte Klima- oder Wettermodellen eingespeist. Diese füllen dann zeitliche oder räumliche Lücken in den Messreihen, indem sie die Beobachtungen als Anfangszustand nutzen und einen konsistenten Satz an Vorhersagedaten produzieren. Re-Analysen sind also immer abhängig von den benutzten Beobachtungen und Modellsystemen, und stellen eine praktische, da homogenisierte Näherung an den wirklichen Klima- und Wetterverlauf dar. Bei diesen Re-Analysen fallen auch Fehler in einzelnen Messungen auf, weil sie aus dem insgesamt konsistenten Bild herausfallen. Auf diese Weise ermittelte etwa Compo et al. 2013 eine Temperaturkurve für das 20. Jahrhundert – und es zeigte sich, dass sie weitgehend deckungsgleich ist mit den oben erwähnten direkten Temperaturdatenreihen (Abbildung 2).  

Abbildung 2: Entwicklung der Temperaturanomalie in zwei Metern Höhe über dem Boden seit 1900, Durchschnitt für nahezu die gesamte Erdoberfläche  (90°N–60°S). Die rote Kurve zeigt die Datenreihe der britischen CRU, die schwarze Kurve den Durchschnitt fünf weiterer direkter Messreihen, blau dargestellt ist das Ergebnis der Re-Analyse (die gelbe bzw. blaue Flächen sind die jeweiligen Unsicherheitsmargen); Quelle: Compo et al. 2013

Auch andere Re-Analyse-Studien erbrachten ähnliche Resultate, etwa Anderson et al. 2012, bei der auf Basis von 173 indirekten Datenquellen ein historischer Temperaturverlauf rekonstruiert wurde, der die direkten Temperaturmessungen bestätigte.

Justierung von Temperaturdaten zum Ausgleich lokaler Effekte

Trotz allem behaupten Kritiker der Klimawissenschaft häufig, die Temperaturdaten zur Erderwärmung würden durch die ungünstige Lage von Wetterstationen verfälscht, die Wärme von Städten etwa treibe die Messdaten künstlich nach oben. Dabei wird aber außer Acht gelassen, dass diese Möglichkeit den Klimaforschern sehr bewusst ist und sie größte Sorgfalt bei der Erhebung von Temperaturdaten walten lassen. Beispielsweise werden langfristige Trends in Städten mit jenen der ländlichen Umgebung verglichen – und anschließend die städtischen an die ländlichen Entwicklungen angepasst.

Diese Überprüfungs- und Bearbeitungsverfahren sind beispielsweise in Hansen et al. 2001 ausführlich erläutert. In dieser Studie zu US-Wetterdaten, verfasst von Experten der NASA und NOAA, ergab sich übrigens, dass die künstliche Erwärmung in Städten relativ gering war und in die übliche Schwankungsbreite der Daten fiel. Überraschenderweise zeigten 42 Prozent der Städte sogar niedrigere Temperaturen als ihre ländliche Umgebung, da städtische Wetterstationen oft an kühlen Orten aufgestellt werden, z. B. in Parks. Entscheidend ist, dass der Forschung mögliche Fehlerquellen wie der Effekt Städtischer Wärmeinseln bewusst ist und dass diese bei der Analyse von Temperaturaufzeichnungen angemessen berücksichtigt werden.

Im Lichte der gesamten Forschungsergebnisse kam der Fünfte Sachstandsbericht des IPCC zu einer unmissverständlichen Bewertung (SPM, WG1; S. 2 in diesem pdf-Download):

„Beobachtungen des Klimasystems basieren auf direkten Messungen, Fernerkundung durch Satelliten u.ä. Für die Temperatur und andere Variablen liegen auf globaler Ebene seit Mitte des 19. Jahrhunderts Instrumentendaten vor, seit 1950 in großer Zahl und Vielfalt. Paläoklimatische Studien erweitern den Datenfundus Hunderte Millionen von Jahren zurück in die Erdgeschichte. Zusammengenommen geben sie ein umfassendes Bild der Variabilität und Langzeit-Änderungen in der Atmosphäre, den Ozeanen, bei den Eismassen und an der Erdoberfläche. Die Erwärmung des Klimasystems ist eindeutig, und viele dieser seit den 1950er Jahren beobachteten Veränderungen sind seit Jahrzehnten bis Jahrtausenden nie aufgetreten. Die Atmosphäre und der Ozean haben sich erwärmt, die Schnee- und Eismengen sind zurückgegangen, der Meeresspiegel ist angestiegen und die Konzentrationen der Treibhausgase haben zugenommen.  Jedes der letzten drei Jahrzehnte war an der Erdoberfläche sukzessive wärmer als alle vorangehenden Jahrzehnte seit 1850. In der Nordhemisphäre war 1983–2012 wahrscheinlich die wärmste 30-Jahr-Periode der letzten 1400 Jahre.“

John Cook/klimafakten.de, November 2011;
zuletzt aktualisiert: Dezember 2014