Natürliche Variabilität der Temperaturdaten

Abschätzung und Charakterisierung der natürlichen Variabilität der globalen mittleren Oberflächentemperaturen (GMST) und des AMO-Index, sowie Schluß­fol­ge­run­gen für diese Arbeit: Diese setzt darauf, von der un­vor­her­seh­ba­ren Variabilität zu abstrahieren, während der IPCC versucht, die vor­lie­gen­den GMST-Meßwerte durch komplexe Simulationen zu reproduzieren.

Das Ziel ist, eine physikalisch sinnvolle theoretische Funktion zu finden, die den Verlauf der von periodischen natürlichen Einflüssen und dem anthropogen verstärkten Treib­haus­gas-Effekt beeinflußten mittleren globalen Oberflächentemperaturen über Zeit und CO2-Konzentration bestmöglich beschreibt. Überlagert ist dieser Verlauf von zufälligen (unvorhersehbaren) Schwankungen, der natürlichen Variabilität.

Die Größe der natürlichen Variabilität von Temperaturdaten (GMST = global mean surface temperatures) und AMO-Index (wichtig für die den Temperaturdaten überlagerte Multidekaden-Oszillation) ist ein Maß dafür, mit welcher Genauigkeit theoretische Ansätze die Meßdaten bestenfalls reproduzieren können.

Als „natürliche Variabilität“ wird die mittlere Abweichung der Meßwerte von einer opti­ma­l geglätteten Temperaturkurve betrachtet. Als „optimal“ wird eine Glättung durch gleitende Mittel über ±n Punkte dann angesehen, wenn eine Mittelbildung über ±(n+1) Punkte die mittlere Abweichung σ der Meßwerte von der Glättung nicht weiter erhöht.

Abb. 1 | Mittlere globale Oberflächentemperaturen (GMST) und AMO-Index lassen sich optimal mit gleitenden Mitteln über ±7 Jahre glätten

Aus Abb. 1 geht hervor, daß eine Glättung mit gleitenden Mittelwerten über je 15 Jahre (d.h. Meßpunkt ±7 Jahre) optimal ist. Daraus folgt, daß die Anpassung einer theoretischen Funktion an den AMO-Index keine kleinere mittlere Abweichung als ±0,123 haben kann (vgl. Abb. 2), während eine Anpassung einer theoretischen Funktion an den GMST-Verlauf wenigstens ±0,096 °C mittlere Abweichung haben wird (siehe Abb. 3).

Abb. 2 | optimale Anpassung einer Sinus-Funktion an den AMO-Index
Interne Variabilität der AMO-Schwingung: ±0,123
Mittlere Abweichung der Sinus-Funktion von den AMO-Meßwerten: ±0,128

Die Abbildung des Verlaufs des AMO-Index mit einer Sinus-Funktion (Periode 68 Jahre, Nulldurchgang 1927 bei Phase φ=0; siehe Link) liegt mit einem mittleren Fehler von ±0,128 sehr dicht an der aus Abb. 1 hervorgehenden natürlichen Variabilität des AMO-Index von ±0,123, so daß die AMO als Sinus-Schwingung betrachtet werden kann.

Abb. 3 | optimale Anpassung einer theoretischen Funktion an die Temp.-Anomalien
Interne Variabilität der Temp.-Anomalien: ±0,096°C
Mittlere Abweichung der theoretischen Funktion von den GMST-Meßwerten: ±0,099°C
Vulkanausbrüche (blau) und El-Nino-Ereignisse (rot) führten zu Abkühlung bzw. Erwärmung im Vergleich zum 15-Jahres-Mittel

Auch der Verlauf der GMST-Meßwerte kann so gut durch eine theoretische Funktion angepaßt werden – siehe Regressionsanalyse -, daß die mittleren Abweichungen der Meßwerte von dieser Funktion der natürlichen Variabilität entsprechen, also keine Verbesserung mehr möglich ist.

Auf Seite 121 des IPCC-Reports 2013 wird konstatiert: „Die Prozesse, die das Klima beeinflussen, können eine beträchtliche natürliche Variabilität aufweisen. Selbst ohne äußeren Antrieb werden periodische und chaotische Veränderungen auf einer Vielzahl von räumlichen und zeitlichen Skalen beobachtet.

Diese natürliche Variablität ist laut IPCC dafür verantwortlich, die Unsicherheit von Projektionen in die Zukunft zu vergrößern. Auf Seite 140 wird als FAQ1.1 gefragt: „Wenn das Verständnis des Klimasystems zugenommen hat, warum konnte die Unschärfe (range) der Tempe­ratur­vorher­sagen nicht reduziert werden?“. Eine der Antworten, auf die am Ende dieses Textes noch einmal eingegangen wird, lautet:
„Unsicherheiten bei Klimaprojektionen ergeben sich aus der natürlichen Variabilität und der Ungewissheit über die Rate künftiger Emissionen und die Reaktion des Klimas auf diese Emissionen.“

„Klima“ ist ein Mittelwert von Meßgrößen über 30 Jahre, und man hat oben gesehen, daß schon eine Mittelung über je 15 Jahre zu einer ausreichenden Glättung führt, die die natürliche Variabilität praktisch verschwinden läßt und die vom IPCC auf S. 121 erwähnten natürlichen (langfristigen) periodischen Veränderungen deutlich sichtbar werden läßt – siehe Abbildungen 2 und 3.

Die auf (eher kurzfristigen) chaotischen Veränderungen basierende Zufallsvariable „natürliche Variabilität“ sollte entsprechend dem zentralen Grenzwertsatz der Statistik normalverteilt sein. Zur Überprüfung dient die Untersuchung der Abweichungen der Meßwerte in den Abbildungen 2 und 3 von der jeweils zugehörigen geglätteten bzw. theoretischen Kurve bzgl. der Frage, ob diese normalverteilt sind.

Abb. 4 | Wahrscheinlichkeitsdichte der natürlichen Variabilität des AMO-Index (blau und gelb) im Vergleich zu Normalverteilungen mit den bzgl. gleitendem Mittel (rot) bzw. theoretischer Funktion (grün) berechneten Standardabweichungen

Abb. 5 | Wahrscheinlichkeitsdichte der natürlichen Variabilität der Temp.-Anomalien (blau und gelb) im Vergleich zu Normalverteilungen mit den bzgl. gleitendem Mittel (rot) bzw. theoretischer Funktion (grün) berechneten Standardabweichungen

Die Abbildungen 4 und 5 zeigen graphisch, daß die natürliche (interne) Variabilität von AMO-Index und Temperatur-Anomalie normalverteilt sind. Dieses wird durch die Anwendung von statistischen Tests von Hemmerich, W. (2018) StatistikGuru: Normalverteilung online prüfen bestätigt – siehe Abbildungen 6 und 7.

Abb. 6 | Die Abweichungen der AMO-Index-Meßwerte von gleitenden Mitteln über je 15 Jahre sowie einer angepaßten Sinus-Funktion sind normalverteilt.
(Beim Anderson-Darling-Test wird die Normalverteilungsannahme abgelehnt, wenn p < 0,05 ist)

Abb. 7 | Die Abweichungen der Temp.-Anomalien (GMST-Meßwerte) von gleitenden Mitteln über je 15 Jahre sowie der angepaßten Funktion
GMST(t) = 0,02 + 0,10*sin(2π/68*(t-1927)) – 0,07*cos(2π/208*(t-1880)) + 2,5*ln(C/C0)
sind normalverteilt

Schlußfolgerungen

1. Abweichungen der Temperatur-Anomalien von bis zu ±0,2° vom 15-Jahres-Mittel sind „normal“

Da die Abweichungen vom gleitenden Mittel (bzw. einer passenden theoretischen Funktion) normalverteilt sind, liegen sie mit 68 % Wahrscheinlichkeit im Bereich ±σ und mit 95 % Wahrscheinlichkeit im Bereich ±2σ – so wie es die Abbildungen 4 und 5 zeigen. In seltenen Fällen (5 % Wahrscheinlichkeit) kann die Abweichung auch bis zu ±3σ groß sein. Abweichungen der GMST-Werte von bis zu ±0,2° vom 15-Jahres-Mittel bzw. einem theoretischen Temperaturverlauf sind also mit einer Wahrscheinlichkeit von 95 % im Bereich des „Normalen“.

Abb. 8 | Das mittlere Bild zeigt die normalverteilte natürliche Variabilit, die sich aus Abb. 3 ergibt. Die durch Vulkanismus verursachten abkühlenden Peaks wurden darin blau gestrichelt.
Im IPCC-Bild „Internal Variability“ (Quelle: IPCC-Report 2013 / Seite 393) fehlen die auf Vulkanismus beruhenden Peaks. Stattdessen hat der IPCC auf Seite 393 den Vulkanismus mit einem eigenen Bild „Volcanic Component“ als „natürlichen Einfluß“ dargestellt

2. Abkühlungen und Erwärmungen durch extreme Ereignisse wie große Vulkanausbrüche oder El Niño liegen im Bereich des „Normalen“

In Abb. 3 wurden große Vulkanausbrüche und El-Niño-Ereignisse markiert. Man erkennt, daß die durch diese Ereignisse verursachten Abweichungen der globalen mittleren Oberflächen-Temperaturen (GMST) von ihrem 15jährigen Mittelwert Teil der natürlichen Variabilität sind und das Klima (Mittelwert über 30 Jahre) oder auch das 15-Jahres-Mittel kaum beeinflussen (vorhandene Effekte werden herausgemittelt).
Der IPCC stellt hingegen den Vulkanismus als separaten abkühlenden „natürlichen Einfluß“ dar (neben einer „Solar Component“, die aus einem von 11-Jahres-Zyklen überlagerten 208-Jahre-Zyklus mit kleiner Amplitude besteht – siehe „IPCC-Aussagen zum Thema Solare Einflüsse“). In durch Simulation berechnete Zukunftsprognosen kann der Vulkanismus jedoch nicht eingehen, weil es sich um nicht vorhersehbare Zufallsereignisse handelt – eben um natürliche Variabilität.

3. Für die Beschreibung der historischen Daten sowie für Langfrist-Prognosen ist die natürliche Variabilität bedeutungslos: Es geht um den 30-Jahres-Mittelwert „Klima“ und nicht um den Temperatur-Mittelwert eines einzelnen Jahres.

Mit dem Wissen um die Normalverteilung der natürlichen Variabilität kann man sich auf die Identifikation und die Beschreibung der (natürlichen) periodischen und der (anthropogenen) systematischen Einflüsse auf die mittleren globalen Oberflächen-Temperaturen (GMST) beschränken. Bei der Betrachtung einzelner Jahre ist dann zu berücksichtigen, daß die tatsächlich festgestellte GMST unvorhersehbar um bis zu 0,2°C von der theoretisch berechneten Temperatur abweichen kann, selbst wenn die Theorie hundertprozentig stimmt.

4. Klima-Simulationen des IPCC gehen wie Wettersimulationen von Anfangsbedingungen aus und arbeiten sich Schritt für Schritt (Jahr für Jahr) in die Zukunft voran.

Simulationen sind nach Ansicht des IPCC der einzige Weg, vergangene oder zukünftige Klima-Entwicklungen abzubilden. Auf Seite 959 des IPCC-Reports 2013 erfährt man dazu: „Aufgrund der chaotischen und nichtlinearen Natur des Klimasystems führen kleine Unterschiede in den Anfangsbedingungen oder in der Formulierung des Vorhersagemodells zu unterschiedlichen Entwicklungen der zeitlichen Vorhersagen. Dies wird in Box 11.1, Figure 1, veranschaulicht, die ein Ensemble von Vorhersagen der globalen Jahresmitteltemperatur (die dünnen violetten Linien) zeigt, die 1998 begonnen wurden. Die einzelnen Vorhersagen gehen von leicht unterschiedlichen Ausgangsbedingungen aus, bei denen es sich um beobachtungsbasierte Schätzungen des Zustands des Klimasystems handelt.“

Gemittelt wird über die einzelnen Simulationen eines „Ensembles“; gleitende Mittel über 15 oder 30 Jahre, die langfristige Veränderungen sichtbar machen würden, sind jedoch kein Thema des IPCC. Im Gegenteil: Auf Seite 824 des IPCC-Reports liest man zum Thema „Evaluation von Modellen“, daß die gute Simulation von Variabilität ein Qualitätsmerkmal sei:
„Eine wichtige Überlegung ist, dass die Modell-Leistung nur relativ zu früheren Beobachtungen bewertet werden kann, wobei die natürliche interne Variabilität berücksichtigt werden muss. Um Vertrauen in die Zukunftsprojektionen solcher Modelle zu haben, müssen das historische Klima – und seine Variabilität und Veränderung – gut simuliert werden.“
Allerdings macht man auf diese Weise nur Aussagen über Jahresmitteltemperaturen – wie es auch korrekt im IPCC-Text zu Box 11.1, Figure 1 heißt – und nicht über das Klima, einen Mittelwert über 30 Jahre.

Abb. 9 | wie Abb. 3, jedoch reduziert auf die Jahre 1960 – 2020. Die Temperaturen sind wie beim IPCC-Bild auf den 1986-2005-Mittelwert bezogen.
Das gleitende Mittel zeigt die Abkühlung bis in die 1970er Jahre, die im IPCC-Bild nicht erkennbar ist.

Während das IPCC-Bild chaotische Zickzack-Kurven von Jahresmittelwerten mit der Tendenz „aufwärts“ zeigt, liefert die auf der Theorie dieser Arbeit basierende Abb. 9 aufgrund der Eliminierung der natürlichen Variabilität durch Glättung – einer geeigneten Abstraktion – eine Information über eine Klima-Entwicklung: Die mittleren globalen Temperaturen sind seit Ende der 1940er Jahre bis Anfang der 1970er Jahre leicht gefallen und erst danach deutlich angestiegen. Die Frage „Warum sind die Temperaturen bis ca. 1975 gefallen?“ ist nicht irrelevant für das Verständnis der Zusammenhänge; denn die kumulierten CO2-Emissionen stiegen in dieser Zeit von 200 Gt auf 500 Gt, und die atmosphärische CO2-Konzentration stieg von 310 ppm auf 330 ppm. Die Antwort heißt „AMO“ – siehe Abb. 2 – und paßt nicht so recht zum IPCC-Narrativ, daß die globale Erwärmung zwischen ca. 1975 und 2010 weit überwiegend anthropogen ist, denn ein Drittel der Erwärmung (0,2° von 0,6°) hat die AMO verursacht.

Der in Abb. 9 erkennbare Temperatur-Rückgang zwischen 1945 und 1975 wurde seinerzeit laut „Spiegel“ vom 12.08.1974 von Klimaforschern registriert und war Anlaß von Spekulationen über eine bevorstehende Eiszeit. Der Artikel „Katastrophe auf Raten“ begann mit den Worten:

Kommt eine neue Eiszeit? Nicht gleich, aber der verregnete Sommer in Nordeuropa, so befürchten die Klimaforscher, war nur ein Teil eines weltweiten Wetterumschwungs — ein Vorgeschmack auf kühlere und nassere Zeiten.

Fazit

In der oben bereits zitierten Antwort auf die FAQ-Frage „Wenn das Verständnis des Klimasystems zugenommen hat, warum konnte die Bandbreite (range) der Tempe­ratur­vorher­sagen nicht reduziert werden?“ (IPCC-Report 2013, Seite 140) werden vom IPCC drei Faktoren verantwortlich gemacht:

  1. Natürliche Variabilität
  2. Ungewißheit über die Rate zukünftiger CO2-Emissionen
  3. Fehlende Kenntnis der Transient Climate Response (TCR) auf die Emissionen

Zu Punkt 1

  • Die natürliche Variabilität ist normalverteilt mit σ = 0,1°C. Damit ist die Unschärfe von Prognosen bekannt und nur dann ein Problem, wenn statt Klima (Mittelwerten über 30 Jahre) Jahrestemperaturen berechnet werden: „Unsicherheiten bei Klimaprojektionen ergeben sich aus natürlicher Variabilität: Aufgrund der chaotischen Natur des Klimasystems gibt es grundsätzliche Grenzen, wie genau die Jahrestemperaturen projiziert werden können.“
  • Die hohe Bandbreite der Temperaturvorhersagen des IPCC hat in Wahrheit weniger mit der natürlichen Variabilität und stattdessen sehr viel mit der verwendeten Methode zu tun: Simulationen sind Anfangswert-Aufgaben, die ausgehend von einem Satz An­fangs­be­din­gun­gen ein „Ensemble“ von unterschiedlichen Vorhersagen berechnen, wobei zu berücksichtigen ist, was auf Seite 960 des IPCC-Reports 2013 beschrieben wird:
    „Aufgrund der chaotischen und nichtlinearen Natur des Klimasystems führen kleine Unterschiede in den Anfangsbedingungen oder in der Formulierung des Vorhersagemodells zu unterschiedlichen Entwicklungen der zeitlichen Vorhersagen“. Anschließend wird ein Mittel der Ensemble-Ergebnisse gebildet („Ensemble Mean“ – siehe Box 11.1, Figure 1 auf Seite 959 des IPCC-Reports) und gehofft, daß dieses in die „richtige“ Richtung geht. Jeder neue Schritt einer Anfangswertaufgabe basiert auf den vom letzten Schritt erzeugten Ergebnissen, die als neue Anfangswerte fungieren. Die Unsicherheits-Bandbreite kann auf diese Weise nur steigen (Fehlerfortpflanzung).
  • Letztlich wird die Komplexität der realen Welt nicht sinnvoll vereinfacht (Abstraktion durch Verzicht auf Unwesentliches), sondern ihr eine simulierte Komplexität ent­ge­gen­ge­stellt, deren Unschärfe mit der chaotischen Natur der Realität entschuldigt wird.

Zu Punkt 2

  • Man kann Szenarien für unterschiedliche Emissionsraten definieren und für diese rechnen (z.B. die RCP-Szenarien des IPCC) – wo also liegt das Problem?

Zu Punkt 3

  • Diese Arbeit schätzt die TCR ab: Es wird versucht, den GMST-Verlauf der letzten 170 Jahre durch einen Ansatz zu reproduzieren, der neben einem anthropogenen Anteil (proportional zu ln(C/C0) ) natürliche periodische Einflüsse berücksichtigt wie die AMO und solare Zyklen (siehe Regressionsanalyse). Ein solcher Ansatz ist gut, wenn er physikalisch sinnvoll ist, und vertrauenswürdig, wenn die mittlere Abweichung der Jahrestemperatur-Meßwerte zum Ansatz nicht größer ist als die Standardabweichung der normalverteilten natürlichen Variabilität.
    Diese Bedingungen sind notwendig, aber nicht hinreichend im Sinne eines Beweises der Richtigkeit und Vollständigkeit. Z.B. könnte es weitere solare Zyklen mit einer Periode von 500 oder 1000 Jahren geben, die mit Meßdaten über nur 170 Jahre nicht nachweisbar sind.