Hinweis
30.04.2020 Das Anfang 2019 gefundene Ergebnis, daß die mittleren globalen Oberflächen-Temperaturen sich aus dem anthropogenen Anteil 3,1*ln(C/C0) und der überlagerten AMO-Schwingung zusammensetzen, wurde mittlerweile erweitert: Zusätzlich zur AMO beeinflußt der solare deVries/Suess-Zyklus die Temperaturen. Dadurch vermindert sich der anthropogene Anteil auf 2,5*ln(C/C0) – siehe Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung
Zusammenfassung des Artikels vom 6. März 2019
Im 20. Jahrhundert wurde die mittlere globale Temperatur von einer Multidekaden-Oszillation (kurz: „MD-Oszillation“, Periode 68 +-2 Jahre, Amplitude 0,1 +-0,01°C, positiver Nulldurchgang 1927) überlagert, die bis Ende der 1990er Jahre wesentlich von der Atlantischen Multidekaden Oszillation (AMO) bestimmt war und danach von der PDO (Pazifische Dekaden-Oszillation) dominiert wurde. Die zur AMO synchrone MD-Oszillation kann sowohl durch gleitende Periodenmittel als auch durch Differenzbildung von Temperatur und MD-Oszillation herausgerechnet werden. Beide Methoden zeigen unabhängig voneinander, daß die mittlere globale Temperatur T eine logarithmische Funktion der atmosphärischen CO2-Konzentration ist:
T = S*ln(C/C0) mit S = 3,1 +-0,05 °C
Der Funktionsparameter S erhält mit 60 Jahre alten Daten gleiche Werte wie mit neueren Daten (maximal 5 % Abweichung), so daß eine Vorhersage der Temperatur T(2018) im Jahr 1960 den gleichen Wert erhalten hätte wie z.B. im Jahr 2000, nämlich 1,0 +-0,05 °C. Diese Stabilität ist ein starkes Argument für die Gültigkeit des gefundenen logarithmischen Zusammenhangs und seine Eignung für Extrapolationen.
Die Ableitung dm/dT der kumulierten CO2-Emissionen m nach der Temperatur hat nicht den konstanten Wert 1600 Gt/°, wie vom IPCC behauptet wird, sondern ergibt sich aus dem Quotienten von Konzentration C und Airborne Fraction AF:
dm/dT = 7,814/3,1 * C(m)/AF(m) Gt/°.
Die Ableitung dm/dT läßt sich durch eine Gerade der Form (m+b)/a approximieren. Durch Integration findet man eine nur von m abhängige Formel zur Beschreibung einer oberen Schranke der globalen Erwärmung T durch kumulative CO2-Emissionen, die an die Stelle des vom IPCC behaupteten Zusammenhangs T=m/1600 tritt:
T <= a * ln(1+m/b) mit a=2,585 und b=3387=1600/(exp(1/a)-1).
Nebenergebnisse der Untersuchungen:
- Die überlagerte MD-Oszillation schwingt um den 1850-1900-Mittelwert der Temperatur-Meßdaten, den man damit als „vorindustrielle“ Temperatur T0 ansehen kann.
- C0 = 295 ppm ist als eine sinnvolle „vorindustrielle“ CO2-Konzentration anzusehen, denn niedrigere Werte passen nicht zu den noch sehr niedrigen CO2-Emissionen des 18. und 19. Jahrhunderts.
- Das TCRE-Konzept des IPCC („Transient Climate Response to cumulative Emissions“), ist mit einem logarithmischen Zusammenhang von Temperatur und CO2-Konzentration nicht vereinbar, denn selbst wenn durch Rückkopplungseffekte höhere CO2-Konzentrationen entstehen würden als vom Bern-CC-Modell vorhergesagt, könnte das nicht zu einem linearen Wachstum der Temperatur als Funktion der kumulierten Emissionen führen.
Einleitung
Die Kurve der mittleren globalen Temperatur seit 1850 hat einerseits zufällige Schwankungen und ist andererseits offensichtlich von einer Schwingung mit einer Periode von ca. 70 Jahren überlagert, wie das Bild rechts zeigt, bei dem Temperaturen relativ zum 1850-1900-Mittelwert verwendet wurden. Zwischen 1880 und 1910 dürfte die CO2-bedingte globale Erwärmung noch sehr gering gewesen sein, so daß die Null-Linie des Bildes ungefähr der „vorindustriellen“ Temperatur T0 entsprechen sollte.
In IPCC-Publikationen, in denen Simulationen zukünftiger Entwicklungen im Vordergrund stehen, werden solche „Feinheiten“ bzgl. der Gegenwart nicht beachtet – siehe Abb. 2, publiziert auf Seite 59 des „Climate Change 2014 Synthesis Report“: Die Temperaturen wurden auf einen 1986-2005-Mittelwert bezogen, und die Temperaturkurve von 1900 bis 2005 hat allenfalls etwas mit dem groben Verlauf der gemessenen Temperaturen zu tun.
Auf Seite 297 des 1550-seitigen IPCC-Reports „Climate Change 2013 – The Physical Science Basis“ heißt es: „Since about 1750, the release of CO2 from industrial and agricultural activities has resulted in global average atmospheric CO2 concentrations that have increased from 278 to 390.5 ppm in 2011″.
Der Wert 278 ppm für 1750 ist erstaunlich, denn für das Jahr 1900 wurde über Eisbohrkernmessungen eine CO2-Konzentration von 296 ppm gemesen. Das sind 18 ppm mehr als 1750. Mit dem Umrechnungsfaktor 0,128 sind das 18/0,128 = 141 Gt mehr CO2-Masse in der Atmosphäre als 1750. Emittiert wurden zwischen 1750 und 1900 aber in Summe nur 45 Gt CO2. Wie kamen 100 Gt CO2 zusätzlich in die Atmosphäre?
Kann man ohne ein genaues Verständnis der Gegenwart in Form der vorhandenen Daten der letzten 170 Jahre – z.B. einer Antwort auf die Frage, woher die offensichtlichen Langzeitschwingungen der Temperaturmeßwerte kommen – und der Aufklärung der in den Daten enthaltenen Widersprüche Aussagen über die Zukunft machen?
Idee
Die Idee dieser Publikation ist es, durch Auswertung öffentlich zugänglicher Meßdaten bzgl. CO2-Emissionen, CO2-Konzentration, AMO- und PDO-Index und mittleren globalen Temperaturen die darin enthaltenen Gesetzmäßigkeiten zu erkennen, zu verstehen und entsprechend formelmäßig zu beschreiben, wie der Verlauf der mittleren globalen Temperatur seit 1850 als Überlagerung natürlicher und menschlicher Einwirkung zu erklären ist. Ein wesentlicher Aspekt ist dabei die Überprüfung, wie weit die Formeln, die einerseits die CO2-Konzentration aus CO2-Emissionen und andererseits die mittlere globale Temperatur aus der CO2-Konzentration bestimmen, über die Jahre hinweg stabil waren. „Stabil“ bedeutet dabei, daß die Formelparameter bei ihrer Berechnung mit nur in der Vergangenheit liegenden Meßdaten die gleichen Werte bekommen wie mit späteren oder allen vorhandenen Daten. Eine solche Stabilität erhöht das Vertrauen in die zeitlose Gültigkeit und damit die Extrapolations-Fähigkeit der verwendeten Formeln.
Vorausgesetzt wird die Selbstverständlichkeit, daß die Zukunft betreffende Zusammenhänge auch in der Gegenwart entsprechende Auswirkungen haben und daher anhand von Meßwerten der Gegenwart überprüfbar sind.
Bestimmung der vorindustriellen CO2-Konzentration
Die Kenntnis der vorindustriellen CO2-Konzentration C0 ist wichtig, weil sie den Bezugspunkt für die Berechnung von Veränderungen aufgrund anthropogener CO2-Emissionen darstellt.
Wenn die CO2-Konzentration um 1750 so niedrig war, wie sich aus den Eisbohrkern-Messungen ergibt, muß ihr Anwachsen bis in die zweite Hälfte des 19. Jahrhunderts andere Gründe gehabt haben als industrielle CO2-Emissionen – vgl. Etheridge et al. 1998: „Preindustrial CO2 mixing ratios were in the range 275-284 ppm, with the lower levels during 1550-1800 A.D., probably as a result of colder global climate“.
Sowohl durch Plausibilitätsbetrachtungen (siehe „Vorindustrielle CO2-Konzentration“) als auch durch Berechnung mit dem „Bern Carbon Cycle Modell“ ergibt sich, daß C0=295 ppm ein sinnvoller Wert ist.
Zusammenhang zwischen CO2-Emissionen und atmosphärischer CO2-Konzentration
Das „Bern Carbon Cycle Modell“ beschreibt den Abbau einer bestimmten CO2-Emission mit den Jahren (und den Jahrhunderten) mit Hilfe einer Summe mehrerer abfallender Exponentialfunktionen mit unterschiedlichen Zeitkonstanten. Pro Jahr kann damit berechnet werden, wieviel von der emittierten CO2-Masse in der Atmosphäre verbleibt. Durch Multiplikation der summierten verbliebenen CO2-Massen mit dem Umrechnungsfaktor 0,128 und der Addition von C0 ergibt sich die resultierende CO2-Konzentration eines bestimmten Jahres.
Mit den von Joos et al. Anfang 1996 publizierten Parametern kann man einerseits mit vorhandenen CO2-Konzentrations-Meßdaten C0 bestimmen und anschließend unter Voraussetzung bekannter bzw. in einem Szenario vorgegebener CO2-Emissionen die CO2-Konzentration zukünftiger Jahre berechnen:
Bei einer Berechnung von C0 mit Mauna-Loa-Meßdaten (siehe Link) von 1959 bis zum Jahr x und der anschließenden Bestimmung der Konzentration im Jahr 2018 unter Vorgabe der mittlerweile erfolgten jährlichen CO2-Emissionen erhält man zeitlich sehr stabile Ergebnisse, die maximal 2 ppm vom 2018 gemessenen Wert abweichen.
Fazit: Die CO2-Konzentration ist mit dem Bern Carbon Cycle Modell stabil und sehr genau vorhersagbar.
Multidekaden-Oszillation und Bestimmung der vorindustriellen Temperatur
Eine Verminderung der Meßwerte der mittleren globalen Temperatur (siehe Abb. 1) um die durch die steigenden CO2-Konzentrationen bedingten Anteile sollte den Verlauf der globalen Temperatur über der Zeit ohne den Einfluß dieser Temperaturerhöhungen zeigen.
Die Abb. 4, die auf Seite 63 des „Climate Change 2014 Synthesis Report“ publiziert wurde, zeigt die aktuelle lineare Temperatur-Kalibrierung des IPCC: Pro 1600 Gt kumulativen CO2-Emissionen ergibt sich 1°C Erwärmung. Daraus kann man 3 mögliche (durch Vereinfachungs-Schritte miteinander im Zusammenhang stehende) Formeln ableiten, die bei 1600 Gt kumulierter Emission bzw. 407 ppm CO2-Konzentration zu einer Temperaturerhöhung von 1°C führen:
(IPCC ) T(m) = m/1600 (°C)
(lin) T(C) = 2,62 * (C – C0)/C0 (°C)
(log) T(C) = 3,10 * ln(C/C0) (°C)
m = kumulierte Emissionen (Gt); C = atmosphärische CO2-Konzentration (ppm); die vorindustrielle CO2-Konzentration C0 wird als 295 ppm angesetzt.
Abb. 5 zeigt das Ergebnis der Subtraktion CO2-bedingter Erwärmung (in Form der drei theoretischen Ansätze) von den gemessenen mittleren globalen Temperaturen.
Das Ergebnis ist in jedem der 3 Fälle eine Multidekaden-Oszillation (kurz: MD-Oszillation) um die Null-Linie, am perfektesten beim logarithmischen Ansatz (log). Damit ist klar, daß es sich beim 1850-1900-Temperatur-Mittelwert exakt um die „vorindustrielle“ Temperatur T0 handelt.
Atlantische Multidekaden Oszillation (AMO)
Ein Vergleich der gefundenen MD-Oszillation mit der Atlantischen Multidekaden Oszillation (AMO) – siehe Wikipedia – zeigt mit NOAA-ESRL-Meßdaten eine hohe Synchronität:
In einer FAQ-Seite informiert die NOAA AOML Physical Oceanography Division über die AMO und bestätigt damit den in der Abbildung dargestellten Zusammenhang:
- Die AMO vermindert und erhöht je nach ihrer Phase die Anstiegsrate der anthropogenen globalen Erwärmung.
- Die AMO ist eine Klima-Oszillation, die in Baumringen und Eisbohrkernen der vergangenen 1000 Jahre beobachtet werden kann, und insofern mit hoher Wahrscheinlichkeit nicht durch menschliche Einwirkung verursacht wurde.
Der größere Einfluß der PDO seit ca. 1995 wurde 2015 in einer Publikation von Steinman et al. beschrieben: „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“ – siehe Kapitel Multidekaden-Oszillation. Seit etwa 2005 wirkt die PDO verstärkt gegen die AMO und vermindert deren Temperaturerhöhungseffekte – möglicherweise ein Grund für die Erwärmungspause bis ca. 2014.
Herausrechnen der MD-Oszillation aus den Temperaturmeßdaten durch gleitende Mittelwerte über je eine Periode
Nach dem Herausrechnen der überlagerten MD-Oszillation sollten die Temperaturmeßdaten ausschließlich eine Funktion der CO2-Emissionen bzw. -Konzentrationen sein, so daß die Möglichkeit besteht, den Charakter der funktionalen Abhängigkeit zu ermitteln.
Die roten Kurven in Abb. 5 sind durch Mittelwertbildung über je eine Periode von 68 Jahren entstanden. Das zeigt, daß eine solche Mittelwertbildung nicht nur die Schwingung, sondern auch die zufälligen Schwankungen weitgehend eliminiert, wobei über die Schwingung nur vorausgesetzt wird, daß sie gleichmäßig ist. Wenn man nun aus den zu prüfenden Zusammenhängen (IPCC), (lin) und (log) (s.o.) ebenfalls Kurven gleitender Mittel über 68 Jahre erzeugt und alle Kurven graphisch darstellt, ergibt sich folgendes Bild (Abb. 7):
Im Unterschied zum logarithmischen Ansatz (log) liegen die Kurven (lin) und (IPCC) der beiden linearen Ansätze abseits der Kurve der Meßwerte.
Die rote Kurve der gleitenden Mittel über P = 68 Meßwerte liegt zwischen 1927 und 1973 (d.h. unter Einbeziehung von Meßwerten zwischen 1893 und 2006 fast exakt auf der grünen logarithmischen Kurve T=S*ln(C/C0) mit S=3,10. Die Abweichungen nach 1973 erklären sich durch den wachsenden Einfluß der Pazifischen Dekaden-Oszillation (PDO) seit Anfang der 2000er Jahre, und die Temperaturen vor 1890 waren praktisch noch nicht anthropogen beeinflußt, so daß dieser Kurvenbereich für das Thema „globale Erwärmung“ ohne Bedeutung ist.
Eine Variation der beiden Parameter S und P (siehe Link) zeigt, daß S = 3,10 °C und P = 68 Jahre auf dem Wertebereich 1930 – 1973 zu einer minimalen mittleren Abweichung (+- 0,004 °C) der Periodenmittelwerte von Meßwerten und logarithmischem Ansatz führen.
Da alle 3 Ansätze die allgemeine Form T(j) = S * f(j) haben, gilt
Σ T(j) = S * Σ f(j) (Summierung über je eine Periode von 68 Jahren)
Man kann also die Steigungen der 3 untersuchten Ansätze direkt als Quotient der Mittelwerte über je eine Periode berechnen, wie Abb. 8 zeigt:
Für den logarithmischen Ansatz ergeben sich für die Jahre 1927 bis 1973 (d.h. mit Meßdaten von 1893 bis 2006) Werte für die Steigung S zwischen 2,9 und 3,2 °C und für die Jahre 1955 – 1973: S = 3,1 +- 0,05 °C. Mit diesen Steigungswerten werden für 2018 Temperaturen von 1,0 +- 0,05 °C vorhergesagt. Diese Vorhersagen sind für den gesamten Zeitraum stabil – auch mit den Periodenmitteln um 1930 (berechnet aus Werten zwischen 1896 und 1963) wären für 2018 Temperaturen zwischen 0,97 und 1,02 °C ermittelt worden.
Die beiden linearen Ansätze liefern durchweg zu hohe Steigungen und Temperatur-Vorhersagen. Ihre Steigungen (und ihre Vorhersagen) sinken tendenziell mit den Jahren. Die roten Kurven zeigen, daß die Steigungen sogar exakt in dem Maße sinken, wie sie es tun würden, wenn die Temperaturen streng dem Zusammenhang T = 3,1 * ln(C/C0) folgten.
Fazit: Nur der logarithmische Ansatz T = 3,1 * ln(C/C0) bildet die Meßdaten perfekt ab und erlaubt stabile und korrekte Temperaturvorhersagen über Jahrzehnte hinweg.
Ergebnis
Abb. 9 zeigt das gefundene Ergebnis: Die Meßwerte der mittleren globalen Temperatur folgen dem logarithmischen Zusammenhang T = 3,1 * ln(C/C0), der bis mindestens 1995 von einer gleichmäßigen Multidekaden-Oszillation überlagert war.
Ab 1996 wird für die theoretische Darstellung des Temperaturverlaufs (gelb) nur der logarithmische Zusammenhang verwendet, wobei klar ist, daß in der Zukunft AMO und PDO weiterhin zu Abweichungen der Temperatur-Meßwerte um +- 0,1 °C von der formelmäßigen Beschreibung der globalen Erwärmung führen werden.
Extrapolation
Extrapolationen in die Zukunft benötigen theoretisch nachvollziehbare Formeln, die die Gegenwart genau beschreiben und durch die Stabilität ihrer Parameter (gegenüber unterschiedlichen zeitlichen Wertebereichen zu ihrer Herleitung) Vertrauen erwecken, extrapolationsfähig zu sein. Als Eingabedaten benötigt man Szenarien, aus denen zu befürchtende, zu erwartende oder anzustrebende CO2-Emissionen hervorgehen.
Mit Hilfe der stabilen, an die vorhandenen Meßdaten angepaßten Ansätze zur Berechnung von CO2-Konzentrationen (Bern-CC-Modell) und Temperaturen (logarithmischer Ansatz) soll für ein „Weiter wie bisher“-Szenario berechnet werden, welche CO2-Konzentrationen und welche Temperaturen zu erwarten sind.
Seit ca. 1970 liegt die globale Pro-Kopf-CO2-Emission bei 4 bis 5 t/Jahr (siehe Link), und alle 12 Jahre kommen 1 Milliarde Menschen zur Weltbevölkerung hinzu (siehe Link). Ein hier definiertes Szenario „9.0“ unterstellt, daß dies bis 2100 unverändert so weiter geht – siehe Abb. 10.
Mit Hilfe des gefundenen logarithmischen Zusammenhangs zwischen CO2-Konzentration und Temperatur können den prognostizierten Konzentrationen Temperaturen zugeordnet werden – siehe Abb. 11.
Die Multidekaden-Oszillation wurde der blauen Kurve in Abb. 11 nur bis zum Jahr 1995 überlagert, weil unklar ist, wie AMO und PMO in der Zukunft die mittleren globalen Temperaturen beeinflussen werden. Die tatsächlichen Temperaturen können also in der Zukunft um +-0,1 °C von der gezeichneten Kurve abweichen.
Berechnung von dm/dT (IPCC: dm/dT = 1600 Gt/°)
Rechts in Abb. 11 wurde der Temperaturverlauf entsprechend der IPCC-Darstellung (siehe Abb. 4) über kumulierten CO2-Emissionen m aufgetragen und der IPCC-Ansatz mit seiner Steigung dT/dm = 1° pro 1600 Gt ebenfalls eingezeichnet (gelbe Gerade).
An der Abszisse m=1600 Gt hat die logarithmische Kurve, die ja die bisherige globale Erwärmung exakt beschreibt, bereits eine deutlich kleinere Steigung von 1/2000 °/Gt (siehe Abb. 12).
Im Kapitel „dm/dT konstant ?“ wird gezeigt, daß der Steigungs-Kehrwert dm/dT aus CO2-Konzentration C und Airborne Fraction AF berechenbar ist:
dm/dT = 2,52 * C / AF
dm/dT ist keine Konstante, wie Abb. 12 zeigt, und hat den Wert 1600 Gt/° bereits bei m=750 Gt (ca. 1990) überschritten. Der IPCC-Ansatz kann also nicht stimmen.
Abschätzung der globalen Erwärmung T nur aus den kumulierten CO2-Emissionen
Im Kapitel „dm/dT linear steigend“ wird für verschiedene Szenarien untersucht, wie sich die Konzentration C und die Airborne Fraction AF mit steigenden Emissionen verändern. C steigt in erster Näherung linear mit m, und AF fällt tendenziell linear mit m; dm/dT ist also näherungsweise ein Quotient aus zwei Geraden, der aber seinerseits durch die Gerade
dm/dT=(m+3387)/2,585 (siehe Abb. 12) nach unten abgeschätzt werden kann.
Durch Integration ergibt sich, daß die Formel T = 2,585 * ln(1+m/3387) die Tendenz der globalen Erwärmung T als Funktion der kumulierten CO2-Emissionen m gut nach oben abschätzt – siehe Abb. 13.
Diskussion der Differenz zur IPCC-Temperatur-Vorhersage
Für das Szenario 9.0 geht aus Abb. 11 eine Temperaturerhöhung von 2,5 °C im Jahr 2100 hervor, während der IPCC-Ansatz auf 3,75 °C = 6000/1600 kommen würde.
Der IPCC-Ansatz wurde 2009 von Matthew et al. im Artikel „The proportionality of global warming to cumulative carbon emissions“ beschrieben, in dem aus „Climate–carbon modelling experiments“ der in Abb. 14 schematisch dargestellte Ansatz hergeleitet wird (siehe CCR bzw. TCRE):
Simulationen, die hier als „Experimente“ bezeichnet werden, haben also laut Matthew gezeigt, daß Rückkopplungseffekte („carbon cycle feedbacks“) – z.B. geringere Absorptionsfähigkeit der Ozeane durch Sättigungseffekte – zu höheren CO2-Konzentrationen führen könnten, als sie vom Bern Carbon Cycle Modell beschrieben werden.
Wenn man als gegeben voraussetzt, daß je 1600 Gt kumulierte CO2-Emissionen zu 1°C Temperaturerhöhung führen und die Temperatur in einem logarithmischen Zusammenhang mit der CO2-Konzentration steht, müßten exponentiell mit der kumulierten Emission m anwachsende CO2-Konzentrationen ausgleichen, daß ln(C/C0) eine Funktion mit immer weiter abfallender Steigung ist. Unter diesen Voraussetzungen kann man berechnen, welche CO2-Konzentration zu einer bestimmten Temperatur gehört:
(1) C = C0 * exp(T/3,1) = C0 * exp(m/1600/3,1) = C0 * exp(m/4960)
Abb. 15 zeigt, daß eine exponentiell anwachsende CO2-Konzentration zu ebenfalls exponentiell wachsenden Airborne Fractions führt (Berechnung: siehe Link).
Man sieht, daß die exponentiell wachsenden Airborne Fractions (rot und blau) nichts mit den aus Meßdaten bzw. dem Bern-CC-Modell ermittelten Airborne Fractions zu tun haben: Die Vergangenheit (bis m=1620 Gt) wird nicht abgebildet, und selbst in der nahen Zukunft – z.B. m=2000 Gt – liegt die rote Kurve weit über der grünen (Airborne Fraction) und die blaue über der gelben (kumulative Airborne Fraction), obwohl es kaum vorstellbar ist, daß das bei m = 1600 Gt noch absolut exakte Bern-CC-Modell schon so wenig später in so krasser Form nicht mehr gelten soll.
Bei m=3800 Gt erreicht die Airborne Fraction, die eine lineare Temperaturerhöhung über der kumulierten CO2-Emission m sicherstellt, die 100 % – Linie, was bedeutet, daß alles neu emittierte CO2 komplett in der Atmosphäre verbleibt. Mehr als 100 % können nicht in die Atmosphäre gehen; also muß die rote Kurve ihr starkes Wachstum beenden und auf der 100 % – Linie bleiben. Die blaue Kurve der kumulierten Airborne Fraction muß entsprechend ihren vorherigen Trend verlassen (der ebenfalls die 100 % – Linie geschnitten hätte) und sich einer Sättigung annähern.
Die Folge davon, daß die Airborne Fraction nicht exponentiell über 100 % anwachsen kann, ist eine entsprechend von der Linearität abweichende Temperaturkurve:
Die rote Kurve in Abb. 16 ist die Folge der bei 100 % abgeschnittenen roten Airborne-Fraction-Kurve in Abb. 15. Wenn man annimmt, daß 100 % Airborne Fraction kaum vorstellbar sind, und die Airborne Fraction auf 70 % begrenzen würde, wäre die gelbe Kurve das Resultat. Die blaue Kurve zeigt den Temperaturverlauf, wenn man die CO2-Konzentrationen mit dem Bern-CC-Modell berechnet und daraus die Temperaturen mit dem logarithmischen Ansatz bestimmt.
Fazit: Auch wenn „Carbon Cycle Feedbacks“ zu höheren CO2-Konzentrationen führen sollten als mit dem Bern-CC-Modell berechnet wird, würden die Temperaturen bei Gültigkeit eines logarithmischen Zusammenhangs von Temperatur und CO2-Konzentration letztlich immer diesem logarithmischen Zusammenhang folgen. Die Richtigkeit der IPCC-Formel T = m/1600 ist daher in der Gegenwart nicht gegeben (siehe oben) und auch für die Zukunft sehr unwahrscheinlich.
Schlußfolgerungen
Es wurde versucht, aus in der Gegenwart vorhandenen Daten Gesetzmäßigkeiten herzuleiten, die die existierenden Zusammenhänge exakt und mit Parametern beschreiben, die während der vergangenen 60 Jahre gültig waren. Die bisherige globale Erwärmung läßt sich mit dem logarithmischen Zusammenhang T = 3,1 * ln(C/C0) beschreiben, und die dafür benötigten CO2-Konzentrationen sind als Resultate des Bern Carbon Cycle Modells berechenbar. Die gemessenen mittleren globalen Oberflächen-Temperaturen ergeben sich durch eine Überlagerung der globalen Erwärmung durch eine von AMO und PDO beeinflußte Multidekaden-Oszillation.
Die Abschätzung T <= 2,585 * ln(1+m/3387) erlaubt es, direkt aus den kumulativen CO2-Emissionen eine obere Schranke für die resultierende globale Erwärmung zu ermitteln.
Das Ergebnis, am Ende des Jahrhunderts mit einer knapp über 2° C liegenden Temperaturerhöhung rechnen zu müssen, bedeutet trotz des vergleichsweise niedrigen Werts, daß man nicht weiter machen sollte wie bisher – aber es besteht kein Grund zu Alarmismus und unüberlegtem Aktionismus.
„Klimaschutz“-Maßnahmen (wie der teure Verzicht auf CO2-Emissionen bei Energie-Gewinnung, Heizung, Verkehr usw.) haben eine ähnliche Problematik wie (einseitige) Abrüstung: Wenn nicht alle mitmachen, schwächt sich derjenige, der in Vorleistung tritt, stärkt damit andere, und für die Welt ist nichts gewonnen. Im Unterschied zum Abrüstungs-Dilemma gibt es jedoch eine Alternative: Verzicht auf CO2-Emissionen nicht als planwirtschaftlich durchgesetzte (Zwangs-)Maßnahme für einzelne Länder – was nichts bringt, weil fossile Energien dadurch für die Länder, die nicht mitmachen, kostengünstiger und noch attraktiver würden -, sondern als Folge einer Verdrängung vom Markt durch die Entwicklung billigerer und emissionsfreier Energiegewinnungsverfahren. Der Einsatz finanzieller Mittel für solche Entwicklungen wäre weitaus sinnvoller als die Finanzierung letztlich wirkungslosen und schädlichen Verzichts.