Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Die Berücksichtigung eines solaren Zyklus, der die mittleren globalen Oberflächen-Temperaturen neben der AMO beeinflußt, führt zu einer sehr guten Reproduktion des bisherigen Temperaturverlaufs mit einer TCR von 1,73°C

Ausgangspunkt der Suche nach einem erweiterten Ansatz ist die Untersuchung der natürlichen Variabilität der mittleren globalen Oberflächen-Temperaturen (GMST), die ein Maß dafür darstellt, wie genau eine formelmäßige Reproduktion der GMST-Daten bestenfalls sein kann: Die natürliche Variabilität der GMST-Daten ist normalverteilt mit einer Standardabweichung σ = ±0,096 °C.

Der Umgang mit der natürlichen Variabilität stellt den entscheidenden Unterschied des Ansatzes dieser Arbeit im Vergleich zum IPCC-Ansatz dar:

  • Die Abstraktion von der natürlichen Variabilität ist die Definition von „Klima“, denn die Variabilität verschwindet weitgehend bei einer Mittelung über 15 oder 30 Jahre. Es wird versucht, den GMST-Verlauf der letzten 170 Jahre durch einen Ansatz zu reproduzieren, der neben einem anthropogenen Anteil (proportional zu ln(C/C0) ) natürliche periodische Einflüsse berücksichtigt wie die AMO und solare Zyklen (siehe Regressionsanalyse). Ein solcher Ansatz ist gut, wenn er physikalisch sinnvoll ist, und vertrauenswürdig, wenn die mittlere Abweichung der Jahrestemperatur-Meßwerte zum Ansatz nicht größer ist als die Standardabweichung der normalverteilten natürlichen Variabilität.
  • Der IPCC setzt für die Reproduktion historischer oder zukünftiger Temperaturen ausschließlich auf Simulationen. Damit wird die Komplexität der realen Welt nicht sinnvoll vereinfacht (Abstraktion durch Verzicht auf Unwesentliches), sondern ihr eine simulierte – nur mit Supercomputern beherrschbare und von Dritten nicht durch­schau­bare – Komplexität ent­ge­gen­ge­stellt, deren Unschärfe mit der chaotischen Natur der Realität entschuldigt wird: „Unsicherheiten bei Klimaprojektionen ergeben sich aus natürlicher Variabilität: Aufgrund der chaotischen Natur des Klimasystems gibt es grundsätzliche Grenzen, wie genau die Jahrestemperaturen projiziert werden können.“
    Diese Antwort auf die FAQ-Frage 1.1 auf S. 140 im IPCC-Report 2013): „Wenn das Verständnis des Klimasystems zugenommen hat, warum konnte die Unschärfe der Tempe­ratur­vorher­sagen nicht reduziert werden?“ führt zu der neuen Frage: „Sollte nicht eigentlich das Klima projiziert werden – und nicht Jahrestemperaturen?“
    Der IPCC hält die Reproduktion natürlicher Variabilität sogar für ein Qua­li­täts­kri­te­rium (siehe S. 824 des IPCC-Reports zum Thema „Evaluation von Modellen“):
    „Eine wichtige Überlegung ist, daß die Modell-Leistung nur relativ zu früheren Beobachtungen bewertet werden kann, wobei die natürliche interne Variabilität berücksichtigt werden muss. Um Vertrauen in die Zukunftsprojektionen solcher Modelle zu haben, müssen das historische Klima – und seine Variabilität und Veränderung – gut simuliert werden.“

Ansatz 2019

Abb. 1 | Zwischen 1930 und 1975 verläuft das Periodenmittel über die Temp-Differenz und 3,1*ln(C/C0) praktisch auf der Null-Linie – davor und danach aber nicht!
Das gleitende Mittel durch die Differenz-Kurve folgt bis ca. 1970 der AMO, weist aber immer kleinere Amplituden auf.

Die Grundidee, natürliche periodische Klimaeinflüsse zu identifizieren, besteht darin, Differenzen von Meßwerten der mittleren globalen Ober­flä­chen-Tem­pe­ra­tu­ren mit Hypothesen vom Verlauf der anthropogenen Erwärmung zu bilden und zu untersuchen. Die 2019 hier publizierte Theorie ging von der Annahme aus, daß der IPCC mit seiner Zuschreibung recht hat, die Klima-Erwärmung um 1°C nach der Emission von 1600 Gt CO2 sei komplett anthropogen. Daraus folgte der loga­rith­mi­sche Ansatz T = 3,1*ln(C/C0).

Abb. 1 zeigt diesen Ansatz. In der ge­glät­te­ten Differenzkurve erkennt man deutlich die überlagerte AMO. Es ist jedoch er­staun­lich, daß diese gegen Ende des 20. Jahrhunderts mit immer kleineren Am­pli­tu­den in Erscheinung tritt, denn die AMO schwingt ganz gleichmäßig (siehe AMO-Index). Eine Publikation von Steinman et al. (2015) erklärte den zurückgehenden Anteil der AMO mit der in einer negativen Phase befindlichen PDO.

Gleitende Mittel über die AMO-Periode von 68 Jahren eliminieren die AMO-Effekte in der Differenzkurve. Wenn dadurch eine Null-Linie entsteht, kann auf Identität zwischen Differenzkurve und AMO geschlossen werden. Die rote Kurve in Abb. 1 verläuft fast auf der Null-Linie (aus heutiger Sicht: jedoch weder vor 1930 noch nach 1975). Das Ignorieren der Abweichungen von der Null-Linie führte 2019 zu der Schlußfolgerung, die mittleren globalen Oberflächentemperaturen seien eine Überlagerung der AMO mit 3,1*ln(C/C0) – zumindest bis Ende des 20. Jahrhunderts. Die mittlere Abweichung der Meßwerte von diesem theoretischen Ansatz lag bei ±0,12°C, also deutlich über der Standardabweichung der natürlichen Variabilität (s.o.).

Verbesserter Ansatz 2020

Die mittlere Abweichung einer guten Theorie sollte der Standardabweichung σ=±0,096°C der normalverteilten natürlichen Variabilität nahe kommen; in diesem Sinne war der Ansatz von 2019 nicht vollständig und daher verbesserungsfähig.

Abb. 2 | Der Ansatz T = 2,5*ln(C/C0) führt dazu, daß das gleitende Mittel der Differenzkurve synchron zur AMO mit gleichbleibender Amplitude schwingt.
Das gleitende Mittel über die AMO-Periode über 68 Jahre hat einen glatten Verlauf exakt auf einem deVries/Suess-Zyklus mit einem Minimum 1880, einer Periode von 208 Jahren und einer Amplitude von 0,07°C

In „Temperatur-Kalibrierung (IPCC 2013)“ wird her­ge­lei­tet, daß der IPCC-Ansatz T = m/1600 bis ca. 1970 mit dem Ansatz T = 2,5*ln(C/C0) nahezu identisch ist, weil für kleine x=(C-C0)/C0 gilt: ln(1+x) ≈ x.

Wie Abb. 2 zeigt, schwingt die Differenz des Ansatzes T = 2,5*ln(C/C0) zu den Meßwerten mit gleichbleibender Amplitude synchron zur AMO, wobei die Schwingung um eine langsam steigende Kurve erfolgt, die als der solare deVries / Suess-Zyklus mit einer Amplitude von 0,07°C, einer Periode von 208 Jahren, einem Minimum um 1880 und einem Maximum um 1985 interpretiert werden kann. Im IPCC-Report 2013 wird ab Seite 392 zu der Frage Stellung genommen „Is the Sun a Major Driver of Recent Changes in Climate?“ und in diesem Zu­sam­men­hang der vom 11jährigen Son­nen­flecken-Zyk­lus überlagerte deVries/Suess-Zyklus als „Solar Component“ in einer Grafik dargestellt – siehe Abb. 3.

Abb. 3 | Quelle: IPCC-Report 2013 „Climate Change 2013 – The Physical Science Basis“, Seite 393 (Abb. FAQ 5.1, Figure 1)
IPCC S. 392: „Ein langsam zunehmender Trend der Sonnenaktivität zu Beginn des 20. Jahrhunderts könnte die in diesem Zeitraum verzeichnete Erwärmung verstärkt haben … Er kann jedoch den beobachteten Anstieg seit Ende der 1970er Jahre nicht erklären, und es gab sogar einen leicht rückläufigen Trend der TSI (Total solar irradiance = Gesamt-Sonneneinstrahlung) von 1986 bis 2008“

Der in Abb. 2 gefundene von der AMO überlagerte Zyklus paßt exakt zu dem in Abb. 3 vom IPCC beschriebenen Kurvenverlauf einer solaren „Komponente“ an der globalen Er­wär­mung – nur mit einer fünfmal so großen Amplitude. Die Theorie von 2019 wird damit um einen solaren Zyklus erweitert. Der neue Ansatz kann die Meßdaten ΔT mit einem mittleren Fehler von ±0,099°C wesentlich exakter be­schreiben (siehe Regressionsanalyse; t=Jahr; C=CO2-Konz.):

ΔT = 0,02 + 0,1*sin(2π/68*(t-1927)) – 0,07*cos(2π/208*(t-1880)) + 2,5*ln(C/C0)

Abb. 4 | Beste Lösung mit deVries/Suess-Zyklus.
Die theoretische Kurve hat ca. 1995 einen Wendepunkt und erklärt mit ihrem seitdem geringeren Wachstum den Hiatus bis ca. 2010

Abb. 4 zeigt, daß theoretische Kurve und gleitendes Mittel über ±7 Jahre sehr gut übereinander liegen, was erklärt, daß der mittlere Approximationsfehler sehr nahe an der mittleren Abweichung der Meßwerte von den geglätteten Werten liegt. Auch die mittleren Abweichungen der Meßwerte von der theoretischen Kurve sind normalverteilt – d.h. beispielsweise Vulkanausbrüche oder El-Niño-Ereignisse sind Teil dieser Zufalls-Schwankungen und müssen nicht gesondert betrachtet werden.

Die Berücksichtigung des solaren Zyklus verringert die Steigung der anthropogenen Komponente von 3,1°C auf 2,5°C; d.h. die TCR sinkt auf 1,73°C für eine Verdoppelung der CO2-Konzentration ab.

Eine Übersicht über alle Ergebnisse findet man unter „Globale Erwärmung“ ; was diese Ergebnisse für Prognosen bedeuten, wird für verschiedene Szenarien unter Extrapolationen dargestellt. Extrapolationen für 3 realistische Szenarien zeigt Abb. 5:

Abb. 5 | Extrapolationen bis 2100 für 3 realistische Szenarien

Die drei für Abb. 5 gewählten Szenarien sind realistisch in dem Sinne, daß keine der drei Szenarien annimmt, den Pro-Kopf-CO2-Ausstoß unter 2,5 t/Jahr drücken zu können. Alle drei Szenarien zeigen bis 2060 einen fast identischen Verlauf. AMO und deVries/Suess-Zyklus werden bis 2045 parallel eine negative Tendenz haben; daher wird die mittlere globale Oberflächentemperatur (GMST) bis dahin kaum ansteigen. Der Tem­pe­ra­tur­an­stieg danach wird von der wieder ansteigenden AMO verstärkt. Das „weiter-wie-bisher“-Szenario 9.0 wird bis 2100 die GMST auf ca. 1,9°C steigen lassen; das IPCC-Szenario RCP 6.0, das auf eine bei 10 Mrd. stagnierende Weltbevölkerung setzt, aber sonst nichts ändert, kommt bis 2100 auf 1,7°C, während das IPCC-Szenario 4.5 maximal 1,5°C erreicht und dafür annimmt, daß die Weltbevölkerung nur bis 9 Mrd. anwächst, und daß es nach 2055 gelingt, die Pro-Kopf-Emissionen von 5 t/Jahr bis 2075 auf 2,5 t/Jahr abzusenken. Alle drei Szenarien halten das ursprüngliche Paris-Ziel einer maximal 2°C betragenden Erhöhung bis 2100 ein.

Veröffentlicht unter AMO, deVries/Suess-Zyklus, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, solarer Zyklus, TCR | Kommentare deaktiviert für Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

EU-Klimaneutralität bis 2050: Soll Deutschland ein einziger Windpark werden?

In der SZ vom 13.12.2019 heißt es unter dem Titel „EU will Klimaneutralität bis 2050 – Polen noch nicht“:
Am frühen Morgen haben sich die Staats- und Regierungschefs der EU auf einen Kompromiss geeinigt, wie die EU bis 2050 klimaneutral werden soll.
Um dieses Ziel zu erreichen, ist ein kompletter Umbau von Energieversorgung, Industrie, Verkehr und Landwirtschaft notwendig.

Wie ein kompletter Umbau aller Sektoren aussehen könnte und was das im Einzelnen bedeuten würde, wird in der Leopoldina-Analyse vom November 2017 untersucht:
»Sektorkopplung« – Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems.
Im „Fazit“ auf Seite 145 der Analyse wird gefolgert (Punkte 3 und 4):

  1. Wenn die ehrgeizigen, zuletzt in Paris international vereinbarten Klimaziele erreicht werden sollen, muss der Ausbau der erneuerbaren Energien Windkraft und Photovoltaik stark erhöht werden. Je nach Reduktionszielen ist eine bis zu siebenfache Steigerung erforderlich. Die damit und mit dem korrelierten Ausbau der Stromnetze verknüpften Akzeptanzprobleme stellen eine große Herausforderung an die Politik dar.
  2. Lediglich eine drastische Senkung des Energieverbrauchs durch Erhöhung der Effizienz und durch Einsparungen, eine verstärkte Nutzung weiterer erneuerbarer Energien wie Biomasse, Solarthermie und Geothermie sowie der Import erneuerbarer, synthetischer Brenn- und Kraftstoffe kann den genannten Ausbaubedarf an Windkraft und Photovoltaik signifikant verringern helfen. Allerdings sind in den nächsten drei Jahrzehnten dazu wesentlich größere Fortschritte erforderlich als bisher.

Der gegenwärtige jährliche Primärenergieverbrauch Deutschlands liegt bei 3600 .. 4000 TWh und der Endenergieverbrauch bei 2500 .. 2700 TWh, wie man einer Grafik auf Seite 24 der Leopoldina-Analyse entnehmen kann.

Bisher (Ende 2018) werden in Deutschland 29.200 Windenergieanlagen (WEA) mit einer Nennleistung von 53 GW betrieben, die jährlich ca. 100 TWh erzeugen; das sind 4 % des jetzigen End­energie­verbrauchs (Quelle: Deutsche Windgard – Status des Windenergieausbaus in Deutschland – Erstes Halbjahr 2019).
Die tatsächlich erbrachte Leistung der bisher installierten Windenergieanlagen betrug 2018 ca. 100 TWh/Jahr = 100/8760 TWh/h = 11,4 GW. Das sind 21,5 % der Nennleistung von 53 GW.

Eine Versiebenfachung würde die Anzahl der Windräder von bisher ca. 30.000 auf ca. 210.000 erhöhen. Laut der Bundesumweltamt-Publikation „Potential der Windenergie an Land“ (2013) haben moderne Schwachwindanlagen einen Rotordurchmesser von 114 m, sind insgesamt 197 m hoch, und die Nennleistung beträgt 3,2 MW.

Zum Abstand der Windenergieanlagen (WEA) untereinander steht in dieser Publikation:
Für den Abstand der WEA zueinander wurde als gängiger Wert aus der Praxis der 5-fache Rotordurchmesser in Hauptwindrichtung und 3-fache Rotordurchmesser in
Nebenwindrichtung angenommen. Da die Hauptwindrichtung nicht in die Simulationsrechnungen eingeht, wurde hier vereinfachend von einem radialen Anlagenabstand in Höhe des 4-fachen Rotordurchmessers ausgegangen. Maßgeblich bei der Platzierung ist hierbei der Rotordurchmesser der Schwachwindanlage. Der radiale Anlagenabstand beträgt damit 456 m.

Im Unterschied dazu kommt eine Untersuchung der Johns Hopkins University „Better turbine spacing for large wind farms.“ (ScienceDaily 2011) zum Ergebnis, daß der Abstand zweier Windturbinen in großen Windparks vom 7-fachen auf das 15-fache des Rotordurchmessers erhöht werden sollte, um eine möglichst große Effizienz zu erzielen. Bei einem Rotordurchmesser von 114 m wären das Abstände zwischen 800 m und 1710 m. Für den Flächenbedarf pro Windrad kommt man damit auf Werte zwischen 0,64 km² und 2,29 km².

Deutschland hat laut der Schrift des Umweltbundesamtes „Flächennutzung in Deutschland“ eine Fläche von 357.582 km²“, von der 13,9 % Siedlungs- und Verkehrsfläche sind, sowie 2,3 % Wasserfläche (Stand Ende 2018). Wenn man Deutschland als einen einzigen Windpark ansieht, bleibt eine für WEA nutzbare Fläche von 83,8 %, also 299.654 km², auf der trotzdem nur die Hälfte des jetzigen Endenergieverbrauchs erzeugt werden könnte:

Beim Einsatz von 210.000 WEA bietet der „Windpark Deutschland“ maximal 1,427 km² Fläche pro Windrad. Zwei Windräder könnten damit höchstens 1195 m, also ungefähr das 10fache des Rotordurchmessers voneinander entfernt stehen. Wenn man annimmt, daß sie wie bisher 21,5 % ihrer Nennleistung erbringen, kommt man auf eine Jahres-Gesamtleistung von 210.000 * 3,2 * 0,215 MW = 144,5 GW = 1266 TWh/Jahr – also nur auf die Hälfte des jetzigen Endenergieverbrauchs. Das erklärt das oben zitierte Fazit Nr. 4 der Sektorkopplungsanalyse, daß neben einer drastischen Senkung des Energieverbrauchs weitere erneuerbare Energien sowie der Import synthetischer Kraftstoffe notwendig wären, um die CO2-Reduktionsziele zu erreichen.

Das Ziel, 2050 über 210.000 WEA zu verfügen, ist nicht nur wegen der fehlenden Akzeptanz durch die Bevölkerung eine große „Herausforderung“ (s.o.), sondern auch durch die Notwendigkeit, dafür an jedem Tag der nächsten 30 Jahre 19 neue Windräder in Betrieb nehmen zu müssen. Weiterhin müßte geklärt werden, auf welche Weise und um welchen Preis der deutsche Energieverbrauch drastisch gesenkt werden kann. Und auch der Aufbau weiterer großer Kapazitäten für regenerative Energien sowie einer daran angeschlossenen Produktion großer Mengen von synthetischen Kraftstoffen im Ausland (wo? – reicht es, wenn nur Deutschland „klimaneutral“ wird?) müßte realisiert und finanziert werden. Ob all das möglich ist, ist zwar sehr zweifelhaft, gehört aber nicht zur Thematik dieses Artikels; ebensowenig das Thema „Energiespeicherung“ (mit dadurch verursachten hohen Umwandlungsverlusten), das mit fluktuierenden Energiequellen unweigerlich verbunden ist.

Bei der Planung der Energiewende geht die Politik in jeder Beziehung an die Grenzen des Möglichen, des Bezahlbaren, des Akzeptablen und des Verantwortbaren. Stefan Aust sprach in einem „Welt“-Kommentar vom 25.1.2020 vom „Luftreich der Träume“, die FAZ titelt am 15.8.2020 „Fehlende Netze, fehlende Speicher, teurer Strom – bei der deutschen Energiewende hakt es an allen Ecken und Enden“.

Begrenzt wird die Möglichkeit der Nutzbarmachung von Sonnenenergie (in der Form von Wind und Photovoltaik) nicht nur durch die Fläche Deutschlands, sondern auch durch die Endlichkeit der Ressource „Windkraft“, von der auf die nicht besiedelten Flächen Deutschlands maximal ca. 1344 TWh/Jahr entfallen – siehe Überschlagsrechnung in „Wieviel Windenergie ist für die Welt (und für Deutschland) verfügbar?“.

Die oben als 1266 TWh/Jahr berechnete effektive Leistung von 210.000 Wind­energie­anlagen mit je 3,2 MW Nennleistung liegt bereits bei ca. 94 % der maximal extrahierbaren Windkraft. Dem Wind würde damit fast seine gesamte Energie entzogen, was unvermeidlich klimatische Auswirkungen auf den „Windpark Deutschland“ und die in ihm lebenden Menschen hätte.

Zu ähnlichen Ergebnissen kommt die Publizistin Cora Stephan in ihrem NDR-Info-Kommentar „Das Dilemma mit der Atomkraft: Atomkraftwerke einfach abzuschalten und auf Windenergie zu setzen, löst keine Probleme, sondern schafft neue“ (5.1.2020).

Sie schreibt unter anderem:

  • Der Anteil von Windkraft und Fotovoltaik an der Primärenergie ist beinahe zu vernachlässigen, wie eine Studie im Auftrag der Bundesregierung ermittelt hat (4 % – siehe oben). Wie kann man angesichts dessen nicht nur aus der Atomkraft, sondern auch noch aus Kohle- und Gasverstromung aussteigen wollen – und zugleich auf Elektromobilität setzen?
  • Soll die dafür nötige zusätzliche Energie im Lande selbst erzeugt werden, müsste man ganz Deutschland mit Windkraftanlagen zubauen, im Abstand von schätzungsweise 1,5 Kilometern (vgl. Rechnung oben).
  • Und wie steht es mit den Unmengen von Beton, mit denen man die Giganten im Boden verankern muss? Einst war die Versiegelung von Böden ein Thema, heute spricht davon keiner mehr. Dabei untersuchen Wissenschaftler, welchen Einfluss Windkraftanlagen auf Windströme und Wolkenbildung haben und ob sie womöglich zu Erwärmung und Trockenheit beitragen (siehe oben).
  • Sollte es nicht selbstverständlich sein, dass man jeden Eingriff in die Natur auf seine Wirkung hin untersucht? Schließlich: Dass auf diese Weise „sauberer“ Strom erzeugt würde, erweist sich als pure Behauptung, rechnet man die Entstehungs- und Entsorgungskosten mit ein. CO2-frei ist da gar nichts.
  • Die Anhänger der sogenannten Energiewende argumentieren gerne mit der Vorbildfunktion Deutschlands. Ich fürchte, wir sind eher ein abschreckendes Beispiel. Der deutsche Alleingang bewirkt weltweit rein gar nichts. Was wir an CO2 einsparen, pusten stattdessen andere Länder in die Luft (siehe Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?)
Veröffentlicht unter Energiebedarf, Windenergie | Kommentare deaktiviert für EU-Klimaneutralität bis 2050: Soll Deutschland ein einziger Windpark werden?

Wieviel Windenergie ist für die Welt (und für Deutschland) verfügbar?

In ihrem Artikel „Estimating maximum global land surface wind power extractablility and associated climatic consequences“ (Max Planck Institut für Biogeochemie in Jena, 2011) weisen L.M. Miller et al. darauf hin, daß Windenergie letztlich Sonnenenergie ist und nicht in unendlichem Ausmaß zur Verfügung steht. Mit einer Überschlagsrechnung kommen sie zum Ergebnis, daß über der nicht vereisten Landfläche der Erde maximal 68 TW an Windenergie extrahierbar ist. Das entspricht ca. 600.000 TWh/Jahr.
Mark Z. Jacobson führt in einem 2019 unter stanford.edu publizierten Artikel „World Saturation Wind Power Potential“ einen Grenzwert SWPP (saturation wind power potential) ein, der dadurch definiert ist, daß durch Hinzufügen einer weiteren Wind-Turbine weltweit keine zusätzliche kinetische Energie mehr extrahiert werden kann. Sein Ergebnis: Land-SWPP = 72 TW. Das entspricht in der Größenordnung dem von Miller et al. berechneten Wert von 68 TW.

Plausibilitätsbetrachtung zur Bestimmung der Fläche pro Windrad
Die eisfreie Landfläche (mit Flüssen und Seen) der Erde ist 134.000 * 10³ km² groß (laut Online-Handbuch Demografie (Berlin-Institut) ).
Mit den Daten aus dem Artikel „Soll Deutschland ein einziger Windpark werden?“ bzgl. aktueller Windenergieanlagen (WEA) ist die folgende Berechnung möglich:

  • Rotordurchmesser: 114 m
  • Abstand zweier WEA = 10facher Rotordurchmesser = 1140 m
  • Fläche pro WEA = 1,3 km² = 1,14² km²
  • Nennleistung: 3,2 MW
  • effektive Leistung über 1 Jahr Betrieb = 3,2 * 0,215 = 0,688 MW
  • Max.-Anzahl WEA (Landfläche der Erde) = 134.000 * 10³ / 1,3 = 103.077 * 10³
  • effektive Leistung = 103.000 * 10³ * 0,688 MW = 71 TW

Mit einem Abstand des 10fachen Rotordurchmessers würden 100 Millionen Wind-Turbinen der oben beschriebenen Bauart die gesamte verfügbare kinetische Energie der Atmosphäre extrahieren (vgl. „Better turbine spacing for large wind farms“, 2011).

Deutschland hat eine Fläche von 360.000 km², ohne besiedelte Flächen 300.000 km².
Der Anteil Deutschlands ohne besiedelte Flächen an der eisfreien Landfläche der Erde liegt bei 0,224 % = 300/134.000.
Bei angenommener Gleichverteilung der extrahierbaren Windenergie entfallen auf die nicht besiedelte Fläche Deutschlands also maximal 600.000 * 0,00224 = 1344 TWh/Jahr. Die 1266 TWh/Jahr, die man entsprechend der Berechnung in „Soll Deutschland ein einziger Windpark werden?“ mit 210.000 WEA in Deutschland an Windenergie gewinnen könnte, sind 94 % von 1344 TWh/Jahr (und nur die Hälfte des derzeitigen Endenergieverbrauchs). Mit einer so hohen Wind­energie­nutzung würde man fast die gesamte kinetische Energie aus der Atmosphäre über Deutschland entfernen und damit unweigerlich das Klima beeinflussen. Schon aus diesem Grund verbieten sich so hohe Anteile der Windenergienutzung – abgesehen davon, daß man das ganze Land in einen Windpark verwandeln würde.

Fazit: Deutschland hat mit seiner dichten Besiedlung einen zu hohen Energiebedarf, als daß dieser überwiegend aus Windkraft gewonnen werden könnte.

In Deutschland leben 1,0 % der Weltbevölkerung. Mit einem Primärenergiebedarf von ca. 0,45 TW hat Deutschland einen Anteil von ca. 2,4 % am Weltenergiebedarf von derzeit ca. 19 TW (siehe Abb. 2). Da CO2-Emissionsvermeidung allein in Deutschland wegen des ge­rin­gen deutschen Anteils sinnlos ist, muß man untersuchen, ob Windenergie im Welt­maß­stab die Haupt-Energiequelle sein kann. Windenergie wird in den folgenden Überlegungen ebenfalls als „Primärenergie“ verstanden, weil infolge von Verlusten bei Speicherung und bei zwingend notwendigen „Power-to-Gas“-Umwandlungen die zur Verfügung stehende Endenergie deutlich kleiner als die ursprünglich erzeugte (Primär-) Energie sein wird.

Die benötigten Daten findet man in den „Our World in Data“-Grafiken Primary Energy Consumption by Region und World Population by Region sowie in der Abbildung zum Thema „Wachstum der Weltbevölkerung“ im Artikel „Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?„.

Abb. 1 – Die alten Industrieländer Europa und Nordamerika hatten in den 50 Jahren zwischen 1970 und 2020 einen Primärenergiebedarf von ca. 6 TW (blaue Kurve). Der Welt-Energiebedarf liegt jetzt bei knapp 20 TW und wird bis 2050 auf knapp 30 TW wachsen (gelbe Kurve), wobei das Wachstum ausschließlich bei der immer bevölkerungsreicheren „übrigen Welt“ liegt (rote Kurve)
(in allen Kurven wurde die Tendenz zwischen 2000 und 2018 linear extrapoliert)

Abb. 1 zeigt, daß der Welt-Bedarf an Primärenergie bis 2050 auf fast 30 TW steigen könnte; das sind über 40 % der maximal zur Verfügung stehenden Windenergie von 68 TW. Für die Erzeugung von 30 TW würde man 43,6 Millionen Windräder mit 3,2 MW Nennleistung und 0,688 = 0,215 * 3,2 MW mittlerer Leistung benötigen. Wenn man einen  10fachen Rotor-Durchmesser-Abstand der WEA ansetzt (siehe oben), werden pro Windrad 1,3 km² Fläche benötigt, so daß 42 % der Landfläche der Erde (0,42 = 43,6*1,3/134) zu Windparks würden.

Auch im Welt-Maßstab ist es deshalb kaum vertretbar, einen großen Teil (fast die Hälfte) der Landfläche der Erde mit Windrädern zu bedecken sowie darüber hinaus fast die Hälfte der Windenergie aus dem Erd-System zu extrahieren, denn das wird mit hoher Wahrscheinlichkeit seinerseits das Klima beeinflussen.

Abb. 2 – Umrechnung von Abb. 1 in einen Pro-Kopf-Energiebedarf.
Probe: Die blaue Kurve liegt 2020 auf 5,7 kW. Für Deutschland mit seinen 80 Millionen Einwohnern ergibt sich folgende Schätzung für 2020:
Primärenergiebedarf = 5,7 * 80 = 456 GW
Jährlicher Primärenergieverbrauch = 0,456 * 8760 = 3995 TWh

Abb. 2 zeigt den Pro-Kopf-Energiebedarf in der Einheit kW = kWh pro Stunde. Dieser liegt im Jahr 2020 in den alten Industrieländern (Europa und Nordamerika) bei 5,7 kW (blaue Kurve), in der übrigen Welt bei 2 kW (rote Kurve) und im Mittel bei 2,5 kW (gelbe Kurve). Gelbe und Rote Kurve liegen dicht beieinander, da in der „übrigen Welt“ zur Zeit ca. 7 mal mehr Menschen leben (mit steigender Tendenz) als in den alten Industrieländern.

Eine „drastische Senkung des Energieverbrauchs“, wie sie in einer 2017 erschienenen Analyse der Leopoldina gefordert wird (siehe „Soll Deutschland ein einziger Windpark werden?“), in den Industrieländern Europas und Nordamerikas würde fast nichts daran ändern, daß weltweit pro Mensch im Mittel 2 bis 2,5 kW Energie benötigt werden – mit steigender Tendenz -, so daß der Welt-Primärenergiebedarf selbst bei „Sparmaßnahmen“ der alten Industrieländer weiter steigen und spätestens 2100 30 TW erreichen wird.
Das entspricht den Überlegungen bzgl. CO2-Emissionsverminderung im Artikel „Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?“, die zum Schluß kommen, daß die alten Industrieländer aufgrund ihrer geringen und stagnierenden Einwohnerzahl im Weltmaßstab immer weniger Bedeutung haben, so daß dort umgesetzte (Spar-)Maßnahmen nur geringe Wirkung auf die ganze Welt haben.

Aus Wind kann pro Kopf immer weniger Energie maximal extrahiert werden, je mehr Menschen auf der Erde leben (grüne Kurve). Die Kurven der Abb. 2 zeigen, daß die weltweit benötigte Energie dieselbe Größenordnung hat wie die maximal zur Verfügung stehende Windenergie, und daß der Abstand zwischen Energie-Bedarf und Windenergie-Angebot immer kleiner wird, je mehr Menschen es auf der Erde gibt, die alle in Wohlstand – d.h. mit höherem Energiebedarf – leben wollen.

Schlußfolgerung: Maximale Nutzung der Windenergie würde große Teile der Welt verunstalten (in eine Industrielandschaft verwandeln) und ihrerseits das Klima verändern, da die kinetische Energie der Atmosphäre deutlich vermindert wird. In dicht besiedelten Ländern wie Deutschland könnte der Energiebedarf trotzdem noch nicht einmal zur Hälfte befriedigt werden. Windenergie ist nicht die Lösung der Herausforderung, die auf der Welt lebenden Menschen ausreichend, zuverlässig, kostengünstig und ohne massive Auswirkungen auf die Umwelt mit Energie zu versorgen.

Veröffentlicht unter Energiebedarf, Weltbevölkerung, Windenergie | Kommentare deaktiviert für Wieviel Windenergie ist für die Welt (und für Deutschland) verfügbar?

Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?

Es wird untersucht, welchen Effekt die geplanten Maßnahmen zur „Klimaneutralität“ in Europa haben können, wobei unterstellt wird, daß ganz Europa (also nicht nur die EU-28) und Nordamerika mitmachen.

Die alten Industrieländer in Europa und Nordamerika (USA und Kanada) werden zur Zeit von ca. 1 Milliarde Menschen bewohnt, ungefähr einem Achtel der fast 8 Milliarden Menschen, die zur Zeit die Erde bevölkern. Der Bevölkerungszuwachs von ca. 80 Millionen Menschen pro Jahr findet nicht in Europa und Nordamerika statt, sondern in der übrigen Welt: Asien, Afrika und Südamerika:

Abb. 1 | Wachstum der Weltbevölkerung

Abb. 1 zeigt, daß 2050 ca. 10 Milliarden Menschen auf der Welt leben werden, jedoch nur noch ein Zehntel davon in Europa und Nordamerika, wo das Bevölkerungswachstum praktisch zum Erliegen gekommen ist (Quelle: „Our World in Data“-Grafik „World Population by Region“ ).

Die Einwohner Europas und Nordamerikas haben zur Zeit zwar eine Pro-Kopf-Emission von ca. 10 t CO2 pro Jahr, die mehr als doppelt so hoch ist wie in der übrigen Welt (ca. 4 t pro Jahr) – aber aufgrund ihres geringen Anteils an der Weltbevölkerung spielt das fast überhaupt keine Rolle (Quelle: „Our World in Data“-Grafik „Annual Total CO2-Emissions, by World Region“ ).

Abb. 2 zeigt, daß die Pro-Kopf-Emissionen der Welt selbst dann die Größenordnung 4 t pro Jahr behalten würden, wenn die 1 Milliarde Einwohner Europas und Nordamerikas ab dem 1.1.2020 kein CO2 mehr emittieren würden. Diese extreme Annahme wird gemacht, um eine untere Grenze für die aufgrund von „Klimaschutz“-Maßnahmen zu erwartenden Effekte zu berechnen.

Abb. 2 | Pro-Kopf-CO2-Emissionen unter der Annahme, daß die Emissionen Europas und Nordamerikas ab dem 1.1.2020 auf Null zurückgehen

In Abb. 2 wird angenommen, daß Europa und Nordamerika ab 2020 kein CO2 mehr emittieren, während die mittleren Pro-Kopf-Emissionen der übrigen Welt konstant bei 4 t/Jahr bleiben. Daß die Pro-Kopf-CO2-Emissionen dieser Länder wieder sinken, ist un­wahr­schein­lich, denn die Einwohner dieser Länder wollen ihren Lebensstandard steigern und haben kein Geld für teure „Transformations“-Maßnahmen, wie Deutschland sie sich leistet.
Die übrige Welt würde also 2020 weiterhin pro Jahr 7 * 4 Gt CO2 emittieren und diese Emissionen aufgrund ihrer linearen Vermehrungsrate von ca. 80 Millionen pro Jahr bis 2050 auf 9 * 4 Gt/Jahr steigern – den jetzigen Wert der jährlichen Welt-CO2-Emissionen.

Abb. 3 | Entwicklung der jährlichen CO2-Emissionen der Welt nach einer CO2-Neutralität Europas und Nordamerikas ab 2020

Abb. 3 zeigt, wie die Welt-CO2-Emissionen nach einem angenommenen Rückgang von 38 auf 28 Gt/Jahr im Jahr 2020 innerhalb von 30 Jahren aufgrund der in dieser Zeit um 2,5 Milliarden gewachsenen Weltbevölkerung wieder die jetzige Größenordnung annehmen würden. Ein ähnliches Bild für die Jahre 1990-2019 wurde im Februar 2020 von der IEA (Paris) veröffentlicht: Energy related CO2 emissions, 1990-2019. Auch diese Auswertung zeigt, daß die Emissionen der entwickelten Länder bei ca. 12 Gt/Jahr stagnieren, während die Emissionen der restlichen Welt Jahr für Jahr steigen.

Die atmosphärische CO2-Konzentration – berechnet aus den jährlichen Emissionen mit dem Bern Carbon Cycle Modell – würde nach 2020 auch ohne die Emissionen der alten Industrieländer weiter wachsen, nur etwas weniger schnell:

Abb. 4 | Atmosphärische CO2-Konzentration mit und ohne „CO2-Neutralität“ Europas und Nordamerikas ab 2020

Abb. 4 zeigt, daß die CO2-Konzentration bis 2050 auf 470 statt 500 ppm steigen würde, und bis 2100 auf 600 statt 640 ppm – eine nur geringe Minderung. Eine Extrapolation der mittleren globalen Oberflächentemperatur mit Hilfe der formelmäßigen Beschreibung der bisherigen globalen Erwärmung führt zu den in Abb. 5 dargestellten Ergebnissen:

Abb. 5 | Verlauf der mittleren globalen Oberflächentemperatur nach Emissions-Stop in Europa und Nordamerika

2050 wäre die mittlere globale Oberflächentemperatur bestenfalls (d.h. im Falle der unrealistischen Annahme eines sofortigen Emissions-Stops in Europa und Nordamerika) 0,15 °C niedriger als im „Weiter wie bisher“-Fall. 2100 wären maximal 0,25 °C Temperatur-Minderung zu erreichen, also 2,2 °C statt 2,45 °C.

Wenn man bedenkt, daß ein Emissions-Stop der alten Industrieländer ab 2020 unmöglich und bis 2050 sehr unwahrscheinlich (und sehr teuer) ist, ist die erreichbare Temperatur-Minderung so klein, daß alle geplanten „Klimaschutz“-Maßnahmen den Charakter eines sinnlosen Aktivismus haben.

Björn Lomborg schrieb am 12.12.2019 in einem kostenpflichtigen FAZ-Artikel „Zum Plan der EU-Kommission: Klimaneutralität wird richtig teuer“ : Verzicht in Europa und Nordamerika ist sinnlos – nur CO2-freie Energie, die überall billiger als fossile ist, kann eine globale Wende bewirken.
Die Welt retten zu wollen, ist schon Hybris; sie aber   n u r   in Deutschland oder Europa retten zu wollen, grenzt an Wahnsinn. Die Welt ist mittlerweile viel mehr als nur Europa und Nordamerika, und nur Maßnahmen, die in dieser übrigen Welt wirken und dort einen höheren Lebensstandard bei geringeren CO2-Emissionen zur Folge haben, haben Aussicht auf Erfolg.

Die EU hat einem ganzen Kontinent Klimaneutralität bis zum Jahr 2050 verordnet – ein Radikalumbau innerhalb von nur 30 Jahren und ein Plan, der das Potenzial hat, die Wettbewerbsfähigkeit der EU und damit die Grundlage für unseren künftigen Wohlstand zu ruinieren. Das Fatale daran ist: Ein energiepolitischer Alleingang Europas wird dem Klima nicht helfen – ohne China, die USA und Indien wird es keine Lösung für das globale Problem der Erderwärmung geben. Die Atmosphäre kennt keine Ländergrenzen.“ Das schrieben Lino Guzzella, Jürgen Hambrecht und Lars Josefsson in einem Gastbeitrag der NZZ vom 16.01.2020 in ihrem Artikel „Ohne einen Paradigmenwechsel in der Energiepolitik bleibt der New Green Deal eine gefährliche Utopie. Es wird Zeit aufzuwachen.“

Veröffentlicht unter Bern Carbon Cycle Modell, Bevölkerungszuwachs, Mittlere globale Temperatur, Weltbevölkerung | Kommentare deaktiviert für Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?

Wieviel vom Klimawandel ist menschengemacht?

Wenn in Medien und Politik vom Ziel „Klimaschutz“ die Rede ist, wird damit stillschweigend vorausgesetzt, daß die globale Erwärmung ausschließlich eine Folge von menschengemachter steigender CO2-Konzentration in der Atmosphäre ist und daher durch den Verzicht auf CO2-Emissionen verlangsamt bzw. gestoppt werden kann. Die Sinnhaftigkeit eines Ziels und seine Erreichbarkeit hängen jedoch davon ab, wieviel Einfluß man hat; im Falle des Klimas also davon, welcher Anteil der globalen Erwärmung tatsächlich „menschengemacht“ ist und welcher Anteil natürliche Ursachen hat, z.B. natürliche Temperaturschwankungen der Ozeane (AMO, PDO), solare Einflüsse oder auch Veränderungen der Wolkenbedeckung der Erde, die womöglich mit kosmischer Strahlung und dem Magnetfeld der Sonne im Zusammenhang stehen (und damit frühere Kalt- und Warmzeiten erklären könnten – siehe z.B. Jasper Kirkby (2009) „Cosmic Rays and Climate“).
Selbst wenn CO2 wirklich die maßgebliche Ursache des Klimawandels sein sollte, ist es fraglich, ob die alten Industrieländer in Europa und Nordamerika die weltweiten CO2-Emissionen entscheidend beeinflussen können, denn sie verursachen mit ihrem 15-%-Anteil an der Weltbevölkerung nur noch 30 % aller Emissionen – mit fallender Tendenz (siehe „Was bringt die Reduzierung von CO2-Emissionen in den Industrieländern?“).

Einfluß der Atlantischen Multidekaden Osziallation (AMO)

Meßwerte der natürlichen Temperaturschwankungen des Nordatlantiks, der „Atlantischen Multidekaden Oszillation“ (AMO), werden von der ESRL Physical Sciences Division unter https://www.esrl.noaa.gov/psd/data/timeseries/AMO/ publiziert. Auf der FAQ-Seite zur AMO heißt es unter anderem:

The AMO has affected air temperatures and rainfall over much of the Northern Hemisphere, in particular, North America and Europe. It is associated with changes in the frequency of North American droughts and is reflected in the frequency of severe Atlantic hurricanes. It alternately obscures and exaggerates the global increase in temperatures due to human-induced global warming.

Die Abbildung zeigt die AMO-bedingten Kühlungs- und Erwärmungs-Effekte:
Die mittleren globalen Temperaturen (rot) gingen zwischen 1876 und 1910 mit der AMO (blau) zurück; in diesen Jahren gab es nur geringe menschliche CO2-Emissionen. Zwischen 1910 und 1944 stieg die mittlere globale Temperatur vor allen Dingen infolge der AMO auf ein relatives Maximum, zwischen 1944 und 1978 ging sie mit der AMO zurück (aber nicht so stark wie die AMO) und stieg nach 1978 mit der AMO wieder an, jedoch mit einer größeren Steigung als derjenigen der AMO. Man erkennt also deutlich die Abschwächungen und Verstärkungen der CO2-bedingten globalen Erwärmung durch die AMO-Schwingung, von denen in den AMO-FAQ die Rede ist.

Es liegt nahe, die AMO-Effekte aus der beobachteten globalen Erwärmung herauszurechnen, um zu ermitteln, welchen Anteil an der Erwärmung das CO2 hat. Folgende Publikationen haben das zum Thema:

(1) G. R. van der Werf and A. J. Dolman (2014) „Impact of the Atlantic Multidecadal Oscillation (AMO) on deriving anthropogenic warming rates from the instrumental temperature record“
Ergebnis: „The most robust outcome of the different MLRs we ran was the anthro­po­genic factor, which indicated a transient climate response (TCR) of 1.6 (1.0–3.3) °C, with the uncertainty range reflecting uncertainties in AMO characterization as well as the temperature and radiative forcing data sets used.“

(2) Steinman et al. (2015) „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“
Ergebnis: Erklärung der nicht weiter steigenden globalen Temperaturen nach ca. 1998 durch Zusammenwirken von AMO und PDO (= „Pazifische Dekaden Oszillation“).

(3) Nicholas Lewis, Judith Curry (2018) „The Impact of Recent Forcing and Ocean Heat Uptake Data on Estimates of Climate Sensitivity“
Ergebnis: „We have derived ECShist and TCR estimates that are much better constrained, and slightly lower when using the same surface temperature dataset (HadCRUT4), than those in the predecessor LC15 study: 1.50-°C median (5%–95% range: 1.05–2.45 °C) for ECShist and 1.20-°C median (5%–95% range: 0.9–1.7 °C) for TCR.“

Der Ansatz T = 2,5*ln(C/C0) führt dazu, daß das gleitende Mittel der Differenzkurve synchron zur AMO mit gleichbleibender Amplitude schwingt.
Das gleitende Mittel über die AMO-Periode über 68 Jahre hat einen glatten Verlauf exakt auf einem deVries/Suess-Zyklus mit einem Minimum 1880, einer Periode von 208 Jahren und einer Amplitude von 0,07°C

(4) In dieser Arbeit – siehe auch eine Zusammenfassung – wurde die AMO-Schwingung durch gleitende Mittel über die Periode der AMO (ca. 68 Jahre) aus den mittleren globalen Ober­flä­chen­tem­pe­ra­tu­ren (GMST) eliminiert – siehe Bild rechts. Auf diese Weise wurde deutlich, daß neben einer durch die Formel TA = 2,5 * ln(C/C0) be­schreib­baren anthropogenen Erwärmung TA und der AMO noch ein solarer natürlicher Einfluß existiert, der deVries/Suess-Zyklus mit einer Periode von 208 Jahren, einem Minimum um 1880 und einer Amplitude von 0,07°C. Die GMST-Meßwerte können mit diesem Ansatz mit einer mittleren Abweichung von ±0,099°C reproduziert werden, die dieselbe Größenordnung hat wie die Standardabweichung σ der natürlichen Variabilität der GMST-Daten: σ = ±0,096 °C.

Eine Verdoppelung der CO2-Konzentration führt mit diesem Ansatz zu einer Tem­pe­ra­tur­er­hö­hung von TCR = 2,5*ln(2) = 1,73°C.

Beste Lösung mit deVries/Suess-Zyklus.
Die theoretische Kurve hat ca. 1995 einen Wendepunkt und erklärt mit ihrem seitdem geringeren Wachstum den Hiatus bis ca. 2010

Die obige Grafik zeigt, daß die gemessenen Oberflächentemperaturen sehr gut mit einer Überlagerung von T = 2,5 * ln(C/C0) durch AMO-Schwingung und deVries/Suess-Zyklus korrelieren.

Die in den Literaturstellen (1) und (3) verwendeten Abkürzungen TCR und ECS bedeuten „Transient Climate Response“ bzw. „Equilibrium Climate Sensitivity“ und beschreiben ebenfalls die zu erwartende Temperaturerhöhung bei einer Verdoppelung der CO2-Konzentration, wobei die TCR die Temperaturerhöhung zum Zeitpunkt der Verdoppelung der CO2-Konzentration angibt, während die ECS die Temperaturerhöhung ist, die sich im Gleich­gewichts­zustand nach einer CO2-Konzentrations-Verdoppelung Jahrhunderte später eingestellt hat – eine theoretische Größe, da fraglich ist, ob die Erdatmosphäre jemals in einen Gleichgewichtszustand kommt.

Alle in (1), (3) und (4) auf der Basis von historischen Daten (seit ca. 1860) ermittelten Temperaturerhöhungen bewegen sich in der Größenordnung von 1,5 °C bis 1,73 °C für eine Verdoppelung der CO2-Konzentration.
Das Paris-Ziel des IPCC, im Jahr 2100 maximal 2 °C Erwärmung zu haben, kann damit selbst dann weitgehend eingehalten werden, wenn die Menschheit nichts tun und einfach so weitermachen sollte wie bisher – vgl. RCP-Szenarien, insbesondere das in dieser Arbeit verwendete Szenario 9.0:

Unter diesen Umständen würde die atmosphärische CO2-Konzentration bis 2100 auf ca. 660 ppm anwachsen (siehe Link) – das ist etwas mehr als eine Verdoppelung der Ausgangs-CO2-Konzentration C0=295 ppm. Mit den in (1), (3) und (4) angegebenen Erwärmungsraten wäre dann eine Temperaturerhöhung in der Größenordnung von maximal 1,9°C zu erwarten. Zum Vergleich: Aus der Stomata-Dichte fossiler Blätter aus der Grube Messel konnte rekonstruiert werden, daß die Atmosphäre vor ca. 47 Millionen Jahren (mittleres Eozän) CO2-Konzentrationen von 700 bis 840 ppm hatte (M. Grein, 2010).

Extrapolationen bis 2100 für 3 realistische Szenarien

Fazit

Es besteht kein Zeitdruck und kein Grund zu Panik sowie teurem, sinnlosem und kontraproduktivem Aktivismus, der womöglich schlimmere Folgen hat als etwas höhere mittlere globale Temperaturen (z.B. Zerstörung der Versorgungssicherheit mit elektrischem Strom, Zerstörung der deutschen Automobil-Industrie, wirtschaftlicher Niedergang als Folge von immer mehr Planwirtschaft).
Der Direktor des Copenhagen Consensus Center, Bjørn Lomborg, sagt („Der Klimawandel bedeutet nicht das Ende der Welt“ capital vom 5.5.2019):

„Die bisherige Politik zäumt das Pferd von hinten auf. Die CO2-Reduktion wird vorangetrieben, bevor alternative Energiequellen die fossilen effektiv ersetzen und mit ihnen konkurrieren können. Es ist höchste Zeit, damit aufzuhören. Die deutsche Energiewende ist ein gutes Beispiel. Die CO2-Emissionen sind in den vergangenen zehn Jahren mehr oder weniger gleich geblieben, obwohl Hunderte Milliarden Euro in Subventionen für erneuerbare Energien investiert wurden. Wir müssen uns drauf konzentrieren, die technologischen Hürden zu beseitigen, die es so teuer machen, auf fossile Energieträger zu verzichten.
Die Politik sollte nicht darauf abzielen, immer mehr Strom aus erneuerbaren Energien zu gewinnen. Das Ziel ist doch, den CO2-Ausstoß zu senken. Deutschland hat dafür aber wie viele andere den teuersten Weg gewählt, indem ineffiziente erneuerbare Energien subventioniert wurden.“

In seinem Buch „Auf der Suche nach der Wahrheit“ (2018) hat Hans-Werner Sinn außerdem darauf hingewiesen, daß man auch diejenigen Länder in Maßnahmen gegen CO2-Emissionen integrieren muß, die wirtschaftlich auf die Förderung fossiler Energien angewiesen sind (S. 336). Wenn man das nicht tut, werden CO2-Einsparungs-Bemühungen erfolglos bleiben, weil diese Länder weiterhin fossile Energieträger fördern und verkaufen werden, solange es keine konkurrenzfähigen und adäquaten Alternativen gibt.

Veröffentlicht unter AMO, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO | Kommentare deaktiviert für Wieviel vom Klimawandel ist menschengemacht?

Juli-Temperaturen 2019 in Deutschland – Kommentar zur DWD-Aussage „2 Grad Erwärmung“

In seiner Pressemitteilung vom 30.7.2019 schrieb der DWD: „Mit 18,9 Grad Celsius (°C) lag im Juli der Temperaturdurchschnitt um 2,0 Grad über dem Wert der international gültigen Referenzperiode 1961 bis 1990. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung nach oben 0,9 Grad“ und publizierte dazu die folgende Grafik (Quelle: DWD):

Abb. 1 – Mittlere Juli-Lufttemperaturen in Deutschland (Quelle: DWD)

Frank Matthäus (Statisticum.info) wies in seinem am 13.8.2019 publizierten Artikel „Die ewige „international gültige Referenzperiode““ darauf hin, daß die Referenzperiode 1961-1990 willkürlich gewählt ist. Das stimmt zwar – das eigentliche Problem ist jedoch, daß die in den Daten sichtbare Langzeit-Schwingung vom DWD ignoriert wurde.

Die über 30 Jahre gemittelte Trendlinie (fett blau in Abb. 1) zeigt für die Jahre vor ca. 1980 eine Multidekaden-Schwingung mit einer Periode von ca. 70 Jahren: Es ist die Auswirkung der AMO-Schwingung, von der laut NOAA AOML Frequently Asked Questions About the Atlantic Multidecadal Oscillation (AMO) bekannt ist, daß sie die Temperaturen in Nord-Amerika und Europa periodisch beeinflußt: „It alternately obscures and exaggerates the global increase in temperatures due to human-induced global warming“.

Eine Glättung über je 30 Jahre ist willkürlich und wegen des fehlenden Bezugs zur Periode der überlagerten Schwingung nicht geeignet, die AMO-Variabilität aus der Temperaturkure zu eliminieren. Sinnvoll ist stattdessen eine Glättung mit gleitenden Mittelwerten über die AMO-Periode von 68 Jahren – siehe Kapitel über „Multidekaden-Oszillationen“. Gleitende Mittelwerte mit der AMO-Periode eliminieren sowohl die zufälligen Temperaturschwankungen als auch die AMO-Schwingung und machen die globale Erwärmung dadurch deutlich sichtbar – siehe Abb. 2.

Mit Hilfe der DWD-Tabelle „Air Temperature Mean“ für den Monat Juli kann man eine neue Grafik erstellen, in der die Schwankungen der Juli-Durchschnittstemperaturen um ihren „Normalwert“ 17 °C (siehe DWD-Grafik) einem gleitenden Mittel von 68 Jahren unterworfen werden (die rote Kurve der gleitenden Mittelwerte beginnt 34 Jahre nach 1881 und endet 34 Jahre vor 2019 – im Unterschied zur fett blauen DWD-Kurve, die über den gesamten Wertebereich gezeichnet wurde, owohl sie laut Legende Mittelwerte über je 30 Jahre darstellen soll):

Abb. 2 – Um AMO-Schwingung bereinigte Juli-Temperaturen im Vergleich zu CO2-verursachtem Temperaturanstieg

Ab den 1950er Jahren (1959: Beginn der systematischen Mauna-Loa-CO2-Messungen; davor: CO2-Konzentrations-Meßwerte aus Eisbohrkernen) stimmen in Abb. 2 das gleitende Temperatur-Mittel und der im Kapitel „Globale Erwärmung“ gefundene Zusammenhang [ Globale Erwärmung = 3,1*ln(C/C0) ] sehr gut überein.

Die Juli-Temperatur-Differenz T – 17 – 3,1*ln(C/C0) muß dann ein Abbild der von der AMO-Schwingung verursachten Temperatur-Variabilität sein. Die für diese Untersuchung notwendigen AMO-Juli-Meßwerte findet man bei NOAA AOML.

Abb. 3 – Um CO2-bedingte Erwärmung bereinigte Juli-Temperatur-Differenzen zum „Normalwert“ von 17°C

Die rote Differenzkurve in Abb. 3 ist durch eine Sinus-Schwingung mit der Amplitude 0,4°C am besten approximierbar (kleinste Fehlerquadratsumme). Der mit dem Faktor 2 multiplizierte AMO-Index (Juli-Werte) wird durch die gelbe Sinus-Schwingung ebenfalls optimal angenähert.

Damit kann man die durchschnittlichen Juli-Temperaturen T(Juli) in Deutschland durch die folgenden Ausdrücke beschreiben (in Abb. 4 graphisch dargestellt):

(1) T(Juli) = 17 + 3,1*ln(C/C0) + 0,4 * sin(2π/68*(jahr-1927))  (°C)

(2) T(Juli) = 17 + 3,1*ln(C/C0) + 0,2 * AMO-Index(Juli)  (°C)

Abb. 4 – Mittlere Juli-Temperaturen in Deutschland als Funktion von AMO(Juli) und CO2-bedingter Erwärmung

Die überlagerte AMO-Schwingung macht ±0,4 °C aus – von ihrem Minimum zu ihrem Maximum also fast 1 °C. Vergleichen darf man also nur Werte, bei denen die Schwingung sich in derselben Phase befindet:

  • Von 1880 bis ca. 1945 erhöhte sich die Temperatur CO2-bedingt um 0,25 °C
  • Von 1880 bis ca. 2019 erhöhte sich die Temperatur CO2-bedingt um 1,0 °C

Der Juli-Wert des Jahres 2019 liegt 1,9 °C über dem „Normalwert“ von 17 °C. Von der  Differenz 1,9 °C sind die Hälfte (1,0 °C) auf die globale Erwärmung und die andere Hälfte auf die AMO-Schwingung sowie zufällige Anteile zurückzuführen. Abb. 5 zeigt, daß die natürliche Variabilität der durchschnittlichen Juli-Temperaturen in den vergangenen 140 Jahren bis zu ±3 °C  betragen hat. Schon wegen dieser großen Schwankungsbreite verbietet es sich, aus einzelnen Monatswerten Aussagen über „die Klimaerwärmung“ abzuleiten.

Fazit

Die DWD-Pressemeldung und die DWD-Grafik ignorieren ebenso wie der IPCC (siehe cdatac-Übersichtsartikel) die AMO als erheblichen Einflußfaktor auf die mittleren Temperaturen, obwohl bekannt ist, daß die AMO die mittleren Temperaturen periodisch und nicht unerheblich beeinflußt (siehe NOAA AOML). Damit wird weder diskutiert, warum zwischen 1945 und 1978 die mittleren Temperaturen gefallen sind, obwohl die CO2-Konzentration von 310 ppm (1945) auf 335 ppm (1978) gestiegen ist, noch wird berücksichtigt, daß der starke Temperaturanstieg zwischen 1980 und 2005 aus der Überlagerung von AMO-bedingter und CO2-bedingter Temperatur-Erhöhung resultierte. Seit dem Anfang des neuen Jahrtausends befindet sich die AMO in der Nähe ihres Maximums, womit der starke Anstieg vorerst gestoppt wurde (siehe Abb. 4 und Steinman et al. (2015) „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“ ).

Probe

Eine Bereinigung der Juli-Temperatur-Meßwerte um die systematischen Einflüsse sollte die rein statistischen Schwankungen um den vom DWD so bezeichneten Juli-Normalwert von 17 °C darstellen:

Abb. 5 – Gleitende Meßwerte über 30 Jahre über die Juli-Temperatur-Meßwerte und die um systematische Einflüsse bereinigten Meßwerte

Die blaue Kurve in Abb. 5 zeigt die Schwankungen der Temperatur-Meßwerte um 17 °C nach Subtraktion der AMO-Meßwerte und der CO2-bedingten Temperatur-Erhöhung. Die gleitenden Mittelwerte über je 30 Jahre der bereinigten Temperaturen (gelb und grün) schwanken nur um maximal ±0,3 °C (und ohne Bezug zur AMO-Schwingung) um den Temperatur-Normalwert, während die gleitenden Mittel der Original-Meßwerte (rote Kurve) wie in Abb. 1 die AMO-Schwingung erkennen lassen und damit keine Aussage zulassen, welcher Anteil der Temperaturerhöhung der erhöhten CO2-Konzentration zuzuordnen ist, welcher der AMO, und welcher zufälligen statistischen Schwankungen.

Abb. 5 läßt erkennen, daß die Variabilität der durchschnittlichen Juli-Temperaturen in Deutschland um den durch Formel (1) oder (2) beschriebenen korrigierten „Normalwert“ in den vergangenen 140 Jahren bis zu ±3 °C  betragen hat.

Veröffentlicht unter AMO | Kommentare deaktiviert für Juli-Temperaturen 2019 in Deutschland – Kommentar zur DWD-Aussage „2 Grad Erwärmung“

Logarithmischer Zusammenhang von globaler Erwärmung und CO2-Konzentration – Ergebnisse in Formeln und Bildern

30.04.2020 – In Überarbeitung

siehe

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Zuverlässige Extrapolationen in die Zukunft, ein wesentliches Anliegen der derzeitigen Klimaforschung, basieren auf der Fähigkeit, die bisherigen CO2-Konzentrations-bedingten Temperaturerhöhungen genau beschreiben und von natürlichen tempe­ratur­ver­än­dern­den Einflußgrößen wie Multidekaden-Oszillationen der Ozeane (im 20. Jahrhundert vor allem der AMO-Schwingung) unterscheiden zu können. Solche Überlegungen fehlen im IPCC-Report „Climate Change 2013 – The Physical Science Basis“ trotz seines Umfangs von 1550 Seiten. Auf Seite 60 wird der AMO-Einfluß abgetan mit den Worten the AMO is assessed with high confidence to have made little contribution to the GMST trend between 1951 and 2010 (considerably less than 0.1°C)“, und auf Seite 27 wird behauptet „Cumulative total emissions of CO2 and global mean surface temperature (GMST) response are approximately linearly related“.

Bei adäquater Berücksichtigung der Multidekaden-Oszillation, die der globalen Erwärmung TCO2 offensichtlich überlagert ist, findet man jedoch einen logarithmischen Zusammenhang mit der atmosphärischen CO2-Konzentration C:

(1) TCO2 = 3,1*ln(C/C0)

wobei C0 = 295 ppm die „vorindustrielle“ CO2-Konzentration ist.

Der logarithmische Zusammenhang, der zu deutlich niedrigeren Extrapolationen der zu erwartenden Temperaturen führt, ist aus den bisher vorliegenden Meßdaten bzgl. CO2-Emissionen und -Konzentrationen sowie den mittleren globalen Oberflächen-Temperaturen direkt herleitbar, wie im folgenden gezeigt wird.

Natürliche Temperatur-Schwankungen durch AMO und PDO

Die gemessenen jährlichen mittleren globalen Oberflächen-Temperaturen T(j) entstehen durch die Überlagerung der globalen Erwärmung mit einer Multidekaden-Oszillation MD(j), verursacht durch periodische Temperaturschwankungen der Ozeane Atlantik (AMO) und Pazifik (PDO) – siehe Abb. 1.

Abb. 1 | Globale Erwärmung TCO2(j) + Multidekaden-Oszillation MD(j) = mittl. globale Temp. T(j)

Der AMO-FAQ-Seite der NOAA AOML Physical Oceanography Division kann man entnehmen, daß diese Multidekaden-Oszillationen nicht anthropogen sind und die globale Erwärmung überlagern. Steinman et al. haben 2015 publiziert, daß die AMO am Anfang und in der Mitte des 20. Jahrhunderts großen Einfluß auf die Überlagerung MD(j) hatte, daß aber in den letzten Dekaden die PDO dominant wurde. Den vorliegenden Daten kann man entnehmen, daß dieser Übergang während der 1990er Jahre stattfand.

Logarithmischer Zusammenhang von globaler Erwärmung mit kumulativen CO2-Emissionen

Abb. 2 | Mittl. globale Temp. T(j) – MD-Oszillation MD(j) = Globale Erwärmung TCO2(j)

Umgekehrt führt die Subtraktion der aus AMO (bis 1995) und PDO (ab 1996) zusammengesetzten MD-Oszillation MD(j) von den Meßwerten T(j) der mittleren globalen Temperaturen zum Kurvenverlauf TCO2(j) der globalen Erwärmung (siehe Abb. 2), der auf einer logarithmischen Kurve oberhalb des vom IPCC angegebenen linearen Zusammenhangs TCO2(j) = m(j)/1600 verläuft, wobei m(j) die kumulativen CO2-Emissionen bis zum Jahr j symbolisiert.

Überlagerte Multidekaden-Oszillation mit 68-Jahre-Periode

Abb. 3 | Mittl. globale Temperatur T(j) – globale Erwärmung TCO2(j) = MD-Oszillation MD(j)

Die Subtraktion der globalen Erwärmung ( TCO2(j)=3,1*ln(C(j)/C0) ) von den Meßwerten T(j) der mittleren globalen Temperaturen ergibt eine sehr gleichmäßige Multidekaden-Oszillation MD(j) (kurz: „MD-Oszillation“) um die Null-Linie. Diese ist das Temperatur-Mittel der Jahre 1850-1900, das man damit als „vorindustrielle Temperatur“ ansehen kann. Die Gleichmäßigkeit der Schwingung äußert sich darin, daß eine Sinus-Kurve mit der Periode 68 Jahre und der Amplitude 0,1°C durch die MD-Oszillation gezeichnet werden kann. Gleitende Mittelwerte der MD-Oszillation über Perioden von je 68 Jahren (rote Kurve) ergeben zwischen ca. 1927 und ca. 1973 eine exakte Null-Linie. Spätere Mittelwerte, die Temperaturdaten von 2006 und danach beinhalten, werden zusehends negativer. Ursache ist der zu dieser Zeit schon starke Einfluß der PDO (s.o.).

Gleitende Perioden-Mittelwerte

Abb. 4 | Logarithmische und lineare Funktionen mit T(0)=0 und T(1600)=1. Der Vergleich von Perioden-Mittelwerten dieser Funktionen mit Perioden-Mittelwerten der gemessenen Temperaturen ergibt zwischen ca. 1930 und 1973 eine exakte Übereinstimmung mit dem logarithmischen Ansatz

Die überlagerte MD-Oszillation MD(j) kann aufgrund ihrer Gleichmäßigkeit durch die Bildung von gleitenden Mitteln über ihre Periode (68 Jahre) – dargestellt durch das Symbol Σ – eliminiert werden (d.h. Σ MD(j) = 0; siehe Abb. 3):

(2) Σ T(j) = Σ TCO2(j) + Σ MD(j) = Σ TCO2(j)

Links in Abb. 4 sind drei Funktions-Alternativen der Form TCO2(j) = S * f(j) dargestellt, die die Eigenschaft haben, bei m = 1600 Gt (bzw. C = 407 ppm) den Wert 1°C anzunehmen. Durch die Bildung von Perioden-Mittelwerten werden diese drei Funktionen den entsprechend bearbeiteten Temperatur-Meßdaten vergleichbar gemacht. Das rechte Bild zeigt, daß zwischen ca. 1930 und 1973 die Periodenmittel der Meßwerte genau auf den Periodenmitteln des logarithmischen Ansatzes (Formel (1)) liegen. Die Jahre zwischen 1930 und 1973 sind der Zeitraum, in dem die Perioden-Mittel der MD-Oszillation MD(j) (siehe Abb. 3) exakt auf der Null-Linie liegen. Nach 1973 enthalten die Periodenmittel Temperaturen nach 2006, die schon stark von der PDO beeinflußt sind.

Ergebnis von Abb. 4: Nur die Funktion TCO2 = S*ln(C/C0) mit S=3,1°C paßt zu den Meßdaten.

Parameter-Bestimmung von Funktionen der globalen Erwärmung direkt aus den Meßdaten der mittleren globalen Temperaturen

Perioden-Mittelwerte können verwendet werden, um die Steigung S von Ansätzen der Form TCO2(j) = S * f(j) zu ermitteln. Bei Berücksichtigung von Formel (2) gilt:

(3) S = Σ TCO2(j) / Σ f(j) = Σ T(j) / Σ f(j)

Abb. 5 stellt das Ergebnis für die Bestimmung von S durch Quotienten von Perioden-Mittelwerten für eine logarithmische und zwei lineare Funktionen dar.

Abb. 5 | Bestimmung S aus 68-Jahre-Periodenmitteln (je +-34 Jahre für 1927 bis 1973) für die 3 Ansätze T = S*ln(C/C0), T=S*(C-C0)/C0 und (mit S=1/E) T=m/E. Für die jeweils gefundene Steigung wurde T(2018) berechnet mit C=408 ppm bzw. m=1620 Gt CO2.

Man sieht, daß die für den logarithmischen Ansatz ermittelte Steigung S um 3,1°C schwankt – seit Anfang der 50er Jahre sogar mit nur +-0,05°C Abweichung. Für die Temperatur TCO2(2018) wird sehr konstant 1,0 +- 0,05 °C vorhergesagt.

Die beiden linearen Ansätze machen generell zu hohe Temperaturvorhersagen, die umso höher sind, je weiter in die Zukunft extrapoliert wird. Ihre Steigungen sinken mit den Jahren entlang von Kurven, die mit Periodenmittelwerten des logarithmischen Ansatzes (T=3,1*ln(C/C0)) berechenbar sind. Das ist neben der Stabilität des logarithmischen Ansatzes ein weiterer Beweis dafür, daß der Zusammenhang von CO2-Kon­zen­tra­tion und Temperatur logarithmisch ist.

Abschätzung der globalen Erwärmung nach Emission von m Gt CO2

Die rechte Grafik in Abb. 5 zeigt, daß man mit Periodenmitteln für den IPCC-Ansatz T=m/E nicht 1/1600 °/Gt als Steigung berechnen würde, sondern für den Parameter E=dm/dT Werte zwischen 1300 und 1400 Gt/° erhielte, je nachdem, aus welchen Jahren die für die Berechnung verwendeten Periodenmittel stammen. Die Ableitung dm/dT ist nicht konstant, wie vom IPCC behauptet, sondern proportional zum Quotienten aus Konzentration C und Airborne Fraction AF (siehe dm/dT konstant?). S=3,1°C ist in Formel (4) die Steigung des logarithmischen Ansatzes; 7,814 Gt CO2 entsprechen 1 ppm:

(4) dm/dT = 7,814/S * C/AF

Abb. 6 | blaue Kurve: dm/dT berechnet; grüne Kurve: dm/dT num. differenziert; rote Kurve: dm/dT berechnet für C(m)=295+0,55*0,128*m und AF(m)=0,55-m/53300; rot gestrichelt: untere Abschätzung für dm/dT.

Abb. 6 zeigt neben den historischen Daten für dm/dT (blaue berechnete und grüne numerisch differenzierte Kurve) eine Näherung (rote Kurve), die mit Formel (4) durch lineare Extrapolationen der Konzentration C(m) und der Airborne Fraction AF(m) erzeugt wurde. Die rote Kurve kann wiederum durch eine Gerade (rot gestrichelt)

(5) dm/dT = (m+b)/a                (a = 2,585; b = 3387 = 1600/(exp(1/a)-1) )

nach unten abgeschätzt werden (siehe dm/dT linear steigend). Das Integral des Kehrwertes dT/dm ist dann eine obere Abschätzung für die aus der Emission von m Gt CO2 resultierende globale Erwärmung, in der b so bestimmt wird, daß gilt TCO2(m)=1°C für m=1600 Gt.

(6) TCO2 <= a*ln(1+m/b)        (a = 2,585; b = 3387)

In Abb. 7 wird diese obere Schranke zusammen mit den für verschiedene Szenarien extrapolierten Temperaturverläufen über der kumulierten Emission m dargestellt.

Abb. 7 | Die aus verschiedenen Szenarien resultierende globale Erwärmung mit oberer Abschätzung

Die Temperaturschätzungen weichen umso mehr nach oben ab (bis zu 0,4 °C), je weniger CO2 bis zum Jahr 2100 emittiert werden wird. Der Vorteil der Abschätzung besteht darin, kumulierten CO2-Emissionen in einfachster Weise eine resultierende globale Erwärmung zuordnen zu können bzw. umgekehrt aus Abb. 7 ablesen zu können, daß z.B. zur Einhaltung des 2°-Ziels von Paris insgesamt nicht viel mehr als 4000 Gt CO2 – allerhöchstens 5000 Gt – emittiert werden sollten. Selbst Szenario RCP 6.0, das von einer Stabilisierung der jetzigen Verhältnissse ausgeht (d.h. nur noch vergleichsweise geringer Weltbevölkerungs-Zuwachs auf maximal 10 Mrd. und gleichbleibende Pro-Kopf-Emissionen von 5 t/Jahr), wird nur zu 2,2 °C Temperaturerhöhung bis 2100 führen.

Veröffentlicht unter Airborne Fraction, AMO, dm/dT, MD-Oszillation, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, vorindustrielle CO2-Konzentration, vorindustrielle Temperatur | Kommentare deaktiviert für Logarithmischer Zusammenhang von globaler Erwärmung und CO2-Konzentration – Ergebnisse in Formeln und Bildern

AMO-Index, CO2-Konzentration und globale Erwärmung

30.04.2020 – In Überarbeitung

siehe

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Einleitung

Im IPCC-Report „Climate Change 2013 – The Physical Science Basis“ wird im „Summary for Policymakers“ auf S. 27 behauptet, daß die mittlere globale Oberflächentemperatur T linear mit den kumulativen CO2-Emissionen m steigt:

T = m/1600 °C.

Das Ziel dieser Arbeit ist es, diese Behauptung anhand der vorliegenden Meßdaten bzgl. CO2-Emissionen, CO2-Konzentrationen und mittleren globalen Temperaturen nachzuprüfen. Der Weg ist eine Analyse, wie die Temperaturkurve durch natürliche und anthropogene Effekte beeinflußt wird.

Atlantische Multidekaden-Oszillation (AMO)

Die Ozeane der Nordhalbkugel, Atlantik und Pazifik, weisen bekanntermaßen Multidekaden-Oszillationen auf: AMO (Atlantische Multidekaden-Oszillation) und PDO (Pazifische Dekaden-Oszillation; auch PMO genannt). AMO und PDO beeinflussen die mittleren globalen Oberflächen-Temperaturen. Auf der AMO-FAQ-Seite der NOAA AOML Physical Oceanography Division findet man dazu folgende Informationen:

  1. Die AMO ist eine Klima-Oszillation, die in Baumringen und Eisbohrkernen der vergangenen 1000 Jahre beobachtet werden kann, und insofern mit hoher Wahrscheinlichkeit nicht durch menschliche Einwirkung verursacht wurde.
  2. Die AMO vermindert und erhöht je nach ihrer Phase die Anstiegsrate der anthropogenen globalen Erwärmung.

Zur Überprüfung der zweiten Aussage werden in Abb. 1 die mittleren globalen Temperaturen der letzten 160 Jahre über dem AMO-Index dargestellt. Die relativen Maxima und Minima der beiden Kurven treten zeitgleich auf:

Abb. 1 | AMO-Index und globale Erwärmung

Es ist möglich, eine Sinus-Kurve mit einer Periode von 68 Jahren an den AMO-Index anzupassen. Gleitende Mittel über Perioden des AMO-Index ergeben in erster Näherung Null; d.h. er schwingt zwischen 1860 und heute sehr gleichmäßig.

Periodenmittelwerte

Punkt (2.) der Aussagen der NOAA AOML führen im Zusammenhang mit der offensichtlichen Synchronität der Langfrist-Schwankungen der Temperaturkurve mit der AMO zu folgender Vermutung: Wenn die Temperaturen TCO2(j) die jährlichen Werte der CO2-bedingten globalen Erwärmung beschreiben und TCO2(j) von einer Multidekaden-Schwingung MD(j) mit einer Periode von 68 Jahren überlagert ist, gilt für die gemessenen Temperaturen T(j):

(1) T(j) = TCO2(j) + MD(j)

Mit gleitenden Mitteln über je eine Periode von 68 Jahren – dargestellt durch das Symbol Σ – gilt dann:

(2) Σ T(j) = Σ TCO2(j) + Σ MD(j) = Σ TCO2(j)

Wegen der Gleichmäßigkeit der überlagerten Schwingung (siehe Abb. 1) kann man die Periodenmittelwerte Σ MD(j) = 0 setzen; d.h. durch die Bildung von Perioden­mittel­werten eliminiert man die überlagerte Schwingung, sofern sie gleichmäßig ist. Das kann man ausnutzen, um die Steigung S möglicher funktionaler Zusammenhänge für TCO2(j) zu finden:

(3) TCO2(j) = S * f(j)

Dann gilt

(4) S = Σ TCO2(j) / Σ f(j) = Σ T(j) / Σ f(j)

Funktionen f(j) zur Beschreibung der globalen Erwärmung TCO2(j)

Abb. 2 | IPCC 2013: 1 °C Temperaturerhöhung je 1600 Gt kumulierte CO2-Emissionen

Im IPCC-Report „Climate Change 2013 – The Physical Science Basis“ befindet sich auf Seite 28 ein zu Abb. 2 ähnliches Bild, in dem die Temperatur-Anomalien über den kumulativen CO2-Emissionen m aufgetragen sind. 1600 Gt kumulative CO2-Emissionen haben bisher zu 1 °C Temperatur-Erhöhung geführt. Der IPCC unterstellt, daß man diesen Zusammenhang linear in die Zukunft verlängern kann, daß also je weiterer 1600 Gt CO2-Emissionen ein weiteres Grad Temperaturerhöhung die Folge sein wird:

(5) f(j) = m(j)                        (IPCC)

Eigentlich ist für die Temperaturerhöhung ja nicht die gesamte emittierte CO2-Masse m verantwortlich, sondern nur der Anteil, der in der Atmosphäre verbleibt (die kumulative „Airborne Fraction“) und damit die atmosphärische CO2-Konzentration C(j) erhöht. Bezogen auf die „vorindustrielle“ CO2-Konzentration C0 (=295 ppm; siehe Link) lautet ein alternativer Ansatz also:

(6) f(j) = (C(j) – C0)/C0              (lin)

Mit x = (C(j) – C0)/C0 gilt für kleine x: ln(1+x) ~ x (Abbruch der Taylorreihe vor dem quadratischen Glied). Damit ergibt sich als weitere Möglichkeit für f(j):

(7) f(j) = ln(C(j)/C0)          (log)

Der durch die Zunahme der CO2-Konzentrationen verursachte Strahlungsantrieb ist proportional zu ln(C/C0) und linear mit der Änderung der globalen Gleich­gewichts­temperatur an der Erdoberfläche verknüpft (siehe Wikipedia) – insofern muß Formel (7) ebenfalls als Möglichkeit für f(j) in Betracht gezogen werden.

Berechnung der Steigungen S für die drei Funktions-Alternativen

Abb. 3 | Bestimmung S aus 68-Jahre-Periodenmitteln (je +-34 Jahre für 1927 bis 1984) für die 3 Ansätze T = S*ln(C/C0), T=S*(C-C0)/C0 und (mit S=1/E) T=m/E. Für die jeweils gefundene Steigung wurde T(2018) berechnet mit C=408 ppm bzw. m=1620 Gt CO2.

Der logarithmische Ansatz mit S = 3,05 +- 0,15°C und T(2018) = 0,99 +- 0,05 °C führt zu einem vergleichsweise stabilen Ergebnis, weshalb er im nächsten Abschnitt näher untersucht wird. „Stabil“ soll in diesem Zusammenhang bedeuten, daß sowohl die ermittelte Steigung S als auch die daraus abgeleitete Temperaturvorhersage weitgehend unabhängig vom Zeitraum der betrachteten Perioden von 68 Jahren sind.

Die Steigungen und Vorhersagen der beiden linearen Ansätze sinken im Gegensatz dazu tendenziell mit den Jahren und nähern sich erst mit den letzen (bis nahe 2018 reichenden) Perioden dem vom IPCC angenommenen Wert von 1 °C (bei 1600 Gt Emissionen). Sie machen also umso höhere Vorhersagen, je weiter diese in die Zukunft reichen. Beim Ansatz T = m/E ist der Quotient 1600/E immer größer als 1; für die meisten Jahre sogar > 1,1. Das ist gleichbedeutend mit E < 1455, was dem IPCC-Ansatz T=m/1600 widerspricht.

T = S * ln(C(j)/C0) : Untersuchung des log. Ansatzes

Im Abb. 4 werden die Periodenmittelwerte der Temperatur-Meßwerte mit denen des gefundenen logarithmischen Ansatzes T = 3,05 * ln(C(j)/C0) verglichen, um die Qualität des Ergebnisses beurteilen zu können:

Abb. 4 | Periodenmittelwerte des log. Ansatzes T = 3,05 * ln(C/C0) im Vergleich zu den Periodenmittelwerten der Temperatur-Meßwerte

Man sieht für die Jahre 1930 bis 1975 (d.h. mit Meßwerten zwischen 1897 und 2008) eine sehr gute Übereinstimmung. Die Werte vor 1897 sind ohne Bedeutung, weil es in jener Zeit praktisch noch keine anthropogene globale Erwärmung gab. Die Abweichungen in den beiden letzten Jahrzehnten deuten jedoch darauf hin, daß die überlagerte Oszillation nicht mehr durch die Mittelwertbildung eliminiert wurde, also ihre Gleichmäßigkeit verloren hatte.

Für die Temperatur-Meßwerte gilt nach Formel (1): T(j) = TCO2(j) + MD(j). Also kann man die überlagerte Multidekaden-Schwingung MD(j) durch Differenzbildung mit dem Ansatz TCO2(j) = S * ln(C(j)/C0) berechnen:

(8) MD(j) = T(j) – S * ln(C(j)/C0)           (S = 3,05 °C)

Das Ergebnis wird in Abb. 5 mit den Multidekaden-Schwingungen von Atlantik (AMO) und Pazifik (PDO) verglichen:

Abb. 5 | Vergleich der Multidekaden-Schwingung, die als Differenz von Meßwerten und log. Ansatz entsteht, mit AMO- und PDO-Index

Ergebnisse des Vergleichs:

  • Die gleitenden Periodenmittel ergeben für die Differenzkurve für 1927 bis ca. 1973 eine exakte Null. Das ist genau der Bereich, in dem die beiden Kurven in Abb. 4 praktisch aufeinander liegen.
  • Die negativen Periodenmittel nach 1973 haben ihre Ursache darin, daß die Differenzkurve nach 1995 immer weniger dem AMO-Index und immer mehr dem ins Negative gehenden PDO-Index (auch PMO genannt = „Pazifische Multidekaden Oszillation“) folgt.

Letzteres wurde 2015 von Steinman et al. in der Publikation „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“ beschrieben:

Applying our method to observational surface temperature data, we find that internal variability is likely to have had a substantial influence on multidecadal Northern Hemisphere temperature changes over the historical period, contributing up to 0.15°C peak warming/cooling. The AMO appears to have been influential in the early and middle 20th century, but the PMO has played a more dominant role in recent decades.

Schlußfolgerung: Die Auswertung der Temperatur-Meßwerte mit Hilfe von Periodenmittelwerten führt nur für 1927 bis 1973 (d.h. mit Meßwerten zwischen 1893 und 2006) zu korrekten Ergebnissen.

Optimierung der Parameter des logarithmischen Ansatzes

Mit der Methode der kleinsten Fehlerquadratsumme wird für die Jahre 1930 bis 1973 die in Abb. 4 dargestellte Kurve der Periodenmittel des logarithmischen Ansatzes möglichst gut an die Periodenmittel der Meßwerte angepaßt. Die Resultate der einzelnen Rechnungen werden in Abb. 6 graphisch dargestellt:

Abb. 6 | In den Jahren zwischen 1930 und 1973 wird die Abweichung von Periodenmittelwerten von logarithmischem Ansatz und Temperaturmeßwerten am kleinsten, wenn man mit einer Periode von 68 Jahren rechnet und für die Temperatur ansetzt: T = 3,10 * ln(C/C0)

Ergebnisse:

(9) TCO2(j) = S * ln(C(j)/C0)          mit S = 3,10 +- 0,05 °C

(10) Periode P = 68 +- 2 Jahre

Untersuchung der Parameter der linearen Ansätze

Mit dem Wissen, daß Periodenmittelwerte nach 1973 nicht verwendet werden sollten, wird Abb. 3 erneut gezeichnet:

Abb. 7 | Rechnung wie in Abb. 3, jedoch nur mit Periodenmittelwerten bis 1973. Bei den beiden linearen Ansätzen zeigen die roten Kurven, wie die Steigungen mit den Jahren sinken würden, wenn die Temperaturen streng logarithmisch wüchsen.

Man sieht, daß die für den logarithmischen Ansatz ermittelte Steigung S seit Anfang der 50er Jahre um 3,1 +- 0,05 °C schwankt, so wie es auch mit der Methode der kleinsten Fehlerquadrate ermittelt wurde.

Die beiden linearen Ansätze machen generell zu hohe Temperaturvorhersagen, die umso höher sind, je weiter in die Zukunft extrapoliert wird. Ihre Steigungen sinken mit den Jahren entlang von Kurven, die mit Periodenmittelwerten des logarithmischen Ansatzes (T=3,1*ln(C/C0)) berechenbar sind. Das ist neben der Stabilität des logarithmischen Ansatzes ein weiterer Hinweis darauf, daß der Zusammenhang von CO2-Kon­zen­tra­tion und Temperatur logarithmisch ist.

Ermittlung Temperatur-Meßwerte ohne überlagerte Schwingung

Die in Formel (8) als Differenz von Temperatur-Meßwerten und logarithmischem Ansatz beschriebene Multidekaden-Oszillation („MD-Oszillation“) kann man bis 1995 durch den AMO-Index approximieren (Faktor 0,54) , danach durch den PDO-Index (Faktor 0,51) – siehe Abb. 8:

Abb. 8 | Beschreibung der Differenz aus Temp.-Meßwerten und log. Ansatz – der „MD-Oszillation“ – durch den AMO-Index (bis 1995) und den PDO-Index (ab 1996)

Damit besteht die Möglichkeit, die überlagerte MD-Oszillation von den Temperatur-Meßwerten zu subtrahieren:

Abb. 9 | Temperaturverlauf nach Subtraktion MD-Oszillation: Die über je 15 Punkte geglättete Kurve folgt der logrithmischen Funktion T = 3,1 * ln(C/C0)

Die grüne Kurve in Abb. 9 zeigt das Ergebnis der Subtraktion: Die Langzeit-Schwingung wurde eliminiert, und die Schwankungen der Original-Temperaturkurve (vgl. Abb. 1) sind deutlich kleiner geworden. Die rote Kurve ist eine Glättung der grünen Differenzkurve über je 15 Punkte. Sie verläuft deutlich oberhalb der hellblauen IPCC-Geraden m/1600 und folgt der violetten logarithmischen Kurve T = 3,1 * ln(C/C0). Die subtrahierte (aus AMO und PDO zusammengesetzte) MD-Oszillation wurde gelb über die blaue Kurve gezeichnet, die die Differenz zwischen Temperatur-Meßwerten und dem logarithmischen Ansatz darstellt.

Der logarithmische Zusammenhang zwischen den korrigierten Temperatur-Meßwerten und CO2-Konzentration bzw. kumulierter CO2-Emission wird durch Abb. 9 direkt sichtbar, selbst ohne Glättung der grünen Differenzkurve.

Ergebnis: Mittlere globale Temperaturen bis 2018 als Summe von logarithmischem Ansatz und MD-Oszillation

Abb. 10 zeigt die Überlagerung der logarithmisch von der CO2-Konzentration bestimmten globalen Erwärmung mit der in Abb. 8 definierten MD-Oszillation.

Abb. 10 | Die mittlere globale Temperatur läßt sich als Summe der MD-Oszillation (siehe Abb. 8) und dem logarithmischen Ansatz T = 3,1 * ln(C/C0) beschreiben. Die bis 1995 dominierende AMO wird durch eine Sinus-Schwingung dargestellt.

Ab 1996 wird für die formelmäßige Darstellung des Temperaturverlaufs (gelb) nur der loga­rith­mische Zusammenhang verwendet, wobei klar ist, daß in der Zukunft AMO und PDO weiterhin zu Abweichungen der Tempe­ratur-Meß­werte um +- 0,1 °C von der formel­mäßigen Beschreibung der globalen Erwärmung führen werden.

Bis hierhin wurde gezeigt, daß die (bisherige) globale Erwärmung nicht – wie vom IPCC behauptet – linear mit den kumulativen CO2-Emissionen steigt, sondern logarithmisch in Abhängigkeit von der CO2-Konzentration.

Eine Abschätzung der globalen Erwärmung auf Basis von kumulativen CO2-Emissionen hat allerdings den Vorteil, politisch besser vermittelbar zu sein, weil ohne umständliche Rechnungen sichtbar wird, wieviel CO2 noch emittiert werden darf, um das Überschreiten einer bestimmten – politisch gesetzten – Temperaturgrenze zu vermeiden.

In „Kumulative CO2-Emissionen und globale Erwärmung“ wird gezeigt, daß eine solche Abschätzung der maximal zu erwartenden globalen Erwärmung T nach der Emission von m Gt CO2 als logarithmische Formel dargestellt werden kann:

T <= 2,585 * ln(1+m/3387)

Abb. 10 | Globale Erwärmung als Funktion von kumulativer CO2-Emission – linearer und logarithmischer Ansatz

Veröffentlicht unter Airborne Fraction, AMO, MD-Oszillation, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, vorindustrielle CO2-Konzentration | Kommentare deaktiviert für AMO-Index, CO2-Konzentration und globale Erwärmung

Kumulative CO2-Emissionen und globale Erwärmung

30.04.2020 – In Überarbeitung

siehe

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Im „Summary for Policymakers“ des IPCC-Reports „Climate Change 2013 – The Physical Science Basis“ wird im Abschnitt „E.8 Climate Stabilization, Climate Change Commitment and Irreversibility“ (S. 27) behauptet „Cumulative total emissions of CO2 and global mean surface temperature response are approximately linearly related (see Figure SPM.10)“. Aus dem Bild SPM.10 auf Seite 28 geht hervor, wie der IPCC die glo­ba­le Er­wär­mung T aus den kumulativen CO2-Emissionen m linear abschätzt – siehe Formel (1):

(1) T = m/1600             (IPCC)

Eigentlich ist ja nur die aus Emissionen resultierende CO2-Konzentration die Ursache der Erwärmung; aber auf Seite 1112 des IPCC-Reports wird erläutert:

The simplicity of the concept of a cumulative carbon emission budget makes it attractive for policy.

Gemeint ist damit, daß man mit einer nur von der kumulativen CO2-Emission abhängigen Temperatur-Abschätzung leichter berechnen kann, wieviel „CO2-Budget“ die Welt noch emittieren kann, ehe eine festgelegte Grenze der globalen Erwärmung überschritten wird.

Ergebnisse:

Abb. 1 | Globale Erwärmung als Funktion von kumulativen CO2-Emissionen – IPCC-Ansatz im Vergleich zum logarithmischen Ansatz

Die IPCC-Behauptung

(2) dT/dm = 1/1600 (°/Gt)           (IPCC)

paßt nicht zu den vorhandenen Meßdaten, wie im folgenden gezeigt werden wird.
Eine Abschätzung der globalen Erwärmung T als Funktion der kumulativen CO2-Emissionen m ist aber trotzdem möglich.

Wieder sind Mittelwerte über die Periode (68 Jahre) der den Temperatur-Meßwerten überlagerten Multidekaden-Oszillation hilfreich, um zu zeigen, daß ein logarithmischer Zusammenhang T=a*ln(1+m/b) die globale Erwärmung T mit gleicher Genauigkeit als Funktion der kumulativen Emission m beschreiben kann, wie es mit dem Ansatz T=3,1*ln(C/C0) möglich ist. Als beste Lösung (mit minimalen Abweichungen zwischen Periodenmittelwerten) wird dabei gefunden: a=2,07 °C. Der Wert des Parameters b hängt von a ab, und zwar so, daß für m=1600 Gt gilt:
T(m)=1°C → b = 2576 Gt für a=2,07 °C.

(3) T ~ a * ln(1+(exp(1/a)-1)*m/1600) = a * ln((b+m)/b)

In einem zweiten Schritt wird der Parameter a von Formel (3) so bestimmt, daß die mit Formel (3) berechneten Werte eine Obergrenze für die aus der kumulativen Emission von m Gt resultierende globale Erwärmung darstellen: a = 2,585 °C (→ b = 3387 Gt).

Berechnung der Ableitung dT/dm

In „AMO-Index, CO2-Konzentration und globale Erwärmung“ wurde hergeleitet, daß die bisherige globale Erwärmung der logarithmischen Formel (4) gefolgt ist:

(4) T = S * ln(1+(C-C0)/C0) mit S = 3,10 +- 0,05 °C

Die Temperatur-Meßwerte wurden bis Ende des 20. Jahrhunderts von einer gleichmäßigen und zur AMO synchronen Multidekaden-Schwingung überlagert, die durch die Bildung von Mittelwerten über ihre Periode P von 68 Jahren herausgerechnet werden kann.

Nach einer Emission von m Gt CO2 verbleibt in der Atmosphäre die CO2-Masse mAtm(m), deren Anteil man als kumulierte Airborne Fraction AFkum(m) bezeichnet:

(5) AFkum(m) = mAtm(m) / m

mAtm(m) kann man aus der Konzentrations-Erhöhung (C-C0) durch Umrechnung ppm in Gt ermitteln:

(6) mAtm(m) = (C-C0)/0,128 = m * AFkum(m)

Durch Differenzieren von mAtm(m) erhält man die „Airborne Fraction“ AF(m), d.h. den Anteil, der von einem Emissions-Puls dm (z.B. der Emission eines Jahres) in der Atmosphäre verbleibt:

(7) AF(m) = dmAtm/dm = AFkum(m) + m * dAFkum/dm

Formel (4) kann man unter Anwendung vom Formel (6) umwandeln und anschließend nach m differenzieren:

(8) T = S * ln(1 + 0,128*m*AFkum(m)/C0)

(9) dT/dm = S * C0/C * 0,128/C0 * (AFkum(m) + m * dAFkum/dm )

Durch Kürzen und Einsetzen von Formel (7) in Formel (9) folgt (mit S=3,1 °C):

(10) dT/dm = S * 0,128*AF(m)/C(m)     (°/Gt)

(11) dm/dT = 2,52 * C/AF                         (Gt/°)

Die Konzentration C und die Airborne Fraction AF werden mit Hilfe des Bern Carbon Cycle Modells aus den jährlichen CO2-Emissionen berechnet, so daß Formel (11) graphisch dargestellt werden kann:

Abb. 2 | dm/dT berechnet nach Formel (12) im Vergleich zur numerisch differenzierten Ableitung

Abb. 2 zeigt, daß die blaue Kurve dm/dT mit m ansteigt und ca. 1988 (bei m = 750 Gt) die Gerade dm/dT =1600 Gt/° geschnitten hat. Mittlerweile (m = 1600 Gt) hat dm/dT einen Wert von ca. 2000 Gt/° erreicht. Zusätzlich wurde in Abb. 2 die numerische Ableitung dm/dT eingezeichnet, die aus Abb. 9 in „AMO-Index, CO2-Konzentration und globale Erwärmung“ berechnet wurde: Die geglättete Kurve der um die MD-Oszillation korrigierten Temperaturen wurde mit Hilfe von Ausgleichsgeraden-Steigungen über +-7 Punkte numerisch differenziert. Die Tendenz der grünen numerischen Ableitung entspricht derjenigen der blauen Kurve.

Lineare Näherung für dm/dT

Der bisherige Verlauf von dm/dT laut Abb. 2 scheint linear über m zu sein. Also gilt:

(13) dm/dT = (m+b)/a

Durch die Integration des Kehrwerts dT/dm = a/(m+b) folgt:

(14) T(m) = a * ln(1 + m/b) mit

(15) b=1600/(exp(1/a)-1) (Gt)

Es gilt T(0) = 0 und T(1600) = a*ln(1+exp(1/a)-1) = 1

Analog der Bestimmung der Steigung S für T=S*ln(C/C0) kann der Faktor a mit Hilfe von Periodenmittelwerten bestimmt werden – vgl. Abb. 4 in „AMO-Index, CO2-Konzentration und globale Erwärmung“:

Abb. 3 | Vergleich Periodenmittel der mittl. globalen Temperaturen mit Periodenmitteln des Ansatzes T(m) = a*ln(1+m/b): Beste Anpassung mit 0,00387° mittl. Abw. (Wertebereich 1930-1973) für a=2,07 und b=2576

Abb. 3 zeigt die beste Lösung, die mit Meßwerten zwischen den Jahren 1896 und 2006 (für die eine durchgängig gleichmäßige MD-Oszillation bestanden hat) und daraus berechneten Periodenmitteln zwischen 1930 und 1973 ermittelt wurde. Die mittlere Abweichung der Periodenmittel im betrachteten Wertebereich ist ebenso klein (0,004 °C) wie beim Ansatz T=3,1*ln(C/C0). Die Steigung dm/dT dieser aus den Meßwerten direkt hergeleiteten Formel für T(m) an der Stelle m=1600 Gt beträgt nach Formel (13):

dm/dT(1600) = (1600+2576)/2,07 = 2017  Gt/°

2017 Gt/° liegt deutlich oberhalb des vom IPCC behaupteten Wertes von 1600 Gt/°.

Ermittlung einer unteren Schranke für dm/dT

Formel (11) ist eine theoretisch korrekte Beschreibung von dm/dT auf der Grundlage des logarithmischen Ansatzes (4) für die globale Erwärmung. Der lineare Ansatz für dm/dT nach Formel (13) ist hingegen eine Näherung.

Das Ziel ist, den Parameter a von Formel (13) so zu bestimmen, daß für alle m>0 gilt:

(16) dm/dT = 1/a * (m+1600/(exp(1/a)-1)) < 2,52*C(m)/AF(m)

und zwar so, daß der minimale Abstand zwischen beiden Kurven maximal wird.

Um dm/dT mit Formel (11) abzuschätzen zu können, muß man Näherungen für die Konzentration C(m) und die Airborne Fraction AF(m) ermitteln.

Abb. 4 | lineare Näherungen für C(m) und AF(m)

Eine naheliegende Näherung ist das lineare Fortschreiben der bisher beobachteten Tendenzen von Konzentration und Airborne Fraction über m – siehe Abb. 4:

(17) C(m) = 0,55 * 0,128 * m + 295     (ppm)

(18) AF(m) = 0,55 – m/53300

Damit kann man die beiden in Ungleichung (16) verglichenen Ansätze für dm/dT zeichnen, die Differenz und ihr Minimum bestimmen und den Parameter a von Formel (13) so wählen, daß dieses Minimum maximal wird:

Abb. 5 | Anpassung der linearen Kuve für dm/dT an die theoretische Kurve, so daß der minimale Abstand maximal wird

Zwischen a=2,42 und a=2,72 hat die Differenz 2,52*C/AF – (m+b)/a auf dem betrachteten Wertebereich ein relatives Minimum. Dieses wird für a=2,585 (→ b = 3387 Gt) maximal. Es liegt bei ca. m=700 Gt. Die blaue und die grüne Kurve haben an dieser Stelle die gleiche Steigung 1/a.

Das Ergebnis wird in Abb. 6 gezeigt und mit den mit Formel (11) berechneten dm/dT-Ableitungen verschiedener Szenarien (siehe Link) verglichen:

Abb. 6 | Test der untere Abschätzung dm/dT = (m+3350)/2,055 mit verschiedenen Szenarien

Man sieht, daß die Ableitungen dm/dT der Szenarien bis auf eine Ausnahme oberhalb der gefundenen Geraden (rot gestrichelt) liegen. Die Ausnahme ist das extreme Szenario 8.5, das annimmt, daß die seit ca. 50 Jahren nahezu konstante CO2-Pro-Kopf-Emission von ungefähr 5 t/Jahr bis 2080 auf 8 t/Jahr ansteigt: Zwischen m=2000 und m=4000 liegen die dm/dT-Werte von RCP 8.5 praktisch auf der rot gestrichelten Geraden.

Die hellblaue (durchgezogene) dm/dT-Kurve des „Weiter wie bisher“-Szenarios 9.0 setzt die Tendenz der dunkelblauen aus Meßwerten ermittelten Ableitung fort. In sofern ist es auch verständlich, daß die mit Hilfe von Periodenmitteln gefundene Lösung
T = 2,07 * ln(1+m/2576) (vgl. Abb. 3) exakt den Temperaturverlauf von Szenario 9.0 über m beschreibt.

Obere Schranke für aus m Gt CO2-Emissionen resultierende globale Erwärmung

Die Integration des Kehrwerts der unteren Schranke für dm/dT ergibt nach den Formeln (14) und (15) eine obere Schranke für die aus m Gt CO2-Emissionen resultierende globale Erwärmung T:

(19) T <= a * ln(1+m/b) mit a=2,585 °C und b=3387 Gt.

Anmerkung: Die tatsächlich gemessene mittlere globale Temperatur kann von dem in Formel (19) bestimmten Wert durch Überlagerungen von AMO oder PDO +- 0,1°C und durch die von Jahr zu Jahr zu beobachtenden Schwankungen weitere +-0,15°C abweichen, also bis zu +- 0,25°C.

In Abb. 7 wird geprüft, wie gut die gefundene obere Schranke die bisher beobachtete globale Erwärmung beschreibt:

Abb. 7 | Globale Erwärmung bis 2018 als Funktion von kumulierter Emission m: Vergleich verschiedener Ansätze

Die logarithmischen Kurven liegen alle praktisch übereinander und verlaufen mitten durch die um die MD-Oszillation korrigierten Temperatur-Meßwerte (vgl. Abb. 8 und 9 in „AMO-Index, CO2-Konzentration und globale Erwärmung“).

Ein Vergleich mit den bzgl. verschiedener Szenarien extrapolierten Temperaturen der globalen Erwärmung zeigt, daß man die nach Emission von m Gt CO2 zu erwartende mittlere globale Temperatur gut mit der gefundenen oberen Schranke (Formel (19)) abschätzen kann.

Abb. 8 | Die aus verschiedenen Szenarien resultierende globale Erwärmung mit oberer Abschätzung

Die Temperaturschätzungen weichen umso mehr nach oben ab (bis zu 0,4 °C), je weniger CO2 bis zum Jahr 2100 emittiert werden wird. Der Vorteil der Abschätzung

T = 2,585 * ln(1+m/3387)

besteht darin, kumulierten CO2-Emissionen in einfachster Weise eine resultierende globale Erwärmung zuordnen zu können bzw. umgekehrt aus Abb. 8 ablesen zu können, daß z.B. zur Einhaltung des 2°-Ziels von Paris insgesamt nicht viel mehr als 4000 Gt CO2 – allerhöchstens 5000 Gt – emittiert werden sollten. Selbst Szenario 6.0, das von einer Stabilisierung der jetzigen Verhältnissse ausgeht (d.h. nur noch geringer Weltbevölkerungs-Zuwachs auf maximal 10 Mrd. und gleichbleibende Pro-Kopf-Emissionen von 5 t/Jahr), wird nur zu 2,2 °C Temperaturerhöhung bis 2100 führen.

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Kumulative CO2-Emissionen und globale Erwärmung

Auswertung von Daten der bisherigen globalen Erwärmung und der überlagerten Multidekaden-Oszillation: Logarithmischer Zusammenhang der Temperatur mit der CO2-Konzentration

Hinweis

30.04.2020 Das Anfang 2019 gefundene Ergebnis, daß die mittleren globalen Oberflächen-Temperaturen sich aus dem anthropogenen Anteil 3,1*ln(C/C0) und der überlagerten AMO-Schwingung zusammensetzen, wurde mittlerweile erweitert: Zusätzlich zur AMO beeinflußt der solare deVries/Suess-Zyklus die Temperaturen. Dadurch vermindert sich der anthropogene Anteil auf 2,5*ln(C/C0) – siehe Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Zusammenfassung des Artikels vom 6. März 2019

Im 20. Jahrhundert wurde die mittlere globale Temperatur von einer Multidekaden-Oszillation (kurz: „MD-Oszillation“, Periode 68 +-2 Jahre, Amplitude 0,1 +-0,01°C, positiver Nulldurchgang 1927) überlagert, die bis Ende der 1990er Jahre wesentlich von der Atlantischen Multidekaden Oszillation (AMO) bestimmt war und danach von der PDO (Pazifische Dekaden-Oszillation) dominiert wurde. Die zur AMO synchrone MD-Oszillation kann sowohl durch gleitende Periodenmittel als auch durch Differenzbildung von Temperatur und MD-Oszillation herausgerechnet werden. Beide Methoden zeigen unabhängig voneinander, daß die mittlere globale Temperatur T eine logarithmische Funktion der atmosphärischen CO2-Konzentration ist:

T = S*ln(C/C0) mit S = 3,1 +-0,05 °C

Der Funktionsparameter S erhält mit 60 Jahre alten Daten gleiche Werte wie mit neueren Daten (maximal 5 % Abweichung), so daß eine Vorhersage der Temperatur T(2018) im Jahr 1960 den gleichen Wert erhalten hätte wie z.B. im Jahr 2000, nämlich 1,0 +-0,05 °C. Diese Stabilität ist ein starkes Argument für die Gültigkeit des gefundenen logarithmischen Zusammenhangs und seine Eignung für Extrapolationen.

Die Ableitung dm/dT der kumulierten CO2-Emissionen m nach der Temperatur hat nicht den konstanten Wert 1600 Gt/°, wie vom IPCC behauptet wird, sondern ergibt sich aus dem Quotienten von Konzentration C und Airborne Fraction AF:

dm/dT = 7,814/3,1 * C(m)/AF(m)   Gt/°.

Die Ableitung dm/dT läßt sich durch eine Gerade der Form (m+b)/a approximieren. Durch Integration findet man eine nur von m abhängige Formel zur Beschreibung einer oberen Schranke der globalen Erwärmung T durch kumulative CO2-Emissionen, die an die Stelle des vom IPCC behaupteten Zusammenhangs T=m/1600 tritt:

T <= a * ln(1+m/b) mit a=2,585 und b=3387=1600/(exp(1/a)-1).

Nebenergebnisse der Untersuchungen:

  • Die überlagerte MD-Oszillation schwingt um den 1850-1900-Mittelwert der Temperatur-Meßdaten, den man damit als „vorindustrielle“ Temperatur T0 ansehen kann.
  • C0 = 295 ppm ist als eine sinnvolle „vorindustrielle“ CO2-Konzentration anzusehen, denn niedrigere Werte passen nicht zu den noch sehr niedrigen CO2-Emissionen des 18. und 19. Jahrhunderts.
  • Das TCRE-Konzept des IPCC („Transient Climate Response to cumulative Emissions“), ist mit einem logarithmischen Zusammenhang von Temperatur und CO2-Konzentration nicht vereinbar, denn selbst wenn durch Rückkopplungseffekte höhere CO2-Konzentrationen entstehen würden als vom Bern-CC-Modell vorhergesagt, könnte das nicht zu einem linearen Wachstum der Temperatur als Funktion der kumulierten Emissionen führen.

Einleitung

Abb. 1 | Mittlere globale Temperaturen rel. zu 1850-1900-Mittelwert

Die Kurve der mittleren globalen Temperatur seit 1850 hat einerseits zufällige Schwankungen und ist andererseits offensichtlich von einer Schwingung mit einer Periode von ca. 70 Jahren überlagert, wie das Bild rechts zeigt, bei dem Temperaturen relativ zum 1850-1900-Mittelwert verwendet wurden. Zwischen 1880 und 1910 dürfte die CO2-bedingte globale Erwärmung noch sehr gering gewesen sein, so daß die Null-Linie des Bildes ungefähr der „vorindustriellen“ Temperatur T0 entsprechen sollte.

Abb. 2 | IPCC-Vorhersagen bis 2300: „Global average surface temperature change

In IPCC-Publikationen, in denen Simulationen zukünftiger Entwicklungen im Vordergrund stehen, werden solche „Feinheiten“ bzgl. der Gegenwart nicht beachtet – siehe Abb. 2, publiziert auf Seite 59 des „Climate Change 2014 Synthesis Report“: Die Temperaturen wurden auf einen 1986-2005-Mittelwert bezogen, und die Temperaturkurve von 1900 bis 2005 hat allenfalls etwas mit dem groben Verlauf der gemessenen Temperaturen zu tun.

Auf Seite 297 des 1550-seitigen IPCC-Reports „Climate Change 2013 – The Physical Science Basis“ heißt es: „Since about 1750, the release of CO2 from industrial and agricultural activities has resulted in global average atmospheric CO2 concentrations that have increased from 278 to 390.5 ppm in 2011″.

Der Wert 278 ppm für 1750 ist erstaunlich, denn für das Jahr 1900 wurde über Eisbohrkernmessungen eine CO2-Konzentration von 296 ppm gemesen. Das sind 18 ppm mehr als 1750. Mit dem Umrechnungsfaktor 0,128 sind das 18/0,128 = 141 Gt mehr CO2-Masse in der Atmosphäre als 1750. Emittiert wurden zwischen 1750 und 1900 aber in Summe nur 45 Gt CO2. Wie kamen 100 Gt CO2 zusätzlich in die Atmosphäre?

Kann man ohne ein genaues Verständnis der Gegenwart in Form der vorhandenen Daten der letzten 170 Jahre – z.B. einer Antwort auf die Frage, woher die offensichtlichen Langzeitschwingungen der Temperaturmeßwerte kommen – und der Aufklärung der in den Daten enthaltenen Widersprüche Aussagen über die Zukunft machen?

Idee

Die Idee dieser Publikation ist es, durch Auswertung öffentlich zugänglicher Meßdaten bzgl. CO2-Emissionen, CO2-Konzentration, AMO- und PDO-Index und mittleren globalen Temperaturen die darin enthaltenen Gesetzmäßigkeiten zu erkennen, zu verstehen und entsprechend formelmäßig zu beschreiben, wie der Verlauf der mittleren globalen Temperatur seit 1850 als Überlagerung natürlicher und menschlicher Einwirkung zu erklären ist. Ein wesentlicher Aspekt ist dabei die Überprüfung, wie weit die Formeln, die einerseits die CO2-Konzentration aus CO2-Emissionen und andererseits die mittlere globale Temperatur aus der CO2-Konzentration bestimmen, über die Jahre hinweg stabil waren. „Stabil“ bedeutet dabei, daß die Formelparameter bei ihrer Berechnung mit nur in der Vergangenheit liegenden Meßdaten die gleichen Werte bekommen wie mit späteren oder allen vorhandenen Daten. Eine solche Stabilität erhöht das Vertrauen in die zeitlose Gültigkeit und damit die Extra­pola­tions-Fähig­keit der verwendeten Formeln.

Vorausgesetzt wird die Selbstverständlichkeit, daß die Zukunft betreffende Zusammenhänge auch in der Gegenwart entsprechende Auswirkungen haben und daher anhand von Meßwerten der Gegenwart überprüfbar sind.

Bestimmung der vorindustriellen CO2-Konzentration

Die Kenntnis der vorindustriellen CO2-Konzentration C0 ist wichtig, weil sie den Bezugspunkt für die Berechnung von Veränderungen aufgrund anthropogener CO2-Emissionen darstellt.

Wenn die CO2-Konzentration um 1750 so niedrig war, wie sich aus den Eisbohrkern-Messungen ergibt, muß ihr Anwachsen bis in die zweite Hälfte des 19. Jahrhunderts andere Gründe gehabt haben als industrielle CO2-Emissionen – vgl. Etheridge et al. 1998: „Preindustrial CO2 mixing ratios were in the range 275-284 ppm, with the lower levels during 1550-1800 A.D., probably as a result of colder global climate“.

Sowohl durch Plausibilitäts­betrach­tungen (siehe „Vorindustrielle CO2-Konzentration“) als auch durch Berechnung mit dem „Bern Carbon Cycle Modell“ ergibt sich, daß C0=295 ppm ein sinnvoller Wert ist.

Zusammenhang zwischen CO2-Emissionen und atmosphärischer CO2-Konzentration

Das „Bern Carbon Cycle Modell“ beschreibt den Abbau einer bestimmten CO2-Emission mit den Jahren (und den Jahrhunderten) mit Hilfe einer Summe mehrerer abfallender Exponentialfunktionen mit unterschiedlichen Zeitkonstanten. Pro Jahr kann damit berechnet werden, wieviel von der emittierten CO2-Masse in der Atmosphäre verbleibt. Durch Multiplikation der summierten verbliebenen CO2-Massen mit dem Umrechnungsfaktor 0,128 und der Addition von C0 ergibt sich die resultierende CO2-Konzentration eines bestimmten Jahres.

Mit den von Joos et al. Anfang 1996 publizierten Parametern kann man einerseits mit vorhandenen CO2-Konzentrations-Meßdaten C0 bestimmen und anschließend unter Voraussetzung bekannter bzw. in einem Szenario vorgegebener CO2-Emissionen die CO2-Konzentration zukünftiger Jahre berechnen:

Abb. 3 | Vorhersagen der CO2-Konzentration des Jahres 2018 mit zwei Parametersätzes des Bern-CC-Modells und der Bestimmung von C0 mit Daten der Jahre 1959 bis x (x = 1959 .. 2018)

Bei einer Berechnung von C0 mit Mauna-Loa-Meßdaten (siehe Link) von 1959 bis zum Jahr x und der anschließenden Bestimmung der Konzentration im Jahr 2018 unter Vorgabe der mittlerweile erfolgten jährlichen CO2-Emissionen erhält man zeitlich sehr stabile Ergebnisse, die maximal 2 ppm vom 2018 gemessenen Wert abweichen.

Fazit: Die CO2-Konzentration ist mit dem Bern Carbon Cycle Modell stabil und sehr genau vorhersagbar.

Multidekaden-Oszillation und Bestimmung der vorindustriellen Temperatur

Eine Verminderung der Meßwerte der mittleren globalen Temperatur (siehe Abb. 1) um die durch die steigenden CO2-Konzentrationen bedingten Anteile sollte den Verlauf der globalen Temperatur über der Zeit ohne den Einfluß dieser Temperaturerhöhungen zeigen.

Abb. 4 | Temperatur-Kalibrierung für IPCC-Vorhersagen: 1 °C Erhöhung pro 1600 Gt kumulierte CO2-Emissionen

Die Abb. 4, die auf Seite 63 des „Climate Change 2014 Synthesis Report“ publiziert wurde, zeigt die aktuelle lineare Temperatur-Kalibrierung des IPCC: Pro 1600 Gt kumulativen CO2-Emissionen ergibt sich 1°C Erwärmung. Daraus kann man 3 mögliche (durch Vereinfachungs-Schritte miteinander im Zusammenhang stehende) Formeln ableiten, die bei 1600 Gt kumulierter Emission bzw. 407 ppm CO2-Kon­zen­tration zu einer Temperatur­erhöhung von 1°C führen:

(IPCC )   T(m) = m/1600                 (°C)

(lin)        T(C) = 2,62 * (C – C0)/C0 (°C)

(log)       T(C) = 3,10 * ln(C/C0)      (°C)

m = kumulierte Emissionen (Gt); C = atmosphärische CO2-Konzentration (ppm); die vorindustrielle CO2-Konzentration C0 wird als 295 ppm angesetzt.

Abb. 5 | Multidekaden-Oszillation nach Subtraktion CO2-bedingter Erwärmung von mittl. globaler Temperatur

Abb. 5 zeigt das Ergebnis der Subtraktion CO2-bedingter Erwärmung (in Form der drei theoretischen Ansätze) von den gemessenen mittleren globalen Temperaturen.

Das Ergebnis ist in jedem der 3 Fälle eine Multidekaden-Oszillation (kurz: MD-Oszillation) um die Null-Linie, am perfektesten beim logarithmischen Ansatz (log). Damit ist klar, daß es sich beim 1850-1900-Temperatur-Mittelwert exakt um die „vorindustrielle“ Temperatur T0 handelt.

Atlantische Multidekaden Oszillation (AMO)

Ein Vergleich der gefundenen MD-Oszillation mit der Atlantischen Multidekaden Oszillation (AMO) – siehe Wikipedia – zeigt mit NOAA-ESRL-Meßdaten eine hohe Synchronität:

Abb. 6 | Zwischen 1995 und 2005 verliert die AMO-Schwingung ihre Dominanz, und die MD-Oszillation wird immer mehr von der PDO-Schwingung beeinflußt. Vor 1995 sind MD-Oszillation und AMO synchron und durch eine Sinus-Kurve approximierbar

In einer FAQ-Seite informiert die NOAA AOML Physical Oceanography Division über die AMO und bestätigt damit den in der Abbildung dargestellten Zusammenhang:

  • Die AMO vermindert und erhöht je nach ihrer Phase die Anstiegsrate der anthropogenen globalen Erwärmung.
  • Die AMO ist eine Klima-Oszillation, die in Baumringen und Eisbohrkernen der vergangenen 1000 Jahre beobachtet werden kann, und insofern mit hoher Wahrscheinlichkeit nicht durch menschliche Einwirkung verursacht wurde.

Der größere Einfluß der PDO seit ca. 1995 wurde 2015 in einer Publikation von Steinman et al. beschrieben: „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“ – siehe Kapitel Multidekaden-Oszillation. Seit etwa 2005 wirkt die PDO verstärkt gegen die AMO und vermindert deren Temperatur­erhöhungs­effekte – möglicherweise ein Grund für die Erwärmungspause bis ca. 2014.

Herausrechnen der MD-Oszillation aus den Temperaturmeßdaten durch gleitende Mittelwerte über je eine Periode

Nach dem Herausrechnen der überlagerten MD-Oszillation sollten die Temperatur­meß­daten ausschließlich eine Funktion der CO2-Emissionen bzw. -Konzentrationen sein, so daß die Möglichkeit besteht, den Charakter der funktionalen Abhängigkeit zu ermitteln.

Die roten Kurven in Abb. 5 sind durch Mittelwertbildung über je eine Periode von 68 Jahren entstanden. Das zeigt, daß eine solche Mittelwertbildung nicht nur die Schwingung, sondern auch die zufälligen Schwankungen weitgehend eliminiert, wobei über die Schwingung nur vorausgesetzt wird, daß sie gleichmäßig ist. Wenn man nun aus den zu prüfenden Zusammenhängen (IPCC), (lin) und (log) (s.o.) ebenfalls Kurven gleitender Mittel über 68 Jahre erzeugt und alle Kurven graphisch darstellt, ergibt sich folgendes Bild (Abb. 7):

Abb. 7 | Vergleich der über je eine Schwingungsperiode (68 Jahre) geglätteten Kurven der Temp.-Meßwerte sowie der Ansätze „log“ bzw. „linear“ bzgl. der CO2-Konzentration bzw. linear bzgl. der kumulierten CO2-Emissionen

Im Unterschied zum logarithmischen Ansatz (log) liegen die Kurven (lin) und (IPCC) der beiden linearen Ansätze abseits der Kurve der Meßwerte.

Die rote Kurve der gleitenden Mittel über P = 68 Meßwerte liegt zwischen 1927 und 1973 (d.h. unter Einbeziehung von Meßwerten zwischen 1893 und 2006 fast exakt auf der grünen logarithmischen Kurve T=S*ln(C/C0) mit S=3,10. Die Abweichungen nach 1973 erklären sich durch den wachsenden Einfluß der Pazifischen Dekaden-Oszillation (PDO) seit Anfang der 2000er Jahre, und die Temperaturen vor 1890 waren praktisch noch nicht anthropogen beeinflußt, so daß dieser Kurvenbereich für das Thema „globale Erwärmung“ ohne Bedeutung ist.

Eine Variation der beiden Parameter S und P (siehe Link) zeigt, daß S = 3,10 °C und P = 68 Jahre auf dem Wertebereich 1930 – 1973 zu einer minimalen mittleren Abweichung (+- 0,004 °C) der Periodenmittelwerte von Meßwerten und logarithmischem Ansatz führen.

Da alle 3 Ansätze die allgemeine Form T(j) = S * f(j) haben, gilt

Σ T(j) = S * Σ f(j) (Summierung über je eine Periode von 68 Jahren)

Man kann also die Steigungen der 3 untersuchten Ansätze direkt als Quotient der Mittelwerte über je eine Periode berechnen, wie Abb. 8 zeigt:

Abb. 8 | Aus den Quotienten von Periodenmittelwerten lassen sich die Parameter der theoretischen Ansätze sowie die Temperatur-Vorhersagen für 2018 direkt bestimmen. Bei den beiden linearen Ansätzen zeigen die roten Kurven, wie die Steigungen mit den Jahren sinken würden, wenn die Temperaturen streng logarithmisch wüchsen.

Für den logarithmischen Ansatz ergeben sich für die Jahre 1927 bis 1973 (d.h. mit Meßdaten von 1893 bis 2006) Werte für die Steigung S zwischen 2,9 und 3,2 °C und für die Jahre 1955 – 1973:  S = 3,1 +- 0,05 °C. Mit diesen Steigungswerten werden für 2018 Temperaturen von 1,0 +- 0,05 °C vorhergesagt. Diese Vorhersagen sind für den gesamten Zeitraum stabil – auch mit den Periodenmitteln um 1930 (berechnet aus Werten zwischen 1896 und 1963) wären für 2018 Temperaturen zwischen 0,97 und 1,02 °C ermittelt worden.

Die beiden linearen Ansätze liefern durchweg zu hohe Steigungen und Temperatur-Vorhersagen. Ihre Steigungen (und ihre Vorhersagen) sinken tendenziell mit den Jahren. Die roten Kurven zeigen, daß die Steigungen sogar exakt in dem Maße sinken, wie sie es tun würden, wenn die Temperaturen streng dem Zusammenhang T = 3,1 * ln(C/C0) folgten.

Fazit: Nur der logarithmische Ansatz T = 3,1 * ln(C/C0) bildet die Meßdaten perfekt ab und erlaubt stabile und korrekte Temperaturvorhersagen über Jahrzehnte hinweg.

Ergebnis

Abb. 9 zeigt das gefundene Ergebnis: Die Meßwerte der mittleren globalen Temperatur folgen dem logarithmischen Zusammenhang T = 3,1 * ln(C/C0), der bis mindestens 1995 von einer gleichmäßigen Multidekaden-Oszillation überlagert war.

Abb. 9 | Die mittlere globale Temperatur läßt sich als Summe der MD-Oszillation (siehe Abb. 6) und dem logarithmischen Ansatz T = 3,1 * ln(C/C0) beschreiben. Die bis 1995 dominierende AMO wird durch eine Sinus-Schwingung dargestellt.

Ab 1996 wird für die theoretische Darstellung des Temperaturverlaufs (gelb) nur der loga­rith­mische Zusammenhang verwendet, wobei klar ist, daß in der Zukunft AMO und PDO weiterhin zu Abweichungen der Tempe­ratur-Meß­werte um +- 0,1 °C von der formel­mäßigen Beschreibung der globalen Erwärmung führen werden.

Extrapolation

Extrapolationen in die Zukunft benötigen theoretisch nachvollziehbare Formeln, die die Gegenwart genau beschreiben und durch die Stabilität ihrer Parameter (gegenüber unterschiedlichen zeitlichen Wertebereichen zu ihrer Herleitung) Vertrauen erwecken, extrapolationsfähig zu sein. Als Eingabedaten benötigt man Szenarien, aus denen zu befürchtende, zu erwartende oder anzustrebende CO2-Emissionen hervorgehen.

Mit Hilfe der stabilen, an die vorhandenen Meßdaten angepaßten Ansätze zur Berechnung von CO2-Konzentrationen (Bern-CC-Modell) und Temperaturen (logarithmischer Ansatz) soll für ein „Weiter wie bisher“-Szenario berechnet werden, welche CO2-Kon­zen­trati­o­nen und welche Temperaturen zu erwarten sind.

Seit ca. 1970 liegt die globale Pro-Kopf-CO2-Emission bei 4 bis 5 t/Jahr (siehe Link), und alle 12 Jahre kommen 1 Milliarde Menschen zur Weltbevölkerung hinzu (siehe Link). Ein hier definiertes Szenario „9.0“ unterstellt, daß dies bis 2100 unverändert so weiter geht – siehe Abb. 10.

Abb. 10 | „Weiter wie bisher“-Szenario 9.0 (5 t CO2 pro Kopf und Jahr / alle 12 Jahre 1 Mrd Menschen mehr) – daraus folgende jährliche CO2-Emissionen und mit dem Bern-CC-Modell berechnete CO2-Konzentrationen

Mit Hilfe des gefundenen logarithmischen Zusammenhangs zwischen CO2-Konzentration und Temperatur können den prognostizierten Konzentrationen Temperaturen zugeordnet werden – siehe Abb. 11.

Abb. 11 | Temperaturentwicklung von Szenario 9.0 – aufgetragen über der Zeit und über kumulierten Emissionen

Die Multidekaden-Oszillation wurde der blauen Kurve in Abb. 11 nur bis zum Jahr 1995 überlagert, weil unklar ist, wie AMO und PMO in der Zukunft die mittleren globalen Temperaturen beeinflussen werden. Die tatsächlichen Temperaturen können also in der Zukunft um +-0,1 °C von der gezeichneten Kurve abweichen.

Berechnung von dm/dT (IPCC: dm/dT = 1600 Gt/°)

Rechts in Abb. 11 wurde der Temperaturverlauf entsprechend der IPCC-Darstellung (siehe Abb. 4) über kumulierten CO2-Emissionen m aufgetragen und der IPCC-Ansatz mit seiner Steigung dT/dm = 1° pro 1600 Gt ebenfalls eingezeichnet (gelbe Gerade).

Abb. 12 | Theoretische und numerische Ableitung dm/dT mit einer Abschätzung der Tendenz von dm/dT = 2,52*C/AF. Eine untere Abschätzung ist die Gerade dm/dT = (m+3387)/2,585

An der Abszisse m=1600 Gt hat die logarithmische Kurve, die ja die bisherige globale Erwärmung exakt beschreibt, bereits eine deutlich kleinere Steigung von 1/2000 °/Gt (siehe Abb. 12).

Im Kapitel „dm/dT konstant ?“ wird gezeigt, daß der Steigungs-Kehrwert dm/dT aus CO2-Konzentration C und Airborne Fraction AF berechenbar ist:

dm/dT = 2,52 * C / AF

dm/dT ist keine Konstante, wie Abb. 12 zeigt, und hat den Wert 1600 Gt/° bereits bei m=750 Gt (ca. 1990) überschritten. Der IPCC-Ansatz kann also nicht stimmen.

Abschätzung der globalen Erwärmung T nur aus den kumulierten CO2-Emissionen

Abb. 13 | Temperaturen der Szenarien über der kumulierten CO2-Emission m, ergänzt um die nur von m abhängigen Näherungen T = m/1600 (IPCC) und T <= 2,585 * ln(1+m/3387)

Im Kapitel „dm/dT linear steigend“ wird für verschiedene Szenarien untersucht, wie sich die Konzentration C und die Airborne Fraction AF mit steigenden Emissionen verändern. C steigt in erster Näherung linear mit m, und AF fällt tendenziell linear mit m; dm/dT ist also näherungs­weise ein Quotient aus zwei Geraden, der aber seinerseits durch die Gerade
dm/dT=(m+3387)/2,585 (siehe Abb. 12) nach unten abgeschätzt werden kann.

Durch Integration ergibt sich, daß die Formel T = 2,585 * ln(1+m/3387) die Tendenz der globalen Erwärmung T als Funktion der kumulierten CO2-Emissionen m gut nach oben abschätzt – siehe Abb. 13.

Diskussion der Differenz zur IPCC-Temperatur-Vorhersage

Für das Szenario 9.0 geht aus Abb. 11 eine Temperaturerhöhung von 2,5 °C im Jahr 2100 hervor, während der IPCC-Ansatz auf 3,75 °C = 6000/1600 kommen würde.

Der IPCC-Ansatz wurde 2009 von Matthew et al. im Artikel „The proportionality of global warming to cumulative carbon emissions“ beschrieben, in dem aus „Climate–carbon modelling experiments“ der in Abb. 14 schematisch dargestellte Ansatz hergeleitet wird (siehe CCR bzw. TCRE):

Abb. 14 | Matthew et al. (2009) bezeichnen die Zusammenfassung von „Kohlenstoff-Sensitivität“ und „Klima-Sensitivität“ als „Carbon Climate Response“ (CCR), mittlerweile – auch in IPCC-Publikationen – als „Transient Climate Response to cumulative Emissions“ (TCRE) bekannt (Quelle des Bildes: https://www.cicero.oslo.no/en )

Simulationen, die hier als „Experimente“ bezeichnet werden, haben also laut Matthew gezeigt, daß Rückkopplungseffekte („carbon cycle feedbacks“) – z.B. geringere Absorptionsfähigkeit der Ozeane durch Sättigungseffekte – zu höheren CO2-Konzentrationen führen könnten, als sie vom Bern Carbon Cycle Modell beschrieben werden.

Wenn man als gegeben voraussetzt, daß je 1600 Gt kumulierte CO2-Emissionen zu 1°C Temperaturerhöhung führen und die Temperatur in einem logarithmischen Zusammenhang mit der CO2-Konzentration steht, müßten exponentiell mit der kumulierten Emission m anwachsende CO2-Konzentrationen ausgleichen, daß ln(C/C0) eine Funktion mit immer weiter abfallender Steigung ist. Unter diesen Voraussetzungen kann man berechnen, welche CO2-Konzentration zu einer bestimmten Temperatur gehört:

(1) C = C0 * exp(T/3,1) = C0 * exp(m/1600/3,1) = C0 * exp(m/4960)

Abb. 15 zeigt, daß eine exponentiell anwachsende CO2-Konzentration zu ebenfalls exponentiell wachsenden Airborne Fractions führt (Berechnung: siehe Link).

Abb. 15 | Vergleich der „Airborne Fractions“, die sich einerseits aus mit dem Bern-CC-Modell berechneten Konzentrationen ergeben und andererseits aus dem Ansatz C = C0 * exp(m/4960)

Man sieht, daß die exponentiell wachsenden Airborne Fractions (rot und blau) nichts mit den aus Meßdaten bzw. dem Bern-CC-Modell ermittelten Airborne Fractions zu tun haben: Die Vergangenheit (bis m=1620 Gt) wird nicht abgebildet, und selbst in der nahen Zukunft – z.B. m=2000 Gt – liegt die rote Kurve weit über der grünen (Airborne Fraction) und die blaue über der gelben (kumulative Airborne Fraction), obwohl es kaum vorstellbar ist, daß das bei m = 1600 Gt noch absolut exakte Bern-CC-Modell schon so wenig später in so krasser Form nicht mehr gelten soll.

Bei m=3800 Gt erreicht die Airborne Fraction, die eine lineare Temperaturerhöhung über der kumulierten CO2-Emission m sicherstellt, die 100 % – Linie, was bedeutet, daß alles neu emittierte CO2 komplett in der Atmosphäre verbleibt. Mehr als 100 % können nicht in die Atmosphäre gehen; also muß die rote Kurve ihr starkes Wachstum beenden und auf der 100 % – Linie bleiben. Die blaue Kurve der kumulierten Airborne Fraction muß entsprechend ihren vorherigen Trend verlassen (der ebenfalls die 100 % – Linie geschnitten hätte) und sich einer Sättigung annähern.

Die Folge davon, daß die Airborne Fraction nicht exponentiell über 100 % anwachsen kann, ist eine entsprechend von der Linearität abweichende Temperaturkurve:

Abb. 16 | Wenn gilt T = 3,1*ln(C/C0), folgen alle Temperaturkurven letztlich dem logarithmischen Ansatz, selbst wenn höhere CO2-Konzentrationen als die mit dem Bern-CC-Modell berechneten auftreten sollten

Die rote Kurve in Abb. 16 ist die Folge der bei 100 % abgeschnittenen roten Airborne-Fraction-Kurve in Abb. 15. Wenn man annimmt, daß 100 % Airborne Fraction kaum vorstellbar sind, und die Airborne Fraction auf 70 % begrenzen würde, wäre die gelbe Kurve das Resultat. Die blaue Kurve zeigt den Temperaturverlauf, wenn man die CO2-Konzentrationen mit dem Bern-CC-Modell berechnet und daraus die Temperaturen mit dem logarithmischen Ansatz bestimmt.

Fazit: Auch wenn „Carbon Cycle Feedbacks“ zu höheren CO2-Konzentrationen führen sollten als mit dem Bern-CC-Modell berechnet wird, würden die Temperaturen bei Gültigkeit eines logarithmischen Zusammenhangs von Temperatur und CO2-Konzentration letztlich immer diesem logarithmischen Zusammenhang folgen. Die Richtigkeit der IPCC-Formel T = m/1600 ist daher in der Gegenwart nicht gegeben (siehe oben) und auch für die Zukunft sehr unwahrscheinlich.

Schlußfolgerungen

Es wurde versucht, aus in der Gegenwart vorhandenen Daten Gesetzmäßigkeiten herzuleiten, die die existierenden Zusammenhänge exakt und mit Parametern beschreiben, die während der vergangenen 60 Jahre gültig waren. Die bisherige globale Erwärmung läßt sich mit dem logarithmischen Zusammenhang T = 3,1 * ln(C/C0) beschreiben, und die dafür benötigten CO2-Konzentrationen sind als Resultate des Bern Carbon Cycle Modells berechenbar. Die gemessenen mittleren globalen Oberflächen-Temperaturen ergeben sich durch eine Überlagerung der globalen Erwärmung durch eine von AMO und PDO beeinflußte Multidekaden-Oszillation.

Die Abschätzung T <= 2,585 * ln(1+m/3387) erlaubt es, direkt aus den kumulativen CO2-Emissionen eine obere Schranke für die resultierende globale Erwärmung zu ermitteln.

Das Ergebnis, am Ende des Jahrhunderts mit einer knapp über 2° C liegenden Temperaturerhöhung rechnen zu müssen, bedeutet trotz des vergleichsweise niedrigen Werts, daß man nicht weiter machen sollte wie bisher – aber es besteht kein Grund zu Alarmismus und unüberlegtem Aktionismus.

„Klimaschutz“-Maßnahmen (wie der teure Verzicht auf CO2-Emissionen bei Energie-Gewinnung, Heizung, Verkehr usw.) haben eine ähnliche Problematik wie (einseitige) Abrüstung: Wenn nicht alle mitmachen, schwächt sich derjenige, der in Vorleistung tritt, stärkt damit andere, und für die Welt ist nichts gewonnen. Im Unterschied zum Abrüstungs-Dilemma gibt es jedoch eine Alternative: Verzicht auf CO2-Emissionen nicht als planwirtschaftlich durchgesetzte (Zwangs-)Maßnahme für einzelne Länder – was nichts bringt, weil fossile Energien dadurch für die Länder, die nicht mitmachen, kostengünstiger und noch attraktiver würden -, sondern als Folge einer Verdrängung vom Markt durch die Entwicklung billigerer und emissionsfreier Energie­gewinnungs­verfahren. Der Einsatz finanzieller Mittel für solche Entwicklungen wäre weitaus sinnvoller als die Finanzierung letztlich wirkungslosen und schädlichen Verzichts.

Veröffentlicht unter Airborne Fraction, AMO, Bern Carbon Cycle Modell, CCR, dm/dT, MD-Oszillation, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, PMO, TCRE, vorindustrielle CO2-Konzentration, vorindustrielle Temperatur | Kommentare deaktiviert für Auswertung von Daten der bisherigen globalen Erwärmung und der überlagerten Multidekaden-Oszillation: Logarithmischer Zusammenhang der Temperatur mit der CO2-Konzentration