Biogas gilt als „erneuerbare Energie“ und ermöglicht im Unterschied zu Wind und Photovoltaik eine bedarfsgerechte Stromproduktion – aber ist es wirklich CO2-neutral?

Die Bundesregierung plant im EEG21-Gesetz eine Erhöhung der Energiegewinnung aus Biomasse um ca. 50 % – vor allem in Süddeutschland -, denn Erzeugung von Strom aus Biogas und Bio­me­than sichert die nachfrageorientierte „erneuerbare“ Stromproduktion und ist damit das ideale Backup für die dargebotsabhängige Stromproduktion aus Wind und Sonne und wird künftig durch den Wegfall fossiler und nuklearer Kraftwerkskapazitäten noch wichtiger zur Deckung der Residuallast und für die Gewährleistung der Energieversorgungssicherheit (Kommentar Biogasrat zum EEG21).

Biogas ist jedoch von der Energie- und Treibhausgas-Bilanz her kaum besser als Erdgas (ist also nicht wirklich „erneuerbar“), führt aber zu Landflächenverbrauch (Äcker statt Wälder), Mono­kulturen, dadurch zur Abnahme der Biodiversität und steht in Konkurrenz zur Lebensmittel­produktion. Warum nimmt man dann nicht gleich Erdgas zur Deckung der Grundlast und für die Tage und Nächte, an denen die Sonne nicht scheint und der Wind nicht weht?

Zum 1.1.2021 soll mit dem EEG21 ein grundlegend novelliertes EEG in Kraft treten. Das Gesetzgebungsverfahren in Bundestag und Bundesrat soll bis Ende 2020 abgeschlossen werden. Am 23.9.2020 wurde ein Referentenetwurf für ein Gesetz zur Änderung des EEG und weiterer energierechtlicher Vorschriften publiziert. Interessant sind darin vor allem die weiterführenden Informationen und die Stellungnahmen.

Unter „weiterführende Informationen“ findet sich der Link „Erneuerbare Energien“ mit der folgen­den Grafik, aus der man ablesen kann, dass im Jahr 2017 die Biomasse 46 * 1000 / 8760 = 5,25 GW zur Bruttostromerzeugung beigetragen hat. Im EEG21-Gesetz ist bis 2030 eine erhebliche Erweite­rung auf 8,4 GW vorgesehen, die aufgrund einer „Südquote“ vor allem Süddeutschland betreffen soll.

Die auf 2017 bezogene BMWi-Grafik kann man in folgende Tabelle übersetzen:

Quelle Nennleistung „Wind“ (2017): wind-energie.de
Quelle Nennleistung „Photovoltaik“ (2017) foederal-erneuerbar.de

Biogasrat: Biogas sichert bedarfsgerechte Stromproduktion

Unter „Stellungnahmen“ wurde auf der BMWi-Seite die Stellungnahme EEG21 des Biogasrats mit den folgenden Aussagen publiziert (Seite 5):

f) zu § 100 Abs. 2 Nr. 12 EEG 2021 – Flexibilitätsprämie
Grundsätzlich begrüßt der Biogasrat+ e.V. die Fortführung der Flexibilitätsprämie und Streichung der Deckelung auf 1000 MW für Bestandsanlagen. Die technische Flexibilisierung von Anlagen zur Erzeugung von Strom aus Biogas und Biomethan sichert die nachfrageorientierte, d.h. bedarfsgerechte, erneuerbare Stromproduktion und ist damit das ideale Backup für die dargebotsabhängige Stromproduktion aus Wind und Sonne und wird künftig durch den Wegfall fossiler Kraftwerkskapazitäten noch wichtiger zur Deckung der Residuallast. Aus unserer Sicht ist mit Blick auf den weiteren Zubau fluktuierender, d. h. unflexibler erneuerbarer Energien sowie dem Wegfall fossiler und atomarer Kraftwerkskapazitäten die Förderung der flexiblen Energieversorgung für die Gewährleistung der Energieversorgungssicherheit unverzichtbar. Darüber hinaus begrüßt der Biogasrat+ e.V., dass künftig für die Inanspruchnahme der Flexibilitätsprämie ein echtes Qualitätskriterium eingeführt wird. Gleichwohl verhindert die im Referentenentwurf vorgesehene Regelung eine wirtschaftliche Fahrweise der Gesamtanlage.

Die Biogas-Produzenten formulieren es knallhart: Biogas sichert bedarfsgerechte Stromproduktion und wird nach dem Wegfall fossiler und nuklearer Kraftwerkskapazitäten noch wichtiger zur Deckung der Residuallast – und unverzichtbar für die Energieversorgungssicherheit!

Wie „erneuerbar“ und CO2-neutral ist Bioenergie?

Die selbstbewußten Äußerungen des Biogasrats sind umso bemerkenswerter, wenn man ihnen eine Stellungnahme Bioenergie der Leopoldina von 2013 gegenüberstellt, wo im „Einleitenden Kapitel“ (Seite 5) darauf hingewiesen wird, daß „Bioenergie“ in Wahrheit gar nicht so „erneuerbar“ und CO2-neutral ist:

Bioenergie wird häufig als eine erneuerbare und CO2-neutrale Energie betrachtet, weil bei der Erzeugung von Biomasse durch Photosynthese dieselbe Menge von CO2 assimiliert wird, wie bei der Verbrennung dieser Biomasse als Energiequelle freigesetzt wird; diese Annahme lässt jedoch die folgenden drei wichtigen Tatsachen außer Acht:

(a) Der Kohlenstoff-Kreislauf ist eng mit den Nährstoff-Kreisläufen von Stickstoff, Phosphor, Schwefel und Metallen verknüpft, die alle auch Bestandteile von Biomasse sind, und ist von Wasser abhängig, das bei der Bildung von Biomasse benötigt wird. Wann immer Biomasse erzeugt wird, werden diese Nährstoffe im Boden verbraucht. Wann immer Biomasse wiederholt aus einem Ökosystem entfernt oder deren Bildung durch menschliche Eingriffe beschleunigt wird, müssen diese Nährstoffe durch Düngemittel ersetzt werden. Die Anwendung von stickstoffhaltigen Düngemitteln hat jedoch die Emission von Distickstoffoxid (N2O, Lachgas) zur Folge, das ein viel höheres Erwärmungspotenzial als CO2 hat;

(b) neben den N2O-Emissionen führt die intensive Landwirtschaft fast immer auch zur Emission der Treibhausgase CO2 und Methan (CH4), die als Folge der Landbewirtschaftung, des Einsatzes von Düngemitteln und Pflanzenschutzmitteln (Pestiziden) sowie der Tierhaltung freigesetzt werden. Außerdem müssen die Kohlenstoffkosten der Produktions- und Transformationsprozesse und die damit verbundenen Kosten der Humanressourcen berücksichtigt werden;

(c) es gibt einen dritten Grund, warum die CO2-Fixierung durch Pflanzenwachstum an sich die CO2-Emissionen aus der Verbrennung der geernteten Biomasse nicht kompensiert. Wenn Flächen, die für das Wachstum von Energiepflanzen verwendet werden, nicht für diesen Zweck genutzt würden, dann wären sie schlicht und einfach Wiesen oder Wälder. So entwickeln sich verlassene Ackerflächen häufig in Wald zurück. Wald würde Kohlenstoff aus der Atmosphäre entnehmen und den Kohlenstoffvorrat in Biota und Böden für Jahrzehnte oder Jahrhunderte erhöhen, bis ein neues Gleichgewicht erreicht wird. Diese durch Landnutzungsänderung (LUC, von land use change) verlorene Kohlenstoffbindung kann unter Umständen erheblich sein.

Alle drei Kostenfaktoren und die Folgen für die Umwelt und das Ökosystem sowie die Auswirkungen des großflächigen Anbaus von Biomasse auf die biologische Vielfalt müssen in einer vollständigen Lebenszyklusanalyse/ Ökobilanz (Kapitel 1.7) berücksichtigt werden. In einigen Fällen können diese Kosten die Nettoreduktion von Treibhausgasen bei Verwendung von Biomasse als Energiequelle verringern oder sogar neutralisieren. In diesen Fällen ist Bioenergie weder erneuerbar noch CO2-neutral, stattdessen ist sie unter Energie- und CO2-Emissionsgesichtspunkten negativ zu betrachten.

Prof. Schink/Konstanz, einer der Autoren der Leopoldina-Studie, faßte ihren Inhalt 2015 in Folien zusammen: „Grenzen und Möglichkeiten der Bioenergie„.

Die Leopoldina-Argumente sind nach wie vor aktuell – vgl. t-Online-Artikel „Biogas – wie klimafreundlich ist diese erneuerbare Energie?“ (Juliane Wellisch 29.6.2020).

Im Artikel „Bioenergie“ schrieb das Umweltbundesamt am 26.6.2020 in der Einleitung “ .. kann der Anbau von Biomasse mit vielfältigen negativen Wirkungen auf Mensch und Umwelt verbunden sein“ und wies im folgenden Text unter anderem auf die geringe Flächeneffizienz von Bioenergie hin:

Flächeneffizienz erneuerbarer Energien – Schlusslicht Bioenergie

Beim Vergleich der verschiedenen Techniken zur Nutzung erneuerbaren Energien ist die jeweilige Flächeninanspruchnahme ein wichtiges Kriterium. Denn insbesondere fruchtbare Flächen sind zunehmend knappe Ressourcen mit entsprechendem Konfliktpotenzial. Verschiedene Studien, wie die „Langfristszenarien und Strategien für den Ausbau der erneuerbaren Energien(29.3.2012; Seite 82), haben gezeigt, dass Wind- und Solarenergie der Biomasse in der Flächeneffizienz um ein Vielfaches überlegen sind. Dies gilt auch für die Umwandlung des Wind- und Solarstroms in chemische Energieträger wie Methan oder Wasserstoff. Aufgrund des enormen Flächenbedarfs kann die Anbaubiomasse auch künftig rein rechnerisch nur sehr gering zur Energieversorgung beitragen.

Vergleich Biomethan und Erdgas

In der Dissertation Energie- und Klimaeffizienz von Biogasanlagen mit Biogasaufbereitung und -einspeisung unter Nutzung von Silomais (Bärbel Hundt, 2010, Gießen) werden die in der Leopoldina-Publikation genannten Punkte anhand eines konkreten Beispiels im einzelnen untersucht. Ein wesentliches Ergebnis dieser Arbeit ist, dass die spezifischen Treibhausgasemissionen in einer ähnlichen Größenordnung liegen wie diejenigen erdgasbetriebener Blockheizkraftwerke.

(Dissertation Seite XI) Kurzfassung: Aus Sicht der Energiebilanz schneidet die Anlage dank des umfangreichen Wärmekonzepts gut ab, denn sie erreicht einen Erntefaktor von 4,5, der spezifische kumulierte Energieaufwand beträgt 1,68 MJ/MJEndenergie und die energetische Amortisationszeit liegt bei 4,46 Jahren. Aus Sicht der Treibhausgasbilanz schneidet die Anlage eher schlecht ab, denn die prozentuale Treibhausgaseinsparung beträgt lediglich 46,8 % und die spezifischen Treibhausgasemissionen liegen mit 72,51 g CO2eq/MJ Endenergie in einer ähnlichen Größenordnung wie diejenigen erdgasbetriebener Blockheizkraftwerke. Zu den sensitivsten Parametern in Bezug auf die Energiebilanz zählen der Eigenstromverbrauch der Anlage, insbesondere der Stromverbrauch der Druckwasserwäsche, die Silageverluste und der Methanertrag des Substrates. Die Treibhausgasbilanz wird zusätzlich noch wesentlich von den Parametern „Methanschlupf“, „Lachgasemissionen“ und „Grünlandumbruch“ beeinflusst. Wird der Methanschlupf durch die Abdeckung des Gärrestlagers auf ein Minimum reduziert, kann die Anlage bereits eine Treibhausgaseinsparung von 71,5 % erreichen.

(Dissertation Seite 31 – Stand des Wissens) Den Haupteinfluss (auf den Treibhauseffekt) haben der Anbau der Energiepflanzen sowie die aus der Stickstoffdüngung resultierenden Lachgasemissionen (52 %). Generell schnitt Biomethan bezogen auf die Wirkungskategorie Teibhauseffekt jedoch stets besser ab als Erdgas. Des Weiteren verglichen sie (Studie JURY, ET AL. 2010) die Auswirkungen von Erdgas und Biomethan mit Hilfe der Ecoindikator 99-Methode auf die Kategorien Ökosystem­qualität, Ressourcen­verbrauch, und menschliche Gesundheit.
Biomethan schnitt in den Kategorien Ökosystem­qualität und menschliche Gesundheit deutlich schlechter ab als Erdgas. Lediglich in der Kategorie Ressourcenverbrauch, die üblicherweise nur zu 20 % in die Endgewichtung eingeht, schnitt Biomethan besser ab als Erdgas. Das schlechte Abschneiden von Biomethan ist vor allem auf das hohe Versauerungs- und Eutrophierungspotential des Energiepflanzenanbaus zurückzuführen. Zudem wirkt sich der Flächenverbrauch negativ auf die Ökosystemqualität aus. Zusammenfassend beschrieben, reduziert Biomethan im Vergleich zu Erdgas die Wirkung auf den Treibhauseffekt um 10-20 %, schneidet allerdings bei der Punktebewertung nach der Ecoindikator 99-Methode 1,7 bis 2 mal schlechter ab als Erdgas.

Stickstoffdünger und Lachgas

(Seite 48) Die Düngemittelproduktion – insbesondere die Herstellung von Stickstoffdüngern (mit dem Haber-Bosch-Verfahren – s.u.) – ist sehr energieaufwendig. KONGSHAUG (1998) berechnete, dass die Düngemittelproduktion ca. 1,2 % der weltweit erzeugten Energie verbraucht und zudem für ca. 1,2 % der globalen Treibhausgasemissionen verantwortlich ist.

(Seite 53) Lachgas (N2O) gehört wie CO2, CH4 und H2O-Dampf zu den natürlich vorkommenden klimarelevanten Gasen. Verglichen mit CO2 hat N2O ein 298-mal höheres Treibhauspotential (IPCC 2007), so dass es bereits in geringen Konzentrationen klimawirksam ist. In Deutschland werden jährlich etwa 66,4 Mio. t CO2eq Lachgas emittiert, wobei 81,6 % davon auf die Landwirtschaft zurückzuführen sind (DÖHLER, ET AL. 2008). Global betrachtet werden 60 % aller anthropogenen Lachgasemissionen durch die Landwirtschaft verursacht (SMITH, ET AL. 2007).
Diese durch die Landwirtschaft verursachten Lachgasemissionen stehen in direktem Zusammenhang mit der Menge des applizierten Stickstoffdüngers, denn die Bildung von N2O in Böden findet hauptsächlich bei der mikrobiellen Umsetzung von Stickstoff durch Nitrifikation (unter aeroben Verhältnissen) und Denitrifikation (unter anaeroben Verhältnissen) statt (WILLIAMS, ET AL. 1992). Eine Zufuhr von Stickstoff, ob durch Düngung oder atmosphärischen Eintrag, führt demnach zu einem Anstieg der N2O-Bildung (LEICK 2003).

Stickstoffdünger und Ernährung der Menschheit

(Bild der Wissenschaft, 2010) Seit 100 Jahren sorgt das Haber-Bosch-Verfahren, das aus dem Luftstickstoff (N2) Ammoniak (NH3) produziert (Einsatzstoffe: Stickstoff, Methan und Wasserdampf – Produkte: NH3 und CO2), für eine praktisch unbegrenzte Stickstoffquelle in der Landwirtschaft. Rund 100 Millionen Tonnen derart produzierten chemisch-synthetischen Stickstoffdüngers kommen jährlich weltweit zum Einsatz. 40 Prozent aller Menschen werden heute nur dank „Kunstdünger” satt, kalkuliert Vaclav Smil von der University of Manitoba in Kanada.

Zusammenhang von Stickstoffdünger-Produktion (Haber-Bosch-Verfahren) und Power-To-Gas-Planungen
Quelle „»Sektorkopplung« – Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems“ (Leopoldina, Nov. 2017).

Der Schwachpunkt der dargebotsabhängigen Stromproduktion aus Wind und Sonne ist die Not­wen­digkeit der Energiespeicherung nach der Zerstörung der fossilen und nuklearen Strom­erzeugung, die bisher in Deutschland die Energie­versorgungs­sicherheit garantiert. Dazu Zitate aus der Leopoldina-Studie:

(Seite 67) Die Abtrennung, Aufreinigung und Umwandlung von CO2 zu neuen Substanzen wird als CCU (Carbon Capture and Utilization) bezeichnet. Langfristig könnte auch die Abtrennung von CO2 aus der Luft eine Rolle spielen, was jedoch aufgrund der geringen Konzentration des CO2 in der Atmosphäre (0,04 %) mit einem größeren energetischen Aufwand als die Abtrennung aus konzentrierten Punktquellen verbunden ist.

(Seite 72) Es wird angenommen, dass die einzelnen Branchen zunehmend einen stärkeren Beitrag leisten. Die Ammoniaksynthese trennt ohnehin CO2 ab und erleichtert damit eine Umsetzung von CCU.

Mit anderen Worten: Aus Methan und Wasserdampf gewinnt man Wasserstoff, der mit Stickstoff zu NH3 reagiert. Das dabei entstehende Nebenprodukt CO2 hoher Konzentration wird dann mit elektrolytisch erzeugtem Wasserstoff wieder zu Methan synthetisiert. Warum nimmt man dann nicht gleich den elektrolytisch erzeugten Wasserstoff für das Haber-Bosch-Verfahren?
Weil CCU dann noch unwirtschaftlicher wäre? CO2 ist eben nur ein Spurengas …

Fazit

Dass die Bioenergie-Kapazitäten trotz geringer Flächeneffizienz (vgl. Umweltbundesamt) bis 2030 um 50% erhöht werden sollen, obwohl ihre Treibhausgas-Bilanz kaum besser als die von Erdgas ist, zeigt, daß den Verantwortlichen klar ist, daß Versorgungssicherheit mit den „dargebotsabhängigen“ Stromquellen Sonne und Wind nicht zu garantieren ist und Ersatz für die stillgelegten nuklearen und fossilen Kraftwerke geschaffen werden muß. Die im zitierten Umweltbundesamt-Artikel angesprochene Umwandlung des Wind- und Solarstroms in chemische Energieträger wie Methan oder Wasserstoff (Power-to-Gas) ist theoretisch denkbar, aber zur Zeit ohne großtechnische Bedeutung. Der einzige verfügbare chemische Energieträger, der – zumindest dem Namen nach – als „bio“ und „erneuerbar“ gilt, ist Biogas. Eine Entscheidung für den Ersatz von Biogas durch Erdgas aus Umweltschutz-Gründen käme dem Eingeständnis gleich, daß ein Land wie Deutschland nicht allein durch „erneuerbare“ Energien versorgt werden kann. Offenbar wiegt das bei den politisch Verantwortlichen alle Nachteile der Bioenergie im Vergleich zu Erdgas auf: Flächenverbrauch, Monokulturen, geringere Biodiversität, Konkurrenz zur Lebensmittelproduktion.

Veröffentlicht unter Biogas, CCD (Carbon Capture and Utilazition), dargebotsabhängige Stromquellen, Konkurrenz zur Lebensmittelproduktion. | Verschlagwortet mit | Kommentare deaktiviert für Biogas gilt als „erneuerbare Energie“ und ermöglicht im Unterschied zu Wind und Photovoltaik eine bedarfsgerechte Stromproduktion – aber ist es wirklich CO2-neutral?

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Die Berücksichtigung eines solaren Zyklus, der die mittleren globalen Oberflächen-Temperaturen neben der AMO beeinflußt, führt zu einer sehr guten Reproduktion des bisherigen Temperaturverlaufs mit einer TCR von 1,73°C

Ausgangspunkt der Suche nach einem erweiterten Ansatz ist die Untersuchung der natürlichen Variabilität der mittleren globalen Oberflächen-Temperaturen (GMST), die ein Maß dafür darstellt, wie genau eine formelmäßige Reproduktion der GMST-Daten bestenfalls sein kann: Die natürliche Variabilität der GMST-Daten ist normalverteilt mit einer Standardabweichung σ = ±0,096 °C.

Der Umgang mit der natürlichen Variabilität stellt den entscheidenden Unterschied des Ansatzes dieser Arbeit im Vergleich zum IPCC-Ansatz dar:

  • Die Abstraktion von der natürlichen Variabilität ist die Definition von „Klima“, denn die Variabilität verschwindet weitgehend bei einer Mittelung über 15 oder 30 Jahre. Es wird versucht, den GMST-Verlauf der letzten 170 Jahre durch einen Ansatz zu reproduzieren, der neben einem anthropogenen Anteil (proportional zu ln(C/C0) ) natürliche periodische Einflüsse berücksichtigt wie die AMO und solare Zyklen (siehe Regressionsanalyse). Ein solcher Ansatz ist gut, wenn er physikalisch sinnvoll ist, und vertrauenswürdig, wenn die mittlere Abweichung der Jahrestemperatur-Meßwerte zum Ansatz nicht größer ist als die Standardabweichung der normalverteilten natürlichen Variabilität.
  • Der IPCC setzt für die Reproduktion historischer oder zukünftiger Temperaturen ausschließlich auf Simulationen. Damit wird die Komplexität der realen Welt nicht sinnvoll vereinfacht (Abstraktion durch Verzicht auf Unwesentliches), sondern ihr eine simulierte – nur mit Supercomputern beherrschbare und von Dritten nicht durch­schau­bare – Komplexität ent­ge­gen­ge­stellt, deren Unschärfe mit der chaotischen Natur der Realität entschuldigt wird: „Unsicherheiten bei Klimaprojektionen ergeben sich aus natürlicher Variabilität: Aufgrund der chaotischen Natur des Klimasystems gibt es grundsätzliche Grenzen, wie genau die Jahrestemperaturen projiziert werden können.“
    Diese Antwort auf die FAQ-Frage 1.1 auf S. 140 im IPCC-Report 2013): „Wenn das Verständnis des Klimasystems zugenommen hat, warum konnte die Unschärfe der Tempe­ratur­vorher­sagen nicht reduziert werden?“ führt zu der neuen Frage: „Sollte nicht eigentlich das Klima projiziert werden – und nicht Jahrestemperaturen?“
    Der IPCC hält die Reproduktion natürlicher Variabilität sogar für ein Qua­li­täts­kri­te­rium (siehe S. 824 des IPCC-Reports zum Thema „Evaluation von Modellen“):
    „Eine wichtige Überlegung ist, daß die Modell-Leistung nur relativ zu früheren Beobachtungen bewertet werden kann, wobei die natürliche interne Variabilität berücksichtigt werden muss. Um Vertrauen in die Zukunftsprojektionen solcher Modelle zu haben, müssen das historische Klima – und seine Variabilität und Veränderung – gut simuliert werden.“

Ansatz 2019

Abb. 1 | Zwischen 1930 und 1975 verläuft das Periodenmittel über die Temp-Differenz und 3,1*ln(C/C0) praktisch auf der Null-Linie – davor und danach aber nicht!
Das gleitende Mittel durch die Differenz-Kurve folgt bis ca. 1970 der AMO, weist aber immer kleinere Amplituden auf.

Die Grundidee, natürliche periodische Klimaeinflüsse zu identifizieren, besteht darin, Differenzen von Meßwerten der mittleren globalen Ober­flä­chen-Tem­pe­ra­tu­ren mit Hypothesen vom Verlauf der anthropogenen Erwärmung zu bilden und zu untersuchen. Die 2019 hier publizierte Theorie ging von der Annahme aus, daß der IPCC mit seiner Zuschreibung recht hat, die Klima-Erwärmung um 1°C nach der Emission von 1600 Gt CO2 sei komplett anthropogen. Daraus folgte der loga­rith­mi­sche Ansatz T = 3,1*ln(C/C0).

Abb. 1 zeigt diesen Ansatz. In der ge­glät­te­ten Differenzkurve erkennt man deutlich die überlagerte AMO. Es ist jedoch er­staun­lich, daß diese gegen Ende des 20. Jahrhunderts mit immer kleineren Am­pli­tu­den in Erscheinung tritt, denn die AMO schwingt ganz gleichmäßig (siehe AMO-Index). Eine Publikation von Steinman et al. (2015) erklärte den zurückgehenden Anteil der AMO mit der in einer negativen Phase befindlichen PDO.

Gleitende Mittel über die AMO-Periode von 68 Jahren eliminieren die AMO-Effekte in der Differenzkurve. Wenn dadurch eine Null-Linie entsteht, kann auf Identität zwischen Differenzkurve und AMO geschlossen werden. Die rote Kurve in Abb. 1 verläuft fast auf der Null-Linie (aus heutiger Sicht: jedoch weder vor 1930 noch nach 1975). Das Ignorieren der Abweichungen von der Null-Linie führte 2019 zu der Schlußfolgerung, die mittleren globalen Oberflächentemperaturen seien eine Überlagerung der AMO mit 3,1*ln(C/C0) – zumindest bis Ende des 20. Jahrhunderts. Die mittlere Abweichung der Meßwerte von diesem theoretischen Ansatz lag bei ±0,12°C, also deutlich über der Standardabweichung der natürlichen Variabilität (s.o.).

Verbesserter Ansatz 2020

Die mittlere Abweichung einer guten Theorie sollte der Standardabweichung σ=±0,096°C der normalverteilten natürlichen Variabilität nahe kommen; in diesem Sinne war der Ansatz von 2019 nicht vollständig und daher verbesserungsfähig.

Abb. 2 | Der Ansatz T = 2,5*ln(C/C0) führt dazu, daß das gleitende Mittel der Differenzkurve synchron zur AMO mit gleichbleibender Amplitude schwingt.
Das gleitende Mittel über die AMO-Periode über 68 Jahre hat einen glatten Verlauf exakt auf einem deVries/Suess-Zyklus mit einem Minimum 1880, einer Periode von 208 Jahren und einer Amplitude von 0,07°C

In „Temperatur-Kalibrierung (IPCC 2013)“ wird her­ge­lei­tet, daß der IPCC-Ansatz T = m/1600 bis ca. 1970 mit dem Ansatz T = 2,5*ln(C/C0) nahezu identisch ist, weil für kleine x=(C-C0)/C0 gilt: ln(1+x) ≈ x.

Wie Abb. 2 zeigt, schwingt die Differenz des Ansatzes T = 2,5*ln(C/C0) zu den Meßwerten mit gleichbleibender Amplitude synchron zur AMO, wobei die Schwingung um eine langsam steigende Kurve erfolgt, die als der solare deVries / Suess-Zyklus mit einer Amplitude von 0,07°C, einer Periode von 208 Jahren, einem Minimum um 1880 und einem Maximum um 1985 interpretiert werden kann. Im IPCC-Report 2013 wird ab Seite 392 zu der Frage Stellung genommen „Is the Sun a Major Driver of Recent Changes in Climate?“ und in diesem Zu­sam­men­hang der vom 11jährigen Son­nen­flecken-Zyk­lus überlagerte deVries/Suess-Zyklus als „Solar Component“ in einer Grafik dargestellt – siehe Abb. 3.

Abb. 3 | Quelle: IPCC-Report 2013 „Climate Change 2013 – The Physical Science Basis“, Seite 393 (Abb. FAQ 5.1, Figure 1)
IPCC S. 392: „Ein langsam zunehmender Trend der Sonnenaktivität zu Beginn des 20. Jahrhunderts könnte die in diesem Zeitraum verzeichnete Erwärmung verstärkt haben … Er kann jedoch den beobachteten Anstieg seit Ende der 1970er Jahre nicht erklären, und es gab sogar einen leicht rückläufigen Trend der TSI (Total solar irradiance = Gesamt-Sonneneinstrahlung) von 1986 bis 2008“

Der in Abb. 2 gefundene von der AMO überlagerte Zyklus paßt exakt zu dem in Abb. 3 vom IPCC beschriebenen Kurvenverlauf einer solaren „Komponente“ an der globalen Er­wär­mung – nur mit einer fünfmal so großen Amplitude. Die Theorie von 2019 wird damit um einen solaren Zyklus erweitert. Der neue Ansatz kann die Meßdaten ΔT mit einem mittleren Fehler von ±0,099°C wesentlich exakter be­schreiben (siehe Regressionsanalyse; t=Jahr; C=CO2-Konz.):

ΔT = 0,02 + 0,1*sin(2π/68*(t-1927)) – 0,07*cos(2π/208*(t-1880)) + 2,5*ln(C/C0)

Abb. 4 | Beste Lösung mit deVries/Suess-Zyklus.
Die theoretische Kurve hat ca. 1995 einen Wendepunkt und erklärt mit ihrem seitdem geringeren Wachstum den Hiatus bis ca. 2010

Abb. 4 zeigt, daß theoretische Kurve und gleitendes Mittel über ±7 Jahre sehr gut übereinander liegen, was erklärt, daß der mittlere Approximationsfehler sehr nahe an der mittleren Abweichung der Meßwerte von den geglätteten Werten liegt. Auch die mittleren Abweichungen der Meßwerte von der theoretischen Kurve sind normalverteilt – d.h. beispielsweise Vulkanausbrüche oder El-Niño-Ereignisse sind Teil dieser Zufalls-Schwankungen und müssen nicht gesondert betrachtet werden.

Die Berücksichtigung des solaren Zyklus verringert die Steigung der anthropogenen Komponente von 3,1°C auf 2,5°C; d.h. die TCR sinkt auf 1,73°C für eine Verdoppelung der CO2-Konzentration ab.

Eine Übersicht über alle Ergebnisse findet man unter „Globale Erwärmung“ ; was diese Ergebnisse für Prognosen bedeuten, wird für verschiedene Szenarien unter Extrapolationen dargestellt. Extrapolationen für 3 realistische Szenarien zeigt Abb. 5:

Abb. 5 | Extrapolationen bis 2100 für 3 realistische Szenarien

Die drei für Abb. 5 gewählten Szenarien sind realistisch in dem Sinne, daß keine der drei Szenarien annimmt, den Pro-Kopf-CO2-Ausstoß unter 2,5 t/Jahr drücken zu können. Alle drei Szenarien zeigen bis 2060 einen fast identischen Verlauf. AMO und deVries/Suess-Zyklus werden bis 2045 parallel eine negative Tendenz haben; daher wird die mittlere globale Oberflächentemperatur (GMST) bis dahin kaum ansteigen. Der Tem­pe­ra­tur­an­stieg danach wird von der wieder ansteigenden AMO verstärkt. Das „weiter-wie-bisher“-Szenario 9.0 wird bis 2100 die GMST auf ca. 1,9°C steigen lassen; das IPCC-Szenario RCP 6.0, das auf eine bei 10 Mrd. stagnierende Weltbevölkerung setzt, aber sonst nichts ändert, kommt bis 2100 auf 1,7°C, während das IPCC-Szenario 4.5 maximal 1,5°C erreicht und dafür annimmt, daß die Weltbevölkerung nur bis 9 Mrd. anwächst, und daß es nach 2055 gelingt, die Pro-Kopf-Emissionen von 5 t/Jahr bis 2075 auf 2,5 t/Jahr abzusenken. Alle drei Szenarien halten das ursprüngliche Paris-Ziel einer maximal 2°C betragenden Erhöhung bis 2100 ein.

Veröffentlicht unter AMO, deVries/Suess-Zyklus, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, solarer Zyklus, TCR | Kommentare deaktiviert für Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

EU-Klimaneutralität bis 2050: Soll Deutschland ein einziger Windpark werden?

In der SZ vom 13.12.2019 heißt es unter dem Titel „EU will Klimaneutralität bis 2050 – Polen noch nicht“:
Am frühen Morgen haben sich die Staats- und Regierungschefs der EU auf einen Kompromiss geeinigt, wie die EU bis 2050 klimaneutral werden soll.
Um dieses Ziel zu erreichen, ist ein kompletter Umbau von Energieversorgung, Industrie, Verkehr und Landwirtschaft notwendig.

Wie ein kompletter Umbau aller Sektoren aussehen könnte und was das im Einzelnen bedeuten würde, wird in der Leopoldina-Analyse vom November 2017 untersucht:
»Sektorkopplung« – Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems.
Im „Fazit“ auf Seite 145 der Analyse wird gefolgert (Punkte 3 und 4):

  1. Wenn die ehrgeizigen, zuletzt in Paris international vereinbarten Klimaziele erreicht werden sollen, muss der Ausbau der erneuerbaren Energien Windkraft und Photovoltaik stark erhöht werden. Je nach Reduktionszielen ist eine bis zu siebenfache Steigerung erforderlich. Die damit und mit dem korrelierten Ausbau der Stromnetze verknüpften Akzeptanzprobleme stellen eine große Herausforderung an die Politik dar.
  2. Lediglich eine drastische Senkung des Energieverbrauchs durch Erhöhung der Effizienz und durch Einsparungen, eine verstärkte Nutzung weiterer erneuerbarer Energien wie Biomasse, Solarthermie und Geothermie sowie der Import erneuerbarer, synthetischer Brenn- und Kraftstoffe kann den genannten Ausbaubedarf an Windkraft und Photovoltaik signifikant verringern helfen. Allerdings sind in den nächsten drei Jahrzehnten dazu wesentlich größere Fortschritte erforderlich als bisher.

Der gegenwärtige jährliche Primärenergieverbrauch Deutschlands liegt bei 3600 .. 4000 TWh und der Endenergieverbrauch bei 2500 .. 2700 TWh, wie man einer Grafik auf Seite 24 der Leopoldina-Analyse entnehmen kann.

Bisher (Ende 2018) werden in Deutschland 29.200 Windenergieanlagen (WEA) mit einer Nennleistung von 53 GW betrieben, die jährlich ca. 100 TWh erzeugen; das sind 4 % des jetzigen End­energie­verbrauchs (Quelle: Deutsche Windgard – Status des Windenergieausbaus in Deutschland – Erstes Halbjahr 2019).
Die tatsächlich erbrachte Leistung der bisher installierten Windenergieanlagen betrug 2018 ca. 100 TWh/Jahr = 100/8760 TWh/h = 11,4 GW. Das sind 21,5 % der Nennleistung von 53 GW.

Eine Versiebenfachung würde die Anzahl der Windräder von bisher ca. 30.000 auf ca. 210.000 erhöhen. Laut der Bundesumweltamt-Publikation „Potential der Windenergie an Land“ (2013) haben moderne Schwachwindanlagen einen Rotordurchmesser von 114 m, sind insgesamt 197 m hoch, und die Nennleistung beträgt 3,2 MW.

Zum Abstand der Windenergieanlagen (WEA) untereinander steht in dieser Publikation:
Für den Abstand der WEA zueinander wurde als gängiger Wert aus der Praxis der 5-fache Rotordurchmesser in Hauptwindrichtung und 3-fache Rotordurchmesser in
Nebenwindrichtung angenommen. Da die Hauptwindrichtung nicht in die Simulationsrechnungen eingeht, wurde hier vereinfachend von einem radialen Anlagenabstand in Höhe des 4-fachen Rotordurchmessers ausgegangen. Maßgeblich bei der Platzierung ist hierbei der Rotordurchmesser der Schwachwindanlage. Der radiale Anlagenabstand beträgt damit 456 m.

Im Unterschied dazu kommt eine Untersuchung der Johns Hopkins University „Better turbine spacing for large wind farms.“ (ScienceDaily 2011) zum Ergebnis, daß der Abstand zweier Windturbinen in großen Windparks vom 7-fachen auf das 15-fache des Rotordurchmessers erhöht werden sollte, um eine möglichst große Effizienz zu erzielen. Bei einem Rotordurchmesser von 114 m wären das Abstände zwischen 800 m und 1710 m. Für den Flächenbedarf pro Windrad kommt man damit auf Werte zwischen 0,64 km² und 2,29 km².

Deutschland hat laut der Schrift des Umweltbundesamtes „Flächennutzung in Deutschland“ eine Fläche von 357.582 km²“, von der 13,9 % Siedlungs- und Verkehrsfläche sind, sowie 2,3 % Wasserfläche (Stand Ende 2018). Wenn man Deutschland als einen einzigen Windpark ansieht, bleibt eine für WEA nutzbare Fläche von 83,8 %, also 299.654 km², auf der trotzdem nur die Hälfte des jetzigen Endenergieverbrauchs erzeugt werden könnte:

Beim Einsatz von 210.000 WEA bietet der „Windpark Deutschland“ maximal 1,427 km² Fläche pro Windrad. Zwei Windräder könnten damit höchstens 1195 m, also ungefähr das 10fache des Rotordurchmessers voneinander entfernt stehen. Wenn man annimmt, daß sie wie bisher 21,5 % ihrer Nennleistung erbringen, kommt man auf eine Jahres-Gesamtleistung von 210.000 * 3,2 * 0,215 MW = 144,5 GW = 1266 TWh/Jahr – also nur auf die Hälfte des jetzigen Endenergieverbrauchs. Das erklärt das oben zitierte Fazit Nr. 4 der Sektorkopplungsanalyse, daß neben einer drastischen Senkung des Energieverbrauchs weitere erneuerbare Energien sowie der Import synthetischer Kraftstoffe notwendig wären, um die CO2-Reduktionsziele zu erreichen.

Das Ziel, 2050 über 210.000 WEA zu verfügen, ist nicht nur wegen der fehlenden Akzeptanz durch die Bevölkerung eine große „Herausforderung“ (s.o.), sondern auch durch die Notwendigkeit, dafür an jedem Tag der nächsten 30 Jahre 19 neue Windräder in Betrieb nehmen zu müssen. Weiterhin müßte geklärt werden, auf welche Weise und um welchen Preis der deutsche Energieverbrauch drastisch gesenkt werden kann. Und auch der Aufbau weiterer großer Kapazitäten für regenerative Energien sowie einer daran angeschlossenen Produktion großer Mengen von synthetischen Kraftstoffen im Ausland (wo? – reicht es, wenn nur Deutschland „klimaneutral“ wird?) müßte realisiert und finanziert werden. Ob all das möglich ist, ist zwar sehr zweifelhaft, gehört aber nicht zur Thematik dieses Artikels; ebensowenig das Thema „Energiespeicherung“ (mit dadurch verursachten hohen Umwandlungsverlusten), das mit fluktuierenden Energiequellen unweigerlich verbunden ist.

Bei der Planung der Energiewende geht die Politik in jeder Beziehung an die Grenzen des Möglichen, des Bezahlbaren, des Akzeptablen und des Verantwortbaren. Stefan Aust sprach in einem „Welt“-Kommentar vom 25.1.2020 vom „Luftreich der Träume“, die FAZ titelt am 15.8.2020 „Fehlende Netze, fehlende Speicher, teurer Strom – bei der deutschen Energiewende hakt es an allen Ecken und Enden“.

Begrenzt wird die Möglichkeit der Nutzbarmachung von Sonnenenergie (in der Form von Wind und Photovoltaik) nicht nur durch die Fläche Deutschlands, sondern auch durch die Endlichkeit der Ressource „Windkraft“, von der auf die nicht besiedelten Flächen Deutschlands maximal ca. 1344 TWh/Jahr entfallen – siehe Überschlagsrechnung in „Wieviel Windenergie ist für die Welt (und für Deutschland) verfügbar?“.

Die oben als 1266 TWh/Jahr berechnete effektive Leistung von 210.000 Wind­energie­anlagen mit je 3,2 MW Nennleistung liegt bereits bei ca. 94 % der maximal extrahierbaren Windkraft. Dem Wind würde damit fast seine gesamte Energie entzogen, was unvermeidlich klimatische Auswirkungen auf den „Windpark Deutschland“ und die in ihm lebenden Menschen hätte.

Zu ähnlichen Ergebnissen kommt die Publizistin Cora Stephan in ihrem NDR-Info-Kommentar „Das Dilemma mit der Atomkraft: Atomkraftwerke einfach abzuschalten und auf Windenergie zu setzen, löst keine Probleme, sondern schafft neue“ (5.1.2020).

Sie schreibt unter anderem:

  • Der Anteil von Windkraft und Fotovoltaik an der Primärenergie ist beinahe zu vernachlässigen, wie eine Studie im Auftrag der Bundesregierung ermittelt hat (4 % – siehe oben). Wie kann man angesichts dessen nicht nur aus der Atomkraft, sondern auch noch aus Kohle- und Gasverstromung aussteigen wollen – und zugleich auf Elektromobilität setzen?
  • Soll die dafür nötige zusätzliche Energie im Lande selbst erzeugt werden, müsste man ganz Deutschland mit Windkraftanlagen zubauen, im Abstand von schätzungsweise 1,5 Kilometern (vgl. Rechnung oben).
  • Und wie steht es mit den Unmengen von Beton, mit denen man die Giganten im Boden verankern muss? Einst war die Versiegelung von Böden ein Thema, heute spricht davon keiner mehr. Dabei untersuchen Wissenschaftler, welchen Einfluss Windkraftanlagen auf Windströme und Wolkenbildung haben und ob sie womöglich zu Erwärmung und Trockenheit beitragen (siehe oben).
  • Sollte es nicht selbstverständlich sein, dass man jeden Eingriff in die Natur auf seine Wirkung hin untersucht? Schließlich: Dass auf diese Weise „sauberer“ Strom erzeugt würde, erweist sich als pure Behauptung, rechnet man die Entstehungs- und Entsorgungskosten mit ein. CO2-frei ist da gar nichts.
  • Die Anhänger der sogenannten Energiewende argumentieren gerne mit der Vorbildfunktion Deutschlands. Ich fürchte, wir sind eher ein abschreckendes Beispiel. Der deutsche Alleingang bewirkt weltweit rein gar nichts. Was wir an CO2 einsparen, pusten stattdessen andere Länder in die Luft (siehe Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?)
Veröffentlicht unter Energiebedarf, Windenergie | Kommentare deaktiviert für EU-Klimaneutralität bis 2050: Soll Deutschland ein einziger Windpark werden?

Wieviel Windenergie ist für die Welt (und für Deutschland) verfügbar?

In ihrem Artikel „Estimating maximum global land surface wind power extractablility and associated climatic consequences“ (Max Planck Institut für Biogeochemie in Jena, 2011) weisen L.M. Miller et al. darauf hin, daß Windenergie letztlich Sonnenenergie ist und nicht in unendlichem Ausmaß zur Verfügung steht. Mit einer Überschlagsrechnung kommen sie zum Ergebnis, daß über der nicht vereisten Landfläche der Erde maximal 68 TW an Windenergie extrahierbar ist. Das entspricht ca. 600.000 TWh/Jahr.
Mark Z. Jacobson führt in einem 2019 unter stanford.edu publizierten Artikel „World Saturation Wind Power Potential“ einen Grenzwert SWPP (saturation wind power potential) ein, der dadurch definiert ist, daß durch Hinzufügen einer weiteren Wind-Turbine weltweit keine zusätzliche kinetische Energie mehr extrahiert werden kann. Sein Ergebnis: Land-SWPP = 72 TW. Das entspricht in der Größenordnung dem von Miller et al. berechneten Wert von 68 TW.

Plausibilitätsbetrachtung zur Bestimmung der Fläche pro Windrad
Die eisfreie Landfläche (mit Flüssen und Seen) der Erde ist 134.000 * 10³ km² groß (laut Online-Handbuch Demografie (Berlin-Institut) ).
Mit den Daten aus dem Artikel „Soll Deutschland ein einziger Windpark werden?“ bzgl. aktueller Windenergieanlagen (WEA) ist die folgende Berechnung möglich:

  • Rotordurchmesser: 114 m
  • Abstand zweier WEA = 10facher Rotordurchmesser = 1140 m
  • Fläche pro WEA = 1,3 km² = 1,14² km²
  • Nennleistung: 3,2 MW
  • effektive Leistung über 1 Jahr Betrieb = 3,2 * 0,215 = 0,688 MW
  • Max.-Anzahl WEA (Landfläche der Erde) = 134.000 * 10³ / 1,3 = 103.077 * 10³
  • effektive Leistung = 103.000 * 10³ * 0,688 MW = 71 TW

Mit einem Abstand des 10fachen Rotordurchmessers würden 100 Millionen Wind-Turbinen der oben beschriebenen Bauart die gesamte verfügbare kinetische Energie der Atmosphäre extrahieren (vgl. „Better turbine spacing for large wind farms“, 2011).

Deutschland hat eine Fläche von 360.000 km², ohne besiedelte Flächen 300.000 km².
Der Anteil Deutschlands ohne besiedelte Flächen an der eisfreien Landfläche der Erde liegt bei 0,224 % = 300/134.000.
Bei angenommener Gleichverteilung der extrahierbaren Windenergie entfallen auf die nicht besiedelte Fläche Deutschlands also maximal 600.000 * 0,00224 = 1344 TWh/Jahr. Die 1266 TWh/Jahr, die man entsprechend der Berechnung in „Soll Deutschland ein einziger Windpark werden?“ mit 210.000 WEA in Deutschland an Windenergie gewinnen könnte, sind 94 % von 1344 TWh/Jahr (und nur die Hälfte des derzeitigen Endenergieverbrauchs). Mit einer so hohen Wind­energie­nutzung würde man fast die gesamte kinetische Energie aus der Atmosphäre über Deutschland entfernen und damit unweigerlich das Klima beeinflussen. Schon aus diesem Grund verbieten sich so hohe Anteile der Windenergienutzung – abgesehen davon, daß man das ganze Land in einen Windpark verwandeln würde.

Fazit: Deutschland hat mit seiner dichten Besiedlung einen zu hohen Energiebedarf, als daß dieser überwiegend aus Windkraft gewonnen werden könnte.

In Deutschland leben 1,0 % der Weltbevölkerung. Mit einem Primärenergiebedarf von ca. 0,45 TW hat Deutschland einen Anteil von ca. 2,4 % am Weltenergiebedarf von derzeit ca. 19 TW (siehe Abb. 2). Da CO2-Emissionsvermeidung allein in Deutschland wegen des ge­rin­gen deutschen Anteils sinnlos ist, muß man untersuchen, ob Windenergie im Welt­maß­stab die Haupt-Energiequelle sein kann. Windenergie wird in den folgenden Überlegungen ebenfalls als „Primärenergie“ verstanden, weil infolge von Verlusten bei Speicherung und bei zwingend notwendigen „Power-to-Gas“-Umwandlungen die zur Verfügung stehende Endenergie deutlich kleiner als die ursprünglich erzeugte (Primär-) Energie sein wird.

Die benötigten Daten findet man in den „Our World in Data“-Grafiken Primary Energy Consumption by Region und World Population by Region sowie in der Abbildung zum Thema „Wachstum der Weltbevölkerung“ im Artikel „Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?„.

Abb. 1 – Die alten Industrieländer Europa und Nordamerika hatten in den 50 Jahren zwischen 1970 und 2020 einen Primärenergiebedarf von ca. 6 TW (blaue Kurve). Der Welt-Energiebedarf liegt jetzt bei knapp 20 TW und wird bis 2050 auf knapp 30 TW wachsen (gelbe Kurve), wobei das Wachstum ausschließlich bei der immer bevölkerungsreicheren „übrigen Welt“ liegt (rote Kurve)
(in allen Kurven wurde die Tendenz zwischen 2000 und 2018 linear extrapoliert)

Abb. 1 zeigt, daß der Welt-Bedarf an Primärenergie bis 2050 auf fast 30 TW steigen könnte; das sind über 40 % der maximal zur Verfügung stehenden Windenergie von 68 TW. Für die Erzeugung von 30 TW würde man 43,6 Millionen Windräder mit 3,2 MW Nennleistung und 0,688 = 0,215 * 3,2 MW mittlerer Leistung benötigen. Wenn man einen  10fachen Rotor-Durchmesser-Abstand der WEA ansetzt (siehe oben), werden pro Windrad 1,3 km² Fläche benötigt, so daß 42 % der Landfläche der Erde (0,42 = 43,6*1,3/134) zu Windparks würden.

Auch im Welt-Maßstab ist es deshalb kaum vertretbar, einen großen Teil (fast die Hälfte) der Landfläche der Erde mit Windrädern zu bedecken sowie darüber hinaus fast die Hälfte der Windenergie aus dem Erd-System zu extrahieren, denn das wird mit hoher Wahrscheinlichkeit seinerseits das Klima beeinflussen.

Abb. 2 – Umrechnung von Abb. 1 in einen Pro-Kopf-Energiebedarf.
Probe: Die blaue Kurve liegt 2020 auf 5,7 kW. Für Deutschland mit seinen 80 Millionen Einwohnern ergibt sich folgende Schätzung für 2020:
Primärenergiebedarf = 5,7 * 80 = 456 GW
Jährlicher Primärenergieverbrauch = 0,456 * 8760 = 3995 TWh

Abb. 2 zeigt den Pro-Kopf-Energiebedarf in der Einheit kW = kWh pro Stunde. Dieser liegt im Jahr 2020 in den alten Industrieländern (Europa und Nordamerika) bei 5,7 kW (blaue Kurve), in der übrigen Welt bei 2 kW (rote Kurve) und im Mittel bei 2,5 kW (gelbe Kurve). Gelbe und Rote Kurve liegen dicht beieinander, da in der „übrigen Welt“ zur Zeit ca. 7 mal mehr Menschen leben (mit steigender Tendenz) als in den alten Industrieländern.

Eine „drastische Senkung des Energieverbrauchs“, wie sie in einer 2017 erschienenen Analyse der Leopoldina gefordert wird (siehe „Soll Deutschland ein einziger Windpark werden?“), in den Industrieländern Europas und Nordamerikas würde fast nichts daran ändern, daß weltweit pro Mensch im Mittel 2 bis 2,5 kW Energie benötigt werden – mit steigender Tendenz -, so daß der Welt-Primärenergiebedarf selbst bei „Sparmaßnahmen“ der alten Industrieländer weiter steigen und spätestens 2100 30 TW erreichen wird.
Das entspricht den Überlegungen bzgl. CO2-Emissionsverminderung im Artikel „Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?“, die zum Schluß kommen, daß die alten Industrieländer aufgrund ihrer geringen und stagnierenden Einwohnerzahl im Weltmaßstab immer weniger Bedeutung haben, so daß dort umgesetzte (Spar-)Maßnahmen nur geringe Wirkung auf die ganze Welt haben.

Aus Wind kann pro Kopf immer weniger Energie maximal extrahiert werden, je mehr Menschen auf der Erde leben (grüne Kurve). Die Kurven der Abb. 2 zeigen, daß die weltweit benötigte Energie dieselbe Größenordnung hat wie die maximal zur Verfügung stehende Windenergie, und daß der Abstand zwischen Energie-Bedarf und Windenergie-Angebot immer kleiner wird, je mehr Menschen es auf der Erde gibt, die alle in Wohlstand – d.h. mit höherem Energiebedarf – leben wollen.

Schlußfolgerung: Maximale Nutzung der Windenergie würde große Teile der Welt verunstalten (in eine Industrielandschaft verwandeln) und ihrerseits das Klima verändern, da die kinetische Energie der Atmosphäre deutlich vermindert wird. In dicht besiedelten Ländern wie Deutschland könnte der Energiebedarf trotzdem noch nicht einmal zur Hälfte befriedigt werden. Windenergie ist nicht die Lösung der Herausforderung, die auf der Welt lebenden Menschen ausreichend, zuverlässig, kostengünstig und ohne massive Auswirkungen auf die Umwelt mit Energie zu versorgen.

Veröffentlicht unter Energiebedarf, Weltbevölkerung, Windenergie | Kommentare deaktiviert für Wieviel Windenergie ist für die Welt (und für Deutschland) verfügbar?

Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?

Es wird untersucht, welchen Effekt die geplanten Maßnahmen zur „Klimaneutralität“ in Europa haben können, wobei unterstellt wird, daß ganz Europa (also nicht nur die EU-28) und Nordamerika mitmachen.

Die alten Industrieländer in Europa und Nordamerika (USA und Kanada) werden zur Zeit von ca. 1 Milliarde Menschen bewohnt, ungefähr einem Achtel der fast 8 Milliarden Menschen, die zur Zeit die Erde bevölkern. Der Bevölkerungszuwachs von ca. 80 Millionen Menschen pro Jahr findet nicht in Europa und Nordamerika statt, sondern in der übrigen Welt: Asien, Afrika und Südamerika:

Abb. 1 | Wachstum der Weltbevölkerung

Abb. 1 zeigt, daß 2050 ca. 10 Milliarden Menschen auf der Welt leben werden, jedoch nur noch ein Zehntel davon in Europa und Nordamerika, wo das Bevölkerungswachstum praktisch zum Erliegen gekommen ist (Quelle: „Our World in Data“-Grafik „World Population by Region“ ).

Die Einwohner Europas und Nordamerikas haben zur Zeit zwar eine Pro-Kopf-Emission von ca. 10 t CO2 pro Jahr, die mehr als doppelt so hoch ist wie in der übrigen Welt (ca. 4 t pro Jahr) – aber aufgrund ihres geringen Anteils an der Weltbevölkerung spielt das fast überhaupt keine Rolle (Quelle: „Our World in Data“-Grafik „Annual Total CO2-Emissions, by World Region“ ).

Abb. 2 zeigt, daß die Pro-Kopf-Emissionen der Welt selbst dann die Größenordnung 4 t pro Jahr behalten würden, wenn die 1 Milliarde Einwohner Europas und Nordamerikas ab dem 1.1.2020 kein CO2 mehr emittieren würden. Diese extreme Annahme wird gemacht, um eine untere Grenze für die aufgrund von „Klimaschutz“-Maßnahmen zu erwartenden Effekte zu berechnen.

Abb. 2 | Pro-Kopf-CO2-Emissionen unter der Annahme, daß die Emissionen Europas und Nordamerikas ab dem 1.1.2020 auf Null zurückgehen

In Abb. 2 wird angenommen, daß Europa und Nordamerika ab 2020 kein CO2 mehr emittieren, während die mittleren Pro-Kopf-Emissionen der übrigen Welt konstant bei 4 t/Jahr bleiben. Daß die Pro-Kopf-CO2-Emissionen dieser Länder wieder sinken, ist un­wahr­schein­lich, denn die Einwohner dieser Länder wollen ihren Lebensstandard steigern und haben kein Geld für teure „Transformations“-Maßnahmen, wie Deutschland sie sich leistet.
Die übrige Welt würde also 2020 weiterhin pro Jahr 7 * 4 Gt CO2 emittieren und diese Emissionen aufgrund ihrer linearen Vermehrungsrate von ca. 80 Millionen pro Jahr bis 2050 auf 9 * 4 Gt/Jahr steigern – den jetzigen Wert der jährlichen Welt-CO2-Emissionen.

Abb. 3 | Entwicklung der jährlichen CO2-Emissionen der Welt nach einer CO2-Neutralität Europas und Nordamerikas ab 2020

Abb. 3 zeigt, wie die Welt-CO2-Emissionen nach einem angenommenen Rückgang von 38 auf 28 Gt/Jahr im Jahr 2020 innerhalb von 30 Jahren aufgrund der in dieser Zeit um 2,5 Milliarden gewachsenen Weltbevölkerung wieder die jetzige Größenordnung annehmen würden. Ein ähnliches Bild für die Jahre 1990-2019 wurde im Februar 2020 von der IEA (Paris) veröffentlicht: Energy related CO2 emissions, 1990-2019. Auch diese Auswertung zeigt, daß die Emissionen der entwickelten Länder bei ca. 12 Gt/Jahr stagnieren, während die Emissionen der restlichen Welt Jahr für Jahr steigen.

Die atmosphärische CO2-Konzentration – berechnet aus den jährlichen Emissionen mit dem Bern Carbon Cycle Modell – würde nach 2020 auch ohne die Emissionen der alten Industrieländer weiter wachsen, nur etwas weniger schnell:

Abb. 4 | Atmosphärische CO2-Konzentration mit und ohne „CO2-Neutralität“ Europas und Nordamerikas ab 2020

Abb. 4 zeigt, daß die CO2-Konzentration bis 2050 auf 470 statt 500 ppm steigen würde, und bis 2100 auf 600 statt 640 ppm – eine nur geringe Minderung. Eine Extrapolation der mittleren globalen Oberflächentemperatur mit Hilfe der formelmäßigen Beschreibung der bisherigen globalen Erwärmung führt zu den in Abb. 5 dargestellten Ergebnissen:

Abb. 5 | Verlauf der mittleren globalen Oberflächentemperatur nach Emissions-Stop in Europa und Nordamerika

2050 wäre die mittlere globale Oberflächentemperatur bestenfalls (d.h. im Falle der unrealistischen Annahme eines sofortigen Emissions-Stops in Europa und Nordamerika) 0,15 °C niedriger als im „Weiter wie bisher“-Fall. 2100 wären maximal 0,25 °C Temperatur-Minderung zu erreichen, also 2,2 °C statt 2,45 °C.

Wenn man bedenkt, daß ein Emissions-Stop der alten Industrieländer ab 2020 unmöglich und bis 2050 sehr unwahrscheinlich (und sehr teuer) ist, ist die erreichbare Temperatur-Minderung so klein, daß alle geplanten „Klimaschutz“-Maßnahmen den Charakter eines sinnlosen Aktivismus haben.

Björn Lomborg schrieb am 12.12.2019 in einem kostenpflichtigen FAZ-Artikel „Zum Plan der EU-Kommission: Klimaneutralität wird richtig teuer“ : Verzicht in Europa und Nordamerika ist sinnlos – nur CO2-freie Energie, die überall billiger als fossile ist, kann eine globale Wende bewirken.
Die Welt retten zu wollen, ist schon Hybris; sie aber   n u r   in Deutschland oder Europa retten zu wollen, grenzt an Wahnsinn. Die Welt ist mittlerweile viel mehr als nur Europa und Nordamerika, und nur Maßnahmen, die in dieser übrigen Welt wirken und dort einen höheren Lebensstandard bei geringeren CO2-Emissionen zur Folge haben, haben Aussicht auf Erfolg.

Die EU hat einem ganzen Kontinent Klimaneutralität bis zum Jahr 2050 verordnet – ein Radikalumbau innerhalb von nur 30 Jahren und ein Plan, der das Potenzial hat, die Wettbewerbsfähigkeit der EU und damit die Grundlage für unseren künftigen Wohlstand zu ruinieren. Das Fatale daran ist: Ein energiepolitischer Alleingang Europas wird dem Klima nicht helfen – ohne China, die USA und Indien wird es keine Lösung für das globale Problem der Erderwärmung geben. Die Atmosphäre kennt keine Ländergrenzen.“ Das schrieben Lino Guzzella, Jürgen Hambrecht und Lars Josefsson in einem Gastbeitrag der NZZ vom 16.01.2020 in ihrem Artikel „Ohne einen Paradigmenwechsel in der Energiepolitik bleibt der New Green Deal eine gefährliche Utopie. Es wird Zeit aufzuwachen.“

Veröffentlicht unter Bern Carbon Cycle Modell, Bevölkerungszuwachs, Mittlere globale Temperatur, Weltbevölkerung | Kommentare deaktiviert für Europa und Nordamerika ohne CO2-Emissionen ab 2050 – würde das „die Welt retten“?

Wieviel vom Klimawandel ist menschengemacht?

Wenn in Medien und Politik vom Ziel „Klimaschutz“ die Rede ist, wird damit stillschweigend vorausgesetzt, daß die globale Erwärmung ausschließlich eine Folge von menschengemachter steigender CO2-Konzentration in der Atmosphäre ist und daher durch den Verzicht auf CO2-Emissionen verlangsamt bzw. gestoppt werden kann. Die Sinnhaftigkeit eines Ziels und seine Erreichbarkeit hängen jedoch davon ab, wieviel Einfluß man hat; im Falle des Klimas also davon, welcher Anteil der globalen Erwärmung tatsächlich „menschengemacht“ ist und welcher Anteil natürliche Ursachen hat, z.B. natürliche Temperaturschwankungen der Ozeane (AMO, PDO), solare Einflüsse oder auch Veränderungen der Wolkenbedeckung der Erde, die womöglich mit kosmischer Strahlung und dem Magnetfeld der Sonne im Zusammenhang stehen (und damit frühere Kalt- und Warmzeiten erklären könnten – siehe z.B. Jasper Kirkby (2009) „Cosmic Rays and Climate“).
Selbst wenn CO2 wirklich die maßgebliche Ursache des Klimawandels sein sollte, ist es fraglich, ob die alten Industrieländer in Europa und Nordamerika die weltweiten CO2-Emissionen entscheidend beeinflussen können, denn sie verursachen mit ihrem 15-%-Anteil an der Weltbevölkerung nur noch 30 % aller Emissionen – mit fallender Tendenz (siehe „Was bringt die Reduzierung von CO2-Emissionen in den Industrieländern?“).

Einfluß der Atlantischen Multidekaden Osziallation (AMO)

Meßwerte der natürlichen Temperaturschwankungen des Nordatlantiks, der „Atlantischen Multidekaden Oszillation“ (AMO), werden von der ESRL Physical Sciences Division unter https://www.esrl.noaa.gov/psd/data/timeseries/AMO/ publiziert. Auf der FAQ-Seite zur AMO heißt es unter anderem:

The AMO has affected air temperatures and rainfall over much of the Northern Hemisphere, in particular, North America and Europe. It is associated with changes in the frequency of North American droughts and is reflected in the frequency of severe Atlantic hurricanes. It alternately obscures and exaggerates the global increase in temperatures due to human-induced global warming.

Die Abbildung zeigt die AMO-bedingten Kühlungs- und Erwärmungs-Effekte:
Die mittleren globalen Temperaturen (rot) gingen zwischen 1876 und 1910 mit der AMO (blau) zurück; in diesen Jahren gab es nur geringe menschliche CO2-Emissionen. Zwischen 1910 und 1944 stieg die mittlere globale Temperatur vor allen Dingen infolge der AMO auf ein relatives Maximum, zwischen 1944 und 1978 ging sie mit der AMO zurück (aber nicht so stark wie die AMO) und stieg nach 1978 mit der AMO wieder an, jedoch mit einer größeren Steigung als derjenigen der AMO. Man erkennt also deutlich die Abschwächungen und Verstärkungen der CO2-bedingten globalen Erwärmung durch die AMO-Schwingung, von denen in den AMO-FAQ die Rede ist.

Es liegt nahe, die AMO-Effekte aus der beobachteten globalen Erwärmung herauszurechnen, um zu ermitteln, welchen Anteil an der Erwärmung das CO2 hat. Folgende Publikationen haben das zum Thema:

(1) G. R. van der Werf and A. J. Dolman (2014) „Impact of the Atlantic Multidecadal Oscillation (AMO) on deriving anthropogenic warming rates from the instrumental temperature record“
Ergebnis: „The most robust outcome of the different MLRs we ran was the anthro­po­genic factor, which indicated a transient climate response (TCR) of 1.6 (1.0–3.3) °C, with the uncertainty range reflecting uncertainties in AMO characterization as well as the temperature and radiative forcing data sets used.“

(2) Steinman et al. (2015) „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“
Ergebnis: Erklärung der nicht weiter steigenden globalen Temperaturen nach ca. 1998 durch Zusammenwirken von AMO und PDO (= „Pazifische Dekaden Oszillation“).

(3) Nicholas Lewis, Judith Curry (2018) „The Impact of Recent Forcing and Ocean Heat Uptake Data on Estimates of Climate Sensitivity“
Ergebnis: „We have derived ECShist and TCR estimates that are much better constrained, and slightly lower when using the same surface temperature dataset (HadCRUT4), than those in the predecessor LC15 study: 1.50-°C median (5%–95% range: 1.05–2.45 °C) for ECShist and 1.20-°C median (5%–95% range: 0.9–1.7 °C) for TCR.“

Der Ansatz T = 2,5*ln(C/C0) führt dazu, daß das gleitende Mittel der Differenzkurve synchron zur AMO mit gleichbleibender Amplitude schwingt.
Das gleitende Mittel über die AMO-Periode über 68 Jahre hat einen glatten Verlauf exakt auf einem deVries/Suess-Zyklus mit einem Minimum 1880, einer Periode von 208 Jahren und einer Amplitude von 0,07°C

(4) In dieser Arbeit – siehe auch eine Zusammenfassung – wurde die AMO-Schwingung durch gleitende Mittel über die Periode der AMO (ca. 68 Jahre) aus den mittleren globalen Ober­flä­chen­tem­pe­ra­tu­ren (GMST) eliminiert – siehe Bild rechts. Auf diese Weise wurde deutlich, daß neben einer durch die Formel TA = 2,5 * ln(C/C0) be­schreib­baren anthropogenen Erwärmung TA und der AMO noch ein solarer natürlicher Einfluß existiert, der deVries/Suess-Zyklus mit einer Periode von 208 Jahren, einem Minimum um 1880 und einer Amplitude von 0,07°C. Die GMST-Meßwerte können mit diesem Ansatz mit einer mittleren Abweichung von ±0,099°C reproduziert werden, die dieselbe Größenordnung hat wie die Standardabweichung σ der natürlichen Variabilität der GMST-Daten: σ = ±0,096 °C.

Eine Verdoppelung der CO2-Konzentration führt mit diesem Ansatz zu einer Tem­pe­ra­tur­er­hö­hung von TCR = 2,5*ln(2) = 1,73°C.

Beste Lösung mit deVries/Suess-Zyklus.
Die theoretische Kurve hat ca. 1995 einen Wendepunkt und erklärt mit ihrem seitdem geringeren Wachstum den Hiatus bis ca. 2010

Die obige Grafik zeigt, daß die gemessenen Oberflächentemperaturen sehr gut mit einer Überlagerung von T = 2,5 * ln(C/C0) durch AMO-Schwingung und deVries/Suess-Zyklus korrelieren.

Die in den Literaturstellen (1) und (3) verwendeten Abkürzungen TCR und ECS bedeuten „Transient Climate Response“ bzw. „Equilibrium Climate Sensitivity“ und beschreiben ebenfalls die zu erwartende Temperaturerhöhung bei einer Verdoppelung der CO2-Konzentration, wobei die TCR die Temperaturerhöhung zum Zeitpunkt der Verdoppelung der CO2-Konzentration angibt, während die ECS die Temperaturerhöhung ist, die sich im Gleich­gewichts­zustand nach einer CO2-Konzentrations-Verdoppelung Jahrhunderte später eingestellt hat – eine theoretische Größe, da fraglich ist, ob die Erdatmosphäre jemals in einen Gleichgewichtszustand kommt.

Alle in (1), (3) und (4) auf der Basis von historischen Daten (seit ca. 1860) ermittelten Temperaturerhöhungen bewegen sich in der Größenordnung von 1,5 °C bis 1,73 °C für eine Verdoppelung der CO2-Konzentration.
Das Paris-Ziel des IPCC, im Jahr 2100 maximal 2 °C Erwärmung zu haben, kann damit selbst dann weitgehend eingehalten werden, wenn die Menschheit nichts tun und einfach so weitermachen sollte wie bisher – vgl. RCP-Szenarien, insbesondere das in dieser Arbeit verwendete Szenario 9.0:

Unter diesen Umständen würde die atmosphärische CO2-Konzentration bis 2100 auf ca. 660 ppm anwachsen (siehe Link) – das ist etwas mehr als eine Verdoppelung der Ausgangs-CO2-Konzentration C0=295 ppm. Mit den in (1), (3) und (4) angegebenen Erwärmungsraten wäre dann eine Temperaturerhöhung in der Größenordnung von maximal 1,9°C zu erwarten. Zum Vergleich: Aus der Stomata-Dichte fossiler Blätter aus der Grube Messel konnte rekonstruiert werden, daß die Atmosphäre vor ca. 47 Millionen Jahren (mittleres Eozän) CO2-Konzentrationen von 700 bis 840 ppm hatte (M. Grein, 2010).

Extrapolationen bis 2100 für 3 realistische Szenarien

Fazit

Es besteht kein Zeitdruck und kein Grund zu Panik sowie teurem, sinnlosem und kontraproduktivem Aktivismus, der womöglich schlimmere Folgen hat als etwas höhere mittlere globale Temperaturen (z.B. Zerstörung der Versorgungssicherheit mit elektrischem Strom, Zerstörung der deutschen Automobil-Industrie, wirtschaftlicher Niedergang als Folge von immer mehr Planwirtschaft).
Der Direktor des Copenhagen Consensus Center, Bjørn Lomborg, sagt („Der Klimawandel bedeutet nicht das Ende der Welt“ capital vom 5.5.2019):

„Die bisherige Politik zäumt das Pferd von hinten auf. Die CO2-Reduktion wird vorangetrieben, bevor alternative Energiequellen die fossilen effektiv ersetzen und mit ihnen konkurrieren können. Es ist höchste Zeit, damit aufzuhören. Die deutsche Energiewende ist ein gutes Beispiel. Die CO2-Emissionen sind in den vergangenen zehn Jahren mehr oder weniger gleich geblieben, obwohl Hunderte Milliarden Euro in Subventionen für erneuerbare Energien investiert wurden. Wir müssen uns drauf konzentrieren, die technologischen Hürden zu beseitigen, die es so teuer machen, auf fossile Energieträger zu verzichten.
Die Politik sollte nicht darauf abzielen, immer mehr Strom aus erneuerbaren Energien zu gewinnen. Das Ziel ist doch, den CO2-Ausstoß zu senken. Deutschland hat dafür aber wie viele andere den teuersten Weg gewählt, indem ineffiziente erneuerbare Energien subventioniert wurden.“

In seinem Buch „Auf der Suche nach der Wahrheit“ (2018) hat Hans-Werner Sinn außerdem darauf hingewiesen, daß man auch diejenigen Länder in Maßnahmen gegen CO2-Emissionen integrieren muß, die wirtschaftlich auf die Förderung fossiler Energien angewiesen sind (S. 336). Wenn man das nicht tut, werden CO2-Einsparungs-Bemühungen erfolglos bleiben, weil diese Länder weiterhin fossile Energieträger fördern und verkaufen werden, solange es keine konkurrenzfähigen und adäquaten Alternativen gibt.

Veröffentlicht unter AMO, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO | Kommentare deaktiviert für Wieviel vom Klimawandel ist menschengemacht?

Juli-Temperaturen 2019 in Deutschland – Kommentar zur DWD-Aussage „2 Grad Erwärmung“

In seiner Pressemitteilung vom 30.7.2019 schrieb der DWD: „Mit 18,9 Grad Celsius (°C) lag im Juli der Temperaturdurchschnitt um 2,0 Grad über dem Wert der international gültigen Referenzperiode 1961 bis 1990. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung nach oben 0,9 Grad“ und publizierte dazu die folgende Grafik (Quelle: DWD):

Abb. 1 – Mittlere Juli-Lufttemperaturen in Deutschland (Quelle: DWD)

Frank Matthäus (Statisticum.info) wies in seinem am 13.8.2019 publizierten Artikel „Die ewige „international gültige Referenzperiode““ darauf hin, daß die Referenzperiode 1961-1990 willkürlich gewählt ist. Das stimmt zwar – das eigentliche Problem ist jedoch, daß die in den Daten sichtbare Langzeit-Schwingung vom DWD ignoriert wurde.

Die über 30 Jahre gemittelte Trendlinie (fett blau in Abb. 1) zeigt für die Jahre vor ca. 1980 eine Multidekaden-Schwingung mit einer Periode von ca. 70 Jahren: Es ist die Auswirkung der AMO-Schwingung, von der laut NOAA AOML Frequently Asked Questions About the Atlantic Multidecadal Oscillation (AMO) bekannt ist, daß sie die Temperaturen in Nord-Amerika und Europa periodisch beeinflußt: „It alternately obscures and exaggerates the global increase in temperatures due to human-induced global warming“.

Eine Glättung über je 30 Jahre ist willkürlich und wegen des fehlenden Bezugs zur Periode der überlagerten Schwingung nicht geeignet, die AMO-Variabilität aus der Temperaturkure zu eliminieren. Sinnvoll ist stattdessen eine Glättung mit gleitenden Mittelwerten über die AMO-Periode von 68 Jahren – siehe Kapitel über „Multidekaden-Oszillationen“. Gleitende Mittelwerte mit der AMO-Periode eliminieren sowohl die zufälligen Temperaturschwankungen als auch die AMO-Schwingung und machen die globale Erwärmung dadurch deutlich sichtbar – siehe Abb. 2.

Mit Hilfe der DWD-Tabelle „Air Temperature Mean“ für den Monat Juli kann man eine neue Grafik erstellen, in der die Schwankungen der Juli-Durchschnittstemperaturen um ihren „Normalwert“ 17 °C (siehe DWD-Grafik) einem gleitenden Mittel von 68 Jahren unterworfen werden (die rote Kurve der gleitenden Mittelwerte beginnt 34 Jahre nach 1881 und endet 34 Jahre vor 2019 – im Unterschied zur fett blauen DWD-Kurve, die über den gesamten Wertebereich gezeichnet wurde, owohl sie laut Legende Mittelwerte über je 30 Jahre darstellen soll):

Abb. 2 – Um AMO-Schwingung bereinigte Juli-Temperaturen im Vergleich zu CO2-verursachtem Temperaturanstieg

Ab den 1950er Jahren (1959: Beginn der systematischen Mauna-Loa-CO2-Messungen; davor: CO2-Konzentrations-Meßwerte aus Eisbohrkernen) stimmen in Abb. 2 das gleitende Temperatur-Mittel und der im Kapitel „Globale Erwärmung“ gefundene Zusammenhang [ Globale Erwärmung = 3,1*ln(C/C0) ] sehr gut überein.

Die Juli-Temperatur-Differenz T – 17 – 3,1*ln(C/C0) muß dann ein Abbild der von der AMO-Schwingung verursachten Temperatur-Variabilität sein. Die für diese Untersuchung notwendigen AMO-Juli-Meßwerte findet man bei NOAA AOML.

Abb. 3 – Um CO2-bedingte Erwärmung bereinigte Juli-Temperatur-Differenzen zum „Normalwert“ von 17°C

Die rote Differenzkurve in Abb. 3 ist durch eine Sinus-Schwingung mit der Amplitude 0,4°C am besten approximierbar (kleinste Fehlerquadratsumme). Der mit dem Faktor 2 multiplizierte AMO-Index (Juli-Werte) wird durch die gelbe Sinus-Schwingung ebenfalls optimal angenähert.

Damit kann man die durchschnittlichen Juli-Temperaturen T(Juli) in Deutschland durch die folgenden Ausdrücke beschreiben (in Abb. 4 graphisch dargestellt):

(1) T(Juli) = 17 + 3,1*ln(C/C0) + 0,4 * sin(2π/68*(jahr-1927))  (°C)

(2) T(Juli) = 17 + 3,1*ln(C/C0) + 0,2 * AMO-Index(Juli)  (°C)

Abb. 4 – Mittlere Juli-Temperaturen in Deutschland als Funktion von AMO(Juli) und CO2-bedingter Erwärmung

Die überlagerte AMO-Schwingung macht ±0,4 °C aus – von ihrem Minimum zu ihrem Maximum also fast 1 °C. Vergleichen darf man also nur Werte, bei denen die Schwingung sich in derselben Phase befindet:

  • Von 1880 bis ca. 1945 erhöhte sich die Temperatur CO2-bedingt um 0,25 °C
  • Von 1880 bis ca. 2019 erhöhte sich die Temperatur CO2-bedingt um 1,0 °C

Der Juli-Wert des Jahres 2019 liegt 1,9 °C über dem „Normalwert“ von 17 °C. Von der  Differenz 1,9 °C sind die Hälfte (1,0 °C) auf die globale Erwärmung und die andere Hälfte auf die AMO-Schwingung sowie zufällige Anteile zurückzuführen. Abb. 5 zeigt, daß die natürliche Variabilität der durchschnittlichen Juli-Temperaturen in den vergangenen 140 Jahren bis zu ±3 °C  betragen hat. Schon wegen dieser großen Schwankungsbreite verbietet es sich, aus einzelnen Monatswerten Aussagen über „die Klimaerwärmung“ abzuleiten.

Fazit

Die DWD-Pressemeldung und die DWD-Grafik ignorieren ebenso wie der IPCC (siehe cdatac-Übersichtsartikel) die AMO als erheblichen Einflußfaktor auf die mittleren Temperaturen, obwohl bekannt ist, daß die AMO die mittleren Temperaturen periodisch und nicht unerheblich beeinflußt (siehe NOAA AOML). Damit wird weder diskutiert, warum zwischen 1945 und 1978 die mittleren Temperaturen gefallen sind, obwohl die CO2-Konzentration von 310 ppm (1945) auf 335 ppm (1978) gestiegen ist, noch wird berücksichtigt, daß der starke Temperaturanstieg zwischen 1980 und 2005 aus der Überlagerung von AMO-bedingter und CO2-bedingter Temperatur-Erhöhung resultierte. Seit dem Anfang des neuen Jahrtausends befindet sich die AMO in der Nähe ihres Maximums, womit der starke Anstieg vorerst gestoppt wurde (siehe Abb. 4 und Steinman et al. (2015) „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“ ).

Probe

Eine Bereinigung der Juli-Temperatur-Meßwerte um die systematischen Einflüsse sollte die rein statistischen Schwankungen um den vom DWD so bezeichneten Juli-Normalwert von 17 °C darstellen:

Abb. 5 – Gleitende Meßwerte über 30 Jahre über die Juli-Temperatur-Meßwerte und die um systematische Einflüsse bereinigten Meßwerte

Die blaue Kurve in Abb. 5 zeigt die Schwankungen der Temperatur-Meßwerte um 17 °C nach Subtraktion der AMO-Meßwerte und der CO2-bedingten Temperatur-Erhöhung. Die gleitenden Mittelwerte über je 30 Jahre der bereinigten Temperaturen (gelb und grün) schwanken nur um maximal ±0,3 °C (und ohne Bezug zur AMO-Schwingung) um den Temperatur-Normalwert, während die gleitenden Mittel der Original-Meßwerte (rote Kurve) wie in Abb. 1 die AMO-Schwingung erkennen lassen und damit keine Aussage zulassen, welcher Anteil der Temperaturerhöhung der erhöhten CO2-Konzentration zuzuordnen ist, welcher der AMO, und welcher zufälligen statistischen Schwankungen.

Abb. 5 läßt erkennen, daß die Variabilität der durchschnittlichen Juli-Temperaturen in Deutschland um den durch Formel (1) oder (2) beschriebenen korrigierten „Normalwert“ in den vergangenen 140 Jahren bis zu ±3 °C  betragen hat.

Veröffentlicht unter AMO | Kommentare deaktiviert für Juli-Temperaturen 2019 in Deutschland – Kommentar zur DWD-Aussage „2 Grad Erwärmung“

Logarithmischer Zusammenhang von globaler Erwärmung und CO2-Konzentration – Ergebnisse in Formeln und Bildern

30.04.2020 – In Überarbeitung

siehe

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Zuverlässige Extrapolationen in die Zukunft, ein wesentliches Anliegen der derzeitigen Klimaforschung, basieren auf der Fähigkeit, die bisherigen CO2-Konzentrations-bedingten Temperaturerhöhungen genau beschreiben und von natürlichen tempe­ratur­ver­än­dern­den Einflußgrößen wie Multidekaden-Oszillationen der Ozeane (im 20. Jahrhundert vor allem der AMO-Schwingung) unterscheiden zu können. Solche Überlegungen fehlen im IPCC-Report „Climate Change 2013 – The Physical Science Basis“ trotz seines Umfangs von 1550 Seiten. Auf Seite 60 wird der AMO-Einfluß abgetan mit den Worten the AMO is assessed with high confidence to have made little contribution to the GMST trend between 1951 and 2010 (considerably less than 0.1°C)“, und auf Seite 27 wird behauptet „Cumulative total emissions of CO2 and global mean surface temperature (GMST) response are approximately linearly related“.

Bei adäquater Berücksichtigung der Multidekaden-Oszillation, die der globalen Erwärmung TCO2 offensichtlich überlagert ist, findet man jedoch einen logarithmischen Zusammenhang mit der atmosphärischen CO2-Konzentration C:

(1) TCO2 = 3,1*ln(C/C0)

wobei C0 = 295 ppm die „vorindustrielle“ CO2-Konzentration ist.

Der logarithmische Zusammenhang, der zu deutlich niedrigeren Extrapolationen der zu erwartenden Temperaturen führt, ist aus den bisher vorliegenden Meßdaten bzgl. CO2-Emissionen und -Konzentrationen sowie den mittleren globalen Oberflächen-Temperaturen direkt herleitbar, wie im folgenden gezeigt wird.

Natürliche Temperatur-Schwankungen durch AMO und PDO

Die gemessenen jährlichen mittleren globalen Oberflächen-Temperaturen T(j) entstehen durch die Überlagerung der globalen Erwärmung mit einer Multidekaden-Oszillation MD(j), verursacht durch periodische Temperaturschwankungen der Ozeane Atlantik (AMO) und Pazifik (PDO) – siehe Abb. 1.

Abb. 1 | Globale Erwärmung TCO2(j) + Multidekaden-Oszillation MD(j) = mittl. globale Temp. T(j)

Der AMO-FAQ-Seite der NOAA AOML Physical Oceanography Division kann man entnehmen, daß diese Multidekaden-Oszillationen nicht anthropogen sind und die globale Erwärmung überlagern. Steinman et al. haben 2015 publiziert, daß die AMO am Anfang und in der Mitte des 20. Jahrhunderts großen Einfluß auf die Überlagerung MD(j) hatte, daß aber in den letzten Dekaden die PDO dominant wurde. Den vorliegenden Daten kann man entnehmen, daß dieser Übergang während der 1990er Jahre stattfand.

Logarithmischer Zusammenhang von globaler Erwärmung mit kumulativen CO2-Emissionen

Abb. 2 | Mittl. globale Temp. T(j) – MD-Oszillation MD(j) = Globale Erwärmung TCO2(j)

Umgekehrt führt die Subtraktion der aus AMO (bis 1995) und PDO (ab 1996) zusammengesetzten MD-Oszillation MD(j) von den Meßwerten T(j) der mittleren globalen Temperaturen zum Kurvenverlauf TCO2(j) der globalen Erwärmung (siehe Abb. 2), der auf einer logarithmischen Kurve oberhalb des vom IPCC angegebenen linearen Zusammenhangs TCO2(j) = m(j)/1600 verläuft, wobei m(j) die kumulativen CO2-Emissionen bis zum Jahr j symbolisiert.

Überlagerte Multidekaden-Oszillation mit 68-Jahre-Periode

Abb. 3 | Mittl. globale Temperatur T(j) – globale Erwärmung TCO2(j) = MD-Oszillation MD(j)

Die Subtraktion der globalen Erwärmung ( TCO2(j)=3,1*ln(C(j)/C0) ) von den Meßwerten T(j) der mittleren globalen Temperaturen ergibt eine sehr gleichmäßige Multidekaden-Oszillation MD(j) (kurz: „MD-Oszillation“) um die Null-Linie. Diese ist das Temperatur-Mittel der Jahre 1850-1900, das man damit als „vorindustrielle Temperatur“ ansehen kann. Die Gleichmäßigkeit der Schwingung äußert sich darin, daß eine Sinus-Kurve mit der Periode 68 Jahre und der Amplitude 0,1°C durch die MD-Oszillation gezeichnet werden kann. Gleitende Mittelwerte der MD-Oszillation über Perioden von je 68 Jahren (rote Kurve) ergeben zwischen ca. 1927 und ca. 1973 eine exakte Null-Linie. Spätere Mittelwerte, die Temperaturdaten von 2006 und danach beinhalten, werden zusehends negativer. Ursache ist der zu dieser Zeit schon starke Einfluß der PDO (s.o.).

Gleitende Perioden-Mittelwerte

Abb. 4 | Logarithmische und lineare Funktionen mit T(0)=0 und T(1600)=1. Der Vergleich von Perioden-Mittelwerten dieser Funktionen mit Perioden-Mittelwerten der gemessenen Temperaturen ergibt zwischen ca. 1930 und 1973 eine exakte Übereinstimmung mit dem logarithmischen Ansatz

Die überlagerte MD-Oszillation MD(j) kann aufgrund ihrer Gleichmäßigkeit durch die Bildung von gleitenden Mitteln über ihre Periode (68 Jahre) – dargestellt durch das Symbol Σ – eliminiert werden (d.h. Σ MD(j) = 0; siehe Abb. 3):

(2) Σ T(j) = Σ TCO2(j) + Σ MD(j) = Σ TCO2(j)

Links in Abb. 4 sind drei Funktions-Alternativen der Form TCO2(j) = S * f(j) dargestellt, die die Eigenschaft haben, bei m = 1600 Gt (bzw. C = 407 ppm) den Wert 1°C anzunehmen. Durch die Bildung von Perioden-Mittelwerten werden diese drei Funktionen den entsprechend bearbeiteten Temperatur-Meßdaten vergleichbar gemacht. Das rechte Bild zeigt, daß zwischen ca. 1930 und 1973 die Periodenmittel der Meßwerte genau auf den Periodenmitteln des logarithmischen Ansatzes (Formel (1)) liegen. Die Jahre zwischen 1930 und 1973 sind der Zeitraum, in dem die Perioden-Mittel der MD-Oszillation MD(j) (siehe Abb. 3) exakt auf der Null-Linie liegen. Nach 1973 enthalten die Periodenmittel Temperaturen nach 2006, die schon stark von der PDO beeinflußt sind.

Ergebnis von Abb. 4: Nur die Funktion TCO2 = S*ln(C/C0) mit S=3,1°C paßt zu den Meßdaten.

Parameter-Bestimmung von Funktionen der globalen Erwärmung direkt aus den Meßdaten der mittleren globalen Temperaturen

Perioden-Mittelwerte können verwendet werden, um die Steigung S von Ansätzen der Form TCO2(j) = S * f(j) zu ermitteln. Bei Berücksichtigung von Formel (2) gilt:

(3) S = Σ TCO2(j) / Σ f(j) = Σ T(j) / Σ f(j)

Abb. 5 stellt das Ergebnis für die Bestimmung von S durch Quotienten von Perioden-Mittelwerten für eine logarithmische und zwei lineare Funktionen dar.

Abb. 5 | Bestimmung S aus 68-Jahre-Periodenmitteln (je +-34 Jahre für 1927 bis 1973) für die 3 Ansätze T = S*ln(C/C0), T=S*(C-C0)/C0 und (mit S=1/E) T=m/E. Für die jeweils gefundene Steigung wurde T(2018) berechnet mit C=408 ppm bzw. m=1620 Gt CO2.

Man sieht, daß die für den logarithmischen Ansatz ermittelte Steigung S um 3,1°C schwankt – seit Anfang der 50er Jahre sogar mit nur +-0,05°C Abweichung. Für die Temperatur TCO2(2018) wird sehr konstant 1,0 +- 0,05 °C vorhergesagt.

Die beiden linearen Ansätze machen generell zu hohe Temperaturvorhersagen, die umso höher sind, je weiter in die Zukunft extrapoliert wird. Ihre Steigungen sinken mit den Jahren entlang von Kurven, die mit Periodenmittelwerten des logarithmischen Ansatzes (T=3,1*ln(C/C0)) berechenbar sind. Das ist neben der Stabilität des logarithmischen Ansatzes ein weiterer Beweis dafür, daß der Zusammenhang von CO2-Kon­zen­tra­tion und Temperatur logarithmisch ist.

Abschätzung der globalen Erwärmung nach Emission von m Gt CO2

Die rechte Grafik in Abb. 5 zeigt, daß man mit Periodenmitteln für den IPCC-Ansatz T=m/E nicht 1/1600 °/Gt als Steigung berechnen würde, sondern für den Parameter E=dm/dT Werte zwischen 1300 und 1400 Gt/° erhielte, je nachdem, aus welchen Jahren die für die Berechnung verwendeten Periodenmittel stammen. Die Ableitung dm/dT ist nicht konstant, wie vom IPCC behauptet, sondern proportional zum Quotienten aus Konzentration C und Airborne Fraction AF (siehe dm/dT konstant?). S=3,1°C ist in Formel (4) die Steigung des logarithmischen Ansatzes; 7,814 Gt CO2 entsprechen 1 ppm:

(4) dm/dT = 7,814/S * C/AF

Abb. 6 | blaue Kurve: dm/dT berechnet; grüne Kurve: dm/dT num. differenziert; rote Kurve: dm/dT berechnet für C(m)=295+0,55*0,128*m und AF(m)=0,55-m/53300; rot gestrichelt: untere Abschätzung für dm/dT.

Abb. 6 zeigt neben den historischen Daten für dm/dT (blaue berechnete und grüne numerisch differenzierte Kurve) eine Näherung (rote Kurve), die mit Formel (4) durch lineare Extrapolationen der Konzentration C(m) und der Airborne Fraction AF(m) erzeugt wurde. Die rote Kurve kann wiederum durch eine Gerade (rot gestrichelt)

(5) dm/dT = (m+b)/a                (a = 2,585; b = 3387 = 1600/(exp(1/a)-1) )

nach unten abgeschätzt werden (siehe dm/dT linear steigend). Das Integral des Kehrwertes dT/dm ist dann eine obere Abschätzung für die aus der Emission von m Gt CO2 resultierende globale Erwärmung, in der b so bestimmt wird, daß gilt TCO2(m)=1°C für m=1600 Gt.

(6) TCO2 <= a*ln(1+m/b)        (a = 2,585; b = 3387)

In Abb. 7 wird diese obere Schranke zusammen mit den für verschiedene Szenarien extrapolierten Temperaturverläufen über der kumulierten Emission m dargestellt.

Abb. 7 | Die aus verschiedenen Szenarien resultierende globale Erwärmung mit oberer Abschätzung

Die Temperaturschätzungen weichen umso mehr nach oben ab (bis zu 0,4 °C), je weniger CO2 bis zum Jahr 2100 emittiert werden wird. Der Vorteil der Abschätzung besteht darin, kumulierten CO2-Emissionen in einfachster Weise eine resultierende globale Erwärmung zuordnen zu können bzw. umgekehrt aus Abb. 7 ablesen zu können, daß z.B. zur Einhaltung des 2°-Ziels von Paris insgesamt nicht viel mehr als 4000 Gt CO2 – allerhöchstens 5000 Gt – emittiert werden sollten. Selbst Szenario RCP 6.0, das von einer Stabilisierung der jetzigen Verhältnissse ausgeht (d.h. nur noch vergleichsweise geringer Weltbevölkerungs-Zuwachs auf maximal 10 Mrd. und gleichbleibende Pro-Kopf-Emissionen von 5 t/Jahr), wird nur zu 2,2 °C Temperaturerhöhung bis 2100 führen.

Veröffentlicht unter Airborne Fraction, AMO, dm/dT, MD-Oszillation, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, vorindustrielle CO2-Konzentration, vorindustrielle Temperatur | Kommentare deaktiviert für Logarithmischer Zusammenhang von globaler Erwärmung und CO2-Konzentration – Ergebnisse in Formeln und Bildern

AMO-Index, CO2-Konzentration und globale Erwärmung

30.04.2020 – In Überarbeitung

siehe

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Einleitung

Im IPCC-Report „Climate Change 2013 – The Physical Science Basis“ wird im „Summary for Policymakers“ auf S. 27 behauptet, daß die mittlere globale Oberflächentemperatur T linear mit den kumulativen CO2-Emissionen m steigt:

T = m/1600 °C.

Das Ziel dieser Arbeit ist es, diese Behauptung anhand der vorliegenden Meßdaten bzgl. CO2-Emissionen, CO2-Konzentrationen und mittleren globalen Temperaturen nachzuprüfen. Der Weg ist eine Analyse, wie die Temperaturkurve durch natürliche und anthropogene Effekte beeinflußt wird.

Atlantische Multidekaden-Oszillation (AMO)

Die Ozeane der Nordhalbkugel, Atlantik und Pazifik, weisen bekanntermaßen Multidekaden-Oszillationen auf: AMO (Atlantische Multidekaden-Oszillation) und PDO (Pazifische Dekaden-Oszillation; auch PMO genannt). AMO und PDO beeinflussen die mittleren globalen Oberflächen-Temperaturen. Auf der AMO-FAQ-Seite der NOAA AOML Physical Oceanography Division findet man dazu folgende Informationen:

  1. Die AMO ist eine Klima-Oszillation, die in Baumringen und Eisbohrkernen der vergangenen 1000 Jahre beobachtet werden kann, und insofern mit hoher Wahrscheinlichkeit nicht durch menschliche Einwirkung verursacht wurde.
  2. Die AMO vermindert und erhöht je nach ihrer Phase die Anstiegsrate der anthropogenen globalen Erwärmung.

Zur Überprüfung der zweiten Aussage werden in Abb. 1 die mittleren globalen Temperaturen der letzten 160 Jahre über dem AMO-Index dargestellt. Die relativen Maxima und Minima der beiden Kurven treten zeitgleich auf:

Abb. 1 | AMO-Index und globale Erwärmung

Es ist möglich, eine Sinus-Kurve mit einer Periode von 68 Jahren an den AMO-Index anzupassen. Gleitende Mittel über Perioden des AMO-Index ergeben in erster Näherung Null; d.h. er schwingt zwischen 1860 und heute sehr gleichmäßig.

Periodenmittelwerte

Punkt (2.) der Aussagen der NOAA AOML führen im Zusammenhang mit der offensichtlichen Synchronität der Langfrist-Schwankungen der Temperaturkurve mit der AMO zu folgender Vermutung: Wenn die Temperaturen TCO2(j) die jährlichen Werte der CO2-bedingten globalen Erwärmung beschreiben und TCO2(j) von einer Multidekaden-Schwingung MD(j) mit einer Periode von 68 Jahren überlagert ist, gilt für die gemessenen Temperaturen T(j):

(1) T(j) = TCO2(j) + MD(j)

Mit gleitenden Mitteln über je eine Periode von 68 Jahren – dargestellt durch das Symbol Σ – gilt dann:

(2) Σ T(j) = Σ TCO2(j) + Σ MD(j) = Σ TCO2(j)

Wegen der Gleichmäßigkeit der überlagerten Schwingung (siehe Abb. 1) kann man die Periodenmittelwerte Σ MD(j) = 0 setzen; d.h. durch die Bildung von Perioden­mittel­werten eliminiert man die überlagerte Schwingung, sofern sie gleichmäßig ist. Das kann man ausnutzen, um die Steigung S möglicher funktionaler Zusammenhänge für TCO2(j) zu finden:

(3) TCO2(j) = S * f(j)

Dann gilt

(4) S = Σ TCO2(j) / Σ f(j) = Σ T(j) / Σ f(j)

Funktionen f(j) zur Beschreibung der globalen Erwärmung TCO2(j)

Abb. 2 | IPCC 2013: 1 °C Temperaturerhöhung je 1600 Gt kumulierte CO2-Emissionen

Im IPCC-Report „Climate Change 2013 – The Physical Science Basis“ befindet sich auf Seite 28 ein zu Abb. 2 ähnliches Bild, in dem die Temperatur-Anomalien über den kumulativen CO2-Emissionen m aufgetragen sind. 1600 Gt kumulative CO2-Emissionen haben bisher zu 1 °C Temperatur-Erhöhung geführt. Der IPCC unterstellt, daß man diesen Zusammenhang linear in die Zukunft verlängern kann, daß also je weiterer 1600 Gt CO2-Emissionen ein weiteres Grad Temperaturerhöhung die Folge sein wird:

(5) f(j) = m(j)                        (IPCC)

Eigentlich ist für die Temperaturerhöhung ja nicht die gesamte emittierte CO2-Masse m verantwortlich, sondern nur der Anteil, der in der Atmosphäre verbleibt (die kumulative „Airborne Fraction“) und damit die atmosphärische CO2-Konzentration C(j) erhöht. Bezogen auf die „vorindustrielle“ CO2-Konzentration C0 (=295 ppm; siehe Link) lautet ein alternativer Ansatz also:

(6) f(j) = (C(j) – C0)/C0              (lin)

Mit x = (C(j) – C0)/C0 gilt für kleine x: ln(1+x) ~ x (Abbruch der Taylorreihe vor dem quadratischen Glied). Damit ergibt sich als weitere Möglichkeit für f(j):

(7) f(j) = ln(C(j)/C0)          (log)

Der durch die Zunahme der CO2-Konzentrationen verursachte Strahlungsantrieb ist proportional zu ln(C/C0) und linear mit der Änderung der globalen Gleich­gewichts­temperatur an der Erdoberfläche verknüpft (siehe Wikipedia) – insofern muß Formel (7) ebenfalls als Möglichkeit für f(j) in Betracht gezogen werden.

Berechnung der Steigungen S für die drei Funktions-Alternativen

Abb. 3 | Bestimmung S aus 68-Jahre-Periodenmitteln (je +-34 Jahre für 1927 bis 1984) für die 3 Ansätze T = S*ln(C/C0), T=S*(C-C0)/C0 und (mit S=1/E) T=m/E. Für die jeweils gefundene Steigung wurde T(2018) berechnet mit C=408 ppm bzw. m=1620 Gt CO2.

Der logarithmische Ansatz mit S = 3,05 +- 0,15°C und T(2018) = 0,99 +- 0,05 °C führt zu einem vergleichsweise stabilen Ergebnis, weshalb er im nächsten Abschnitt näher untersucht wird. „Stabil“ soll in diesem Zusammenhang bedeuten, daß sowohl die ermittelte Steigung S als auch die daraus abgeleitete Temperaturvorhersage weitgehend unabhängig vom Zeitraum der betrachteten Perioden von 68 Jahren sind.

Die Steigungen und Vorhersagen der beiden linearen Ansätze sinken im Gegensatz dazu tendenziell mit den Jahren und nähern sich erst mit den letzen (bis nahe 2018 reichenden) Perioden dem vom IPCC angenommenen Wert von 1 °C (bei 1600 Gt Emissionen). Sie machen also umso höhere Vorhersagen, je weiter diese in die Zukunft reichen. Beim Ansatz T = m/E ist der Quotient 1600/E immer größer als 1; für die meisten Jahre sogar > 1,1. Das ist gleichbedeutend mit E < 1455, was dem IPCC-Ansatz T=m/1600 widerspricht.

T = S * ln(C(j)/C0) : Untersuchung des log. Ansatzes

Im Abb. 4 werden die Periodenmittelwerte der Temperatur-Meßwerte mit denen des gefundenen logarithmischen Ansatzes T = 3,05 * ln(C(j)/C0) verglichen, um die Qualität des Ergebnisses beurteilen zu können:

Abb. 4 | Periodenmittelwerte des log. Ansatzes T = 3,05 * ln(C/C0) im Vergleich zu den Periodenmittelwerten der Temperatur-Meßwerte

Man sieht für die Jahre 1930 bis 1975 (d.h. mit Meßwerten zwischen 1897 und 2008) eine sehr gute Übereinstimmung. Die Werte vor 1897 sind ohne Bedeutung, weil es in jener Zeit praktisch noch keine anthropogene globale Erwärmung gab. Die Abweichungen in den beiden letzten Jahrzehnten deuten jedoch darauf hin, daß die überlagerte Oszillation nicht mehr durch die Mittelwertbildung eliminiert wurde, also ihre Gleichmäßigkeit verloren hatte.

Für die Temperatur-Meßwerte gilt nach Formel (1): T(j) = TCO2(j) + MD(j). Also kann man die überlagerte Multidekaden-Schwingung MD(j) durch Differenzbildung mit dem Ansatz TCO2(j) = S * ln(C(j)/C0) berechnen:

(8) MD(j) = T(j) – S * ln(C(j)/C0)           (S = 3,05 °C)

Das Ergebnis wird in Abb. 5 mit den Multidekaden-Schwingungen von Atlantik (AMO) und Pazifik (PDO) verglichen:

Abb. 5 | Vergleich der Multidekaden-Schwingung, die als Differenz von Meßwerten und log. Ansatz entsteht, mit AMO- und PDO-Index

Ergebnisse des Vergleichs:

  • Die gleitenden Periodenmittel ergeben für die Differenzkurve für 1927 bis ca. 1973 eine exakte Null. Das ist genau der Bereich, in dem die beiden Kurven in Abb. 4 praktisch aufeinander liegen.
  • Die negativen Periodenmittel nach 1973 haben ihre Ursache darin, daß die Differenzkurve nach 1995 immer weniger dem AMO-Index und immer mehr dem ins Negative gehenden PDO-Index (auch PMO genannt = „Pazifische Multidekaden Oszillation“) folgt.

Letzteres wurde 2015 von Steinman et al. in der Publikation „Atlantic and Pacific multidecadal oscillations and Northern Hemisphere temperatures“ beschrieben:

Applying our method to observational surface temperature data, we find that internal variability is likely to have had a substantial influence on multidecadal Northern Hemisphere temperature changes over the historical period, contributing up to 0.15°C peak warming/cooling. The AMO appears to have been influential in the early and middle 20th century, but the PMO has played a more dominant role in recent decades.

Schlußfolgerung: Die Auswertung der Temperatur-Meßwerte mit Hilfe von Periodenmittelwerten führt nur für 1927 bis 1973 (d.h. mit Meßwerten zwischen 1893 und 2006) zu korrekten Ergebnissen.

Optimierung der Parameter des logarithmischen Ansatzes

Mit der Methode der kleinsten Fehlerquadratsumme wird für die Jahre 1930 bis 1973 die in Abb. 4 dargestellte Kurve der Periodenmittel des logarithmischen Ansatzes möglichst gut an die Periodenmittel der Meßwerte angepaßt. Die Resultate der einzelnen Rechnungen werden in Abb. 6 graphisch dargestellt:

Abb. 6 | In den Jahren zwischen 1930 und 1973 wird die Abweichung von Periodenmittelwerten von logarithmischem Ansatz und Temperaturmeßwerten am kleinsten, wenn man mit einer Periode von 68 Jahren rechnet und für die Temperatur ansetzt: T = 3,10 * ln(C/C0)

Ergebnisse:

(9) TCO2(j) = S * ln(C(j)/C0)          mit S = 3,10 +- 0,05 °C

(10) Periode P = 68 +- 2 Jahre

Untersuchung der Parameter der linearen Ansätze

Mit dem Wissen, daß Periodenmittelwerte nach 1973 nicht verwendet werden sollten, wird Abb. 3 erneut gezeichnet:

Abb. 7 | Rechnung wie in Abb. 3, jedoch nur mit Periodenmittelwerten bis 1973. Bei den beiden linearen Ansätzen zeigen die roten Kurven, wie die Steigungen mit den Jahren sinken würden, wenn die Temperaturen streng logarithmisch wüchsen.

Man sieht, daß die für den logarithmischen Ansatz ermittelte Steigung S seit Anfang der 50er Jahre um 3,1 +- 0,05 °C schwankt, so wie es auch mit der Methode der kleinsten Fehlerquadrate ermittelt wurde.

Die beiden linearen Ansätze machen generell zu hohe Temperaturvorhersagen, die umso höher sind, je weiter in die Zukunft extrapoliert wird. Ihre Steigungen sinken mit den Jahren entlang von Kurven, die mit Periodenmittelwerten des logarithmischen Ansatzes (T=3,1*ln(C/C0)) berechenbar sind. Das ist neben der Stabilität des logarithmischen Ansatzes ein weiterer Hinweis darauf, daß der Zusammenhang von CO2-Kon­zen­tra­tion und Temperatur logarithmisch ist.

Ermittlung Temperatur-Meßwerte ohne überlagerte Schwingung

Die in Formel (8) als Differenz von Temperatur-Meßwerten und logarithmischem Ansatz beschriebene Multidekaden-Oszillation („MD-Oszillation“) kann man bis 1995 durch den AMO-Index approximieren (Faktor 0,54) , danach durch den PDO-Index (Faktor 0,51) – siehe Abb. 8:

Abb. 8 | Beschreibung der Differenz aus Temp.-Meßwerten und log. Ansatz – der „MD-Oszillation“ – durch den AMO-Index (bis 1995) und den PDO-Index (ab 1996)

Damit besteht die Möglichkeit, die überlagerte MD-Oszillation von den Temperatur-Meßwerten zu subtrahieren:

Abb. 9 | Temperaturverlauf nach Subtraktion MD-Oszillation: Die über je 15 Punkte geglättete Kurve folgt der logrithmischen Funktion T = 3,1 * ln(C/C0)

Die grüne Kurve in Abb. 9 zeigt das Ergebnis der Subtraktion: Die Langzeit-Schwingung wurde eliminiert, und die Schwankungen der Original-Temperaturkurve (vgl. Abb. 1) sind deutlich kleiner geworden. Die rote Kurve ist eine Glättung der grünen Differenzkurve über je 15 Punkte. Sie verläuft deutlich oberhalb der hellblauen IPCC-Geraden m/1600 und folgt der violetten logarithmischen Kurve T = 3,1 * ln(C/C0). Die subtrahierte (aus AMO und PDO zusammengesetzte) MD-Oszillation wurde gelb über die blaue Kurve gezeichnet, die die Differenz zwischen Temperatur-Meßwerten und dem logarithmischen Ansatz darstellt.

Der logarithmische Zusammenhang zwischen den korrigierten Temperatur-Meßwerten und CO2-Konzentration bzw. kumulierter CO2-Emission wird durch Abb. 9 direkt sichtbar, selbst ohne Glättung der grünen Differenzkurve.

Ergebnis: Mittlere globale Temperaturen bis 2018 als Summe von logarithmischem Ansatz und MD-Oszillation

Abb. 10 zeigt die Überlagerung der logarithmisch von der CO2-Konzentration bestimmten globalen Erwärmung mit der in Abb. 8 definierten MD-Oszillation.

Abb. 10 | Die mittlere globale Temperatur läßt sich als Summe der MD-Oszillation (siehe Abb. 8) und dem logarithmischen Ansatz T = 3,1 * ln(C/C0) beschreiben. Die bis 1995 dominierende AMO wird durch eine Sinus-Schwingung dargestellt.

Ab 1996 wird für die formelmäßige Darstellung des Temperaturverlaufs (gelb) nur der loga­rith­mische Zusammenhang verwendet, wobei klar ist, daß in der Zukunft AMO und PDO weiterhin zu Abweichungen der Tempe­ratur-Meß­werte um +- 0,1 °C von der formel­mäßigen Beschreibung der globalen Erwärmung führen werden.

Bis hierhin wurde gezeigt, daß die (bisherige) globale Erwärmung nicht – wie vom IPCC behauptet – linear mit den kumulativen CO2-Emissionen steigt, sondern logarithmisch in Abhängigkeit von der CO2-Konzentration.

Eine Abschätzung der globalen Erwärmung auf Basis von kumulativen CO2-Emissionen hat allerdings den Vorteil, politisch besser vermittelbar zu sein, weil ohne umständliche Rechnungen sichtbar wird, wieviel CO2 noch emittiert werden darf, um das Überschreiten einer bestimmten – politisch gesetzten – Temperaturgrenze zu vermeiden.

In „Kumulative CO2-Emissionen und globale Erwärmung“ wird gezeigt, daß eine solche Abschätzung der maximal zu erwartenden globalen Erwärmung T nach der Emission von m Gt CO2 als logarithmische Formel dargestellt werden kann:

T <= 2,585 * ln(1+m/3387)

Abb. 10 | Globale Erwärmung als Funktion von kumulativer CO2-Emission – linearer und logarithmischer Ansatz

Veröffentlicht unter Airborne Fraction, AMO, MD-Oszillation, Mittlere globale Temperatur, Multidekaden-Oszillation, PDO, Perioden-Mittelwerte, vorindustrielle CO2-Konzentration | Kommentare deaktiviert für AMO-Index, CO2-Konzentration und globale Erwärmung

Kumulative CO2-Emissionen und globale Erwärmung

30.04.2020 – In Überarbeitung

siehe

Erweiterte Theorie über die Einbeziehung natürlicher Zyklen in die Beschreibung der globalen Erwärmung

Im „Summary for Policymakers“ des IPCC-Reports „Climate Change 2013 – The Physical Science Basis“ wird im Abschnitt „E.8 Climate Stabilization, Climate Change Commitment and Irreversibility“ (S. 27) behauptet „Cumulative total emissions of CO2 and global mean surface temperature response are approximately linearly related (see Figure SPM.10)“. Aus dem Bild SPM.10 auf Seite 28 geht hervor, wie der IPCC die glo­ba­le Er­wär­mung T aus den kumulativen CO2-Emissionen m linear abschätzt – siehe Formel (1):

(1) T = m/1600             (IPCC)

Eigentlich ist ja nur die aus Emissionen resultierende CO2-Konzentration die Ursache der Erwärmung; aber auf Seite 1112 des IPCC-Reports wird erläutert:

The simplicity of the concept of a cumulative carbon emission budget makes it attractive for policy.

Gemeint ist damit, daß man mit einer nur von der kumulativen CO2-Emission abhängigen Temperatur-Abschätzung leichter berechnen kann, wieviel „CO2-Budget“ die Welt noch emittieren kann, ehe eine festgelegte Grenze der globalen Erwärmung überschritten wird.

Ergebnisse:

Abb. 1 | Globale Erwärmung als Funktion von kumulativen CO2-Emissionen – IPCC-Ansatz im Vergleich zum logarithmischen Ansatz

Die IPCC-Behauptung

(2) dT/dm = 1/1600 (°/Gt)           (IPCC)

paßt nicht zu den vorhandenen Meßdaten, wie im folgenden gezeigt werden wird.
Eine Abschätzung der globalen Erwärmung T als Funktion der kumulativen CO2-Emissionen m ist aber trotzdem möglich.

Wieder sind Mittelwerte über die Periode (68 Jahre) der den Temperatur-Meßwerten überlagerten Multidekaden-Oszillation hilfreich, um zu zeigen, daß ein logarithmischer Zusammenhang T=a*ln(1+m/b) die globale Erwärmung T mit gleicher Genauigkeit als Funktion der kumulativen Emission m beschreiben kann, wie es mit dem Ansatz T=3,1*ln(C/C0) möglich ist. Als beste Lösung (mit minimalen Abweichungen zwischen Periodenmittelwerten) wird dabei gefunden: a=2,07 °C. Der Wert des Parameters b hängt von a ab, und zwar so, daß für m=1600 Gt gilt:
T(m)=1°C → b = 2576 Gt für a=2,07 °C.

(3) T ~ a * ln(1+(exp(1/a)-1)*m/1600) = a * ln((b+m)/b)

In einem zweiten Schritt wird der Parameter a von Formel (3) so bestimmt, daß die mit Formel (3) berechneten Werte eine Obergrenze für die aus der kumulativen Emission von m Gt resultierende globale Erwärmung darstellen: a = 2,585 °C (→ b = 3387 Gt).

Berechnung der Ableitung dT/dm

In „AMO-Index, CO2-Konzentration und globale Erwärmung“ wurde hergeleitet, daß die bisherige globale Erwärmung der logarithmischen Formel (4) gefolgt ist:

(4) T = S * ln(1+(C-C0)/C0) mit S = 3,10 +- 0,05 °C

Die Temperatur-Meßwerte wurden bis Ende des 20. Jahrhunderts von einer gleichmäßigen und zur AMO synchronen Multidekaden-Schwingung überlagert, die durch die Bildung von Mittelwerten über ihre Periode P von 68 Jahren herausgerechnet werden kann.

Nach einer Emission von m Gt CO2 verbleibt in der Atmosphäre die CO2-Masse mAtm(m), deren Anteil man als kumulierte Airborne Fraction AFkum(m) bezeichnet:

(5) AFkum(m) = mAtm(m) / m

mAtm(m) kann man aus der Konzentrations-Erhöhung (C-C0) durch Umrechnung ppm in Gt ermitteln:

(6) mAtm(m) = (C-C0)/0,128 = m * AFkum(m)

Durch Differenzieren von mAtm(m) erhält man die „Airborne Fraction“ AF(m), d.h. den Anteil, der von einem Emissions-Puls dm (z.B. der Emission eines Jahres) in der Atmosphäre verbleibt:

(7) AF(m) = dmAtm/dm = AFkum(m) + m * dAFkum/dm

Formel (4) kann man unter Anwendung vom Formel (6) umwandeln und anschließend nach m differenzieren:

(8) T = S * ln(1 + 0,128*m*AFkum(m)/C0)

(9) dT/dm = S * C0/C * 0,128/C0 * (AFkum(m) + m * dAFkum/dm )

Durch Kürzen und Einsetzen von Formel (7) in Formel (9) folgt (mit S=3,1 °C):

(10) dT/dm = S * 0,128*AF(m)/C(m)     (°/Gt)

(11) dm/dT = 2,52 * C/AF                         (Gt/°)

Die Konzentration C und die Airborne Fraction AF werden mit Hilfe des Bern Carbon Cycle Modells aus den jährlichen CO2-Emissionen berechnet, so daß Formel (11) graphisch dargestellt werden kann:

Abb. 2 | dm/dT berechnet nach Formel (12) im Vergleich zur numerisch differenzierten Ableitung

Abb. 2 zeigt, daß die blaue Kurve dm/dT mit m ansteigt und ca. 1988 (bei m = 750 Gt) die Gerade dm/dT =1600 Gt/° geschnitten hat. Mittlerweile (m = 1600 Gt) hat dm/dT einen Wert von ca. 2000 Gt/° erreicht. Zusätzlich wurde in Abb. 2 die numerische Ableitung dm/dT eingezeichnet, die aus Abb. 9 in „AMO-Index, CO2-Konzentration und globale Erwärmung“ berechnet wurde: Die geglättete Kurve der um die MD-Oszillation korrigierten Temperaturen wurde mit Hilfe von Ausgleichsgeraden-Steigungen über +-7 Punkte numerisch differenziert. Die Tendenz der grünen numerischen Ableitung entspricht derjenigen der blauen Kurve.

Lineare Näherung für dm/dT

Der bisherige Verlauf von dm/dT laut Abb. 2 scheint linear über m zu sein. Also gilt:

(13) dm/dT = (m+b)/a

Durch die Integration des Kehrwerts dT/dm = a/(m+b) folgt:

(14) T(m) = a * ln(1 + m/b) mit

(15) b=1600/(exp(1/a)-1) (Gt)

Es gilt T(0) = 0 und T(1600) = a*ln(1+exp(1/a)-1) = 1

Analog der Bestimmung der Steigung S für T=S*ln(C/C0) kann der Faktor a mit Hilfe von Periodenmittelwerten bestimmt werden – vgl. Abb. 4 in „AMO-Index, CO2-Konzentration und globale Erwärmung“:

Abb. 3 | Vergleich Periodenmittel der mittl. globalen Temperaturen mit Periodenmitteln des Ansatzes T(m) = a*ln(1+m/b): Beste Anpassung mit 0,00387° mittl. Abw. (Wertebereich 1930-1973) für a=2,07 und b=2576

Abb. 3 zeigt die beste Lösung, die mit Meßwerten zwischen den Jahren 1896 und 2006 (für die eine durchgängig gleichmäßige MD-Oszillation bestanden hat) und daraus berechneten Periodenmitteln zwischen 1930 und 1973 ermittelt wurde. Die mittlere Abweichung der Periodenmittel im betrachteten Wertebereich ist ebenso klein (0,004 °C) wie beim Ansatz T=3,1*ln(C/C0). Die Steigung dm/dT dieser aus den Meßwerten direkt hergeleiteten Formel für T(m) an der Stelle m=1600 Gt beträgt nach Formel (13):

dm/dT(1600) = (1600+2576)/2,07 = 2017  Gt/°

2017 Gt/° liegt deutlich oberhalb des vom IPCC behaupteten Wertes von 1600 Gt/°.

Ermittlung einer unteren Schranke für dm/dT

Formel (11) ist eine theoretisch korrekte Beschreibung von dm/dT auf der Grundlage des logarithmischen Ansatzes (4) für die globale Erwärmung. Der lineare Ansatz für dm/dT nach Formel (13) ist hingegen eine Näherung.

Das Ziel ist, den Parameter a von Formel (13) so zu bestimmen, daß für alle m>0 gilt:

(16) dm/dT = 1/a * (m+1600/(exp(1/a)-1)) < 2,52*C(m)/AF(m)

und zwar so, daß der minimale Abstand zwischen beiden Kurven maximal wird.

Um dm/dT mit Formel (11) abzuschätzen zu können, muß man Näherungen für die Konzentration C(m) und die Airborne Fraction AF(m) ermitteln.

Abb. 4 | lineare Näherungen für C(m) und AF(m)

Eine naheliegende Näherung ist das lineare Fortschreiben der bisher beobachteten Tendenzen von Konzentration und Airborne Fraction über m – siehe Abb. 4:

(17) C(m) = 0,55 * 0,128 * m + 295     (ppm)

(18) AF(m) = 0,55 – m/53300

Damit kann man die beiden in Ungleichung (16) verglichenen Ansätze für dm/dT zeichnen, die Differenz und ihr Minimum bestimmen und den Parameter a von Formel (13) so wählen, daß dieses Minimum maximal wird:

Abb. 5 | Anpassung der linearen Kuve für dm/dT an die theoretische Kurve, so daß der minimale Abstand maximal wird

Zwischen a=2,42 und a=2,72 hat die Differenz 2,52*C/AF – (m+b)/a auf dem betrachteten Wertebereich ein relatives Minimum. Dieses wird für a=2,585 (→ b = 3387 Gt) maximal. Es liegt bei ca. m=700 Gt. Die blaue und die grüne Kurve haben an dieser Stelle die gleiche Steigung 1/a.

Das Ergebnis wird in Abb. 6 gezeigt und mit den mit Formel (11) berechneten dm/dT-Ableitungen verschiedener Szenarien (siehe Link) verglichen:

Abb. 6 | Test der untere Abschätzung dm/dT = (m+3350)/2,055 mit verschiedenen Szenarien

Man sieht, daß die Ableitungen dm/dT der Szenarien bis auf eine Ausnahme oberhalb der gefundenen Geraden (rot gestrichelt) liegen. Die Ausnahme ist das extreme Szenario 8.5, das annimmt, daß die seit ca. 50 Jahren nahezu konstante CO2-Pro-Kopf-Emission von ungefähr 5 t/Jahr bis 2080 auf 8 t/Jahr ansteigt: Zwischen m=2000 und m=4000 liegen die dm/dT-Werte von RCP 8.5 praktisch auf der rot gestrichelten Geraden.

Die hellblaue (durchgezogene) dm/dT-Kurve des „Weiter wie bisher“-Szenarios 9.0 setzt die Tendenz der dunkelblauen aus Meßwerten ermittelten Ableitung fort. In sofern ist es auch verständlich, daß die mit Hilfe von Periodenmitteln gefundene Lösung
T = 2,07 * ln(1+m/2576) (vgl. Abb. 3) exakt den Temperaturverlauf von Szenario 9.0 über m beschreibt.

Obere Schranke für aus m Gt CO2-Emissionen resultierende globale Erwärmung

Die Integration des Kehrwerts der unteren Schranke für dm/dT ergibt nach den Formeln (14) und (15) eine obere Schranke für die aus m Gt CO2-Emissionen resultierende globale Erwärmung T:

(19) T <= a * ln(1+m/b) mit a=2,585 °C und b=3387 Gt.

Anmerkung: Die tatsächlich gemessene mittlere globale Temperatur kann von dem in Formel (19) bestimmten Wert durch Überlagerungen von AMO oder PDO +- 0,1°C und durch die von Jahr zu Jahr zu beobachtenden Schwankungen weitere +-0,15°C abweichen, also bis zu +- 0,25°C.

In Abb. 7 wird geprüft, wie gut die gefundene obere Schranke die bisher beobachtete globale Erwärmung beschreibt:

Abb. 7 | Globale Erwärmung bis 2018 als Funktion von kumulierter Emission m: Vergleich verschiedener Ansätze

Die logarithmischen Kurven liegen alle praktisch übereinander und verlaufen mitten durch die um die MD-Oszillation korrigierten Temperatur-Meßwerte (vgl. Abb. 8 und 9 in „AMO-Index, CO2-Konzentration und globale Erwärmung“).

Ein Vergleich mit den bzgl. verschiedener Szenarien extrapolierten Temperaturen der globalen Erwärmung zeigt, daß man die nach Emission von m Gt CO2 zu erwartende mittlere globale Temperatur gut mit der gefundenen oberen Schranke (Formel (19)) abschätzen kann.

Abb. 8 | Die aus verschiedenen Szenarien resultierende globale Erwärmung mit oberer Abschätzung

Die Temperaturschätzungen weichen umso mehr nach oben ab (bis zu 0,4 °C), je weniger CO2 bis zum Jahr 2100 emittiert werden wird. Der Vorteil der Abschätzung

T = 2,585 * ln(1+m/3387)

besteht darin, kumulierten CO2-Emissionen in einfachster Weise eine resultierende globale Erwärmung zuordnen zu können bzw. umgekehrt aus Abb. 8 ablesen zu können, daß z.B. zur Einhaltung des 2°-Ziels von Paris insgesamt nicht viel mehr als 4000 Gt CO2 – allerhöchstens 5000 Gt – emittiert werden sollten. Selbst Szenario 6.0, das von einer Stabilisierung der jetzigen Verhältnissse ausgeht (d.h. nur noch geringer Weltbevölkerungs-Zuwachs auf maximal 10 Mrd. und gleichbleibende Pro-Kopf-Emissionen von 5 t/Jahr), wird nur zu 2,2 °C Temperaturerhöhung bis 2100 führen.

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Kumulative CO2-Emissionen und globale Erwärmung