Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike

Die Seite wird erstellt Max Gebhardt
 
WEITER LESEN
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Horst-Joachim Lüdecke: Energie und
Klima – Chancen, Risiken und Mythen,
4. überarbeitete Auflage. Eine
Buchbesprechung.

Autor

Horst-Joachim Lüdecke ist pensionierter Professor für Physik, als
Klimaforscher (Mit-)Autor zahlreicher internationaler Publikationen in
begutachteten Fachjournalen und Autor einiger populärwissenschaftlicher
Bücher. Auch durch Vorträge und Anhörungen in Parlamenten ist er bekannt
geworden. Wer ihn noch nicht kennt (was hier selten sein dürfte), findet
Einzelheiten hier.

Charakteristik und Stil

Im vorliegenden Buch hinterfragt der Autor das gängige mediale Narrativ zum
anthropogenen CO2 als Hauptursache des aktuellen Klimawandels und damit
verbunden die deutsche Energiepolitik. Auf nur 221 Seiten mit 33 Abbildungen
bringt er dabei nahezu Unglaubliches fertig: Der Text ist so komprimiert
geschrieben und gespickt mit Fakten, dass man als Leser mit fortschreitendem
Kenntnisstand bei wiederholtem Lesen immer wieder Neues entdeckt.
Gleichzeitig liest er sich, auch für thematische Neulinge, flüssig und
(scheinbar) leicht. Obwohl als populärwissenschaftliches Buch konzipiert,
weicht der Autor der Komplexität des Gegenstandes nicht aus und erliegt nie
der Gefahr, unzulässig zu vereinfachen.

Lesebeispiel: Kapitel 1.1., Ausganglage, S. 11f.

„Bereits leicht zugängliche Fakten zeigten somit an, dass die Grundlagen der
Klimafurcht fragwürdig sind. Über problemlos Nachprüfbares, wie
Überschwemmungshöhen von Flüssen und Extremwetter-Statistiken, besteht
weitgehende Unkenntnis in der Öffentlichkeit und den Redaktionsstuben der
Medien. Wie sieht es aber dann erst bei komplexeren Sachverhalten aus? Ist
menschgemachtes CO2wirklich klimaschädlich? Beantworten wir diese Frage
einmal hilfsweise mit „Ja“. Dann schließt sich die Folgefrage an, ob
Deutschlands kostspielige CO2-Vermeidungsmaßnahmen überhaupt global spürbar
sein können. Unser Weltanteil von etwa 2% aller menschgemachten CO2-
Emissionen ist vernachlässigbar, und von den maßgebenden Verursachern, wie
beispielsweise China hört man außer wohlfeilen politischen Beteuerungen
nichts Substantielles über CO2-Vermeidungsmaßnahmen. Und weiter: Kann man das
sich naturgesetzlich stets wandelnde Klima überhaupt schützen? Welche
Klimazone von polar bis tropisch bedarf des stärksten Schutzes? Was sagen
unabhängige Klimafachleute dazu? Gibt es hier einen ähnlichen Konsens über
die Klimaschädlichkeit des menschgemachten CO2wie in Politik und
Öffentlichkeit?“
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Dem wissenschaftlichen Anspruch wird er nicht nur durch differenzierte,
relativierende Formulierungen, sondern vor allem durch 320 Quellen und ein
sorgfältig aufbereitetes Literaturverzeichnis gerecht. Theoretische und
praxisnahe Abschnitte wechseln einander ab.

Daneben handelt es sich um einen der ganz seltenen naturwissenschaftlichen
Texte, die schon rein sprachlich ein Genuss sind. Grammatisch und
etymologisch anspruchsvolle Passagen werden gewürzt mit Humor, Sarkasmus und
manchmal auch etwas Polemik. Einmal begonnen, kann man das Buch kaum noch aus
der Hand legen.

Inhalt und Aufbau

Anstelle einer Zusammenfassung, die wegen der schon erwähnten Inhaltsdichte
kaum mehr möglich ist, hier das Inhaltsverzeichnis Inhalt.

Entgegen der Behauptung auf Wikipedia – die man insofern als üble Nachrede
bezeichnen muss – ist der Autor ist kein „Klima(wandel)leugner“. Weder
streitet er ab, dass Klima sich wandelt, noch dass der Mensch einen Anteil
daran haben kann, noch dass CO2 ein Treibhausgas ist. Allerdings widerlegt er
mit klaren Argumenten, durch zahlreiche nachprüfbare Quellen belegt, die
derzeit in den Medien immer wiederkehrenden „Mythen“ zum Klimawandel, z.B.:

       Noch nie war es so warm wie heute.
       Noch nie hat sich die Erde so schnell erwärmt wie heute.
       Extremwetter (z.B. Dürren, Hurrikanes) nehmen im Zuge des Klimawandels
       zu.
       Durch den Klimawandel sterben Korallen, die Natur gerät aus dem
       Gleichgewicht.

u.a.

Der erste Teil des Buches beschäftigt sich neben diesen Themen mit der
Klimageschichte der Erde und mit theoretischen und empirischen Zusammenhäng
von CO2 und postulierten Klimafolgen (Temperaturanstieg, Meeresversauerung
u.a.). Besonders unter die Lupe genommen wird die vielzitierte Korrelation
zwischen anthropogenem CO2 und dem globalen Temperaturanstieg seit ca. 1850.
Fazit: So einfach und monokausal, wie es uns in den täglichen Medien
nahegebracht wird, liegen die Dinge nicht. Über die komplexen atmosphärischen
Zusammenhänge weiß die Wissenschaft noch sehr wenig, aber Vieles, was wir
täglich zu lesen oder hören bekommen, ist nachweislich falsch.

Im zweiten Teil geht es um Energie. Anliegen des Autors ist es aufzuzeigen,
dass die in Deutschland eingeleitete „Energiewende“maßnahmen weder geeignet
noch verhältnismäßig sind, um Klimawandel und seine postulierten
Begleiterscheinungen aufzuhalten. Dass Strom nur einen kleiner Teil unserer
Energie darstellt, und dass selbst dieser Teil niemals durch Wind- und
Solarkraft bereitgestellt werden kann, wissen selbst viele Akademiker in
Deutschland heutzutage nicht. Die Zahlen und Fakten im Buch sind geeignet,
ihnen schnell und nachhaltig die Augen zu öffnen. Zahlreiche praktische
Rechenbeispiele erlauben dem interessierten Leser, sich aktiv zu beteiligen.
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Ein abschließendes Kapitel bewertet nicht nur die aktuelle Klimapolitik,
sondern deckt auch unlautere Aktivitäten von Wissenschaft und Medien auf. Die
angeführten Belege beweisen, dass es sich dabei keineswegs um
verschwörungstheoretische Behauptungen handelt.

Der Aufbau des Buches ist besonders lebendig gestaltet durch einführende
Überblicke zu Beginn der Kapitel, in denen der Leser schon neugierig gemacht
wird auf die spätere systematische Darstellung, die Auflockerung der
detailreichen Theoriekapitel durch Bilder und Rechenbeispiele, und
abschließende Zusammenfassungen und Rückverweise.

Lesebeispiel, einführender Überblick: Kapitel 2, Klima, S. 21.

„Der verheerende Hurrikan Katrina hatte Ende August 2005 die Stadt New
Orleans im Süden der USA schwer geschädigt, wobei die nächsten Jahre keine
schweren Stürme in New Orleans mehr vorkamen. War Katrina ein Klimaereignis?
Die Antwort lautet „Nein“. Es wäre ein Klimaereignis gewesen, wenn in den
gesamten 30 Jahren vor Katrina die Hurrikan-Häufigkeit oder -Stärke
zugenommen hätten. Dies war aber nicht der Fall (s. unter 2.3.1).“

Lesebeispiel, praktische Rechnung: Kapitel 3, Energie, S. 149:

„Unter 3.3 haben wir die Leistung beim Betanken eines einzigen Benzinautos
berechnet, es waren 6,1 MW! Dies entspricht der realen mittleren
Jahresleistung von vier200 m hohen E126 [Windkraftanlagen]! Welcher Kunde an
einer Tankstelle mag sich dies beim Tanken wohl vorstellen?“

Lesebeispiel, abschließende Zusammenfassung: Kapitel 2, Klima, S. 111ff.

„2.8   Diskussionen von Klimarealisten mit Klimawarnern?

[…] Diskutiert man dagegen mit Leuten, die es mit Informationsgewinn ernst
meinen und sich einer vernünftigen Diskussion nicht verschließen, erscheinen
nur die einfachsten und möglichst faktennahen Argumente hilfreich. […] Hier
daher die nach Auffassung des Buchautors zehn wichtigsten und einfachsten
Kernargumente, die den Behauptungen der Klimawarner entgegengesetzt werden
könnten:

 1. Klimawarner: „Klimaschutz“ ist die größte aktuelle Herausforderungder
    Menschheit.

   Klimarealist: „Klima ist […]“

Und was fehlt in dem Buch? Bei allem Enthusiasmus geht eine Besprechung nicht
ohne Kritik ab. Im vorletzten Kapitel „Hintergründe des Klima-Aktivismus“
diskutiert der Autor als politische Motivation die so genannte große
Transformation. Hier hätten aber auch wirtschaftliche Motive all jener
Kapitalgeber und Industrien genannt werden können, die seit Beginn der
Klimadiskussion in den 1980er Jahren zunehmend in propagierte Technologien
investiert haben. Außerdem würde man sich zum schnellen Nachschlagen, z.B. in
Diskussionen, einen Index wünschen.

Was ist neu?
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Gegenüber den vorherigen Auflagen hat der Autor den Aufbau des Buches
grundlegend verändert. Obwohl sich schon die vorigen Auflagen gut lasen,
fällt hier die deutlich systematischere inhaltliche Gliederung der Abschnitte
auf. Außerdem wurden inhaltliche Schwerpunkte verschoben. Während zum Thema
Energie die Kernkraft inzwischen in einem eigenen Buchbehandelt wird und
somit hier kaum noch zu finden ist, sind zum Thema Klima weitere interessante
Details hinzugekommen, z.B. zur Klimasensitiviät von CO2 (Bild 18) oder zu
den Klimamodellen des IPCC (Bild 19). Zudem sind alle Daten aktualisiert und
zahlreiche aktuelle Literatur, insbesondere kritisierte Mediendarstellungen,
neu eingefügt worden.

Für wen lohnt sich der Kauf?

Klare Antwort: Für alle. Jedenfalls für alle, die …

… eine der früheren Auflagen bereits gelesen haben und ihre Kenntnisse
auffrischen und ergänzen wollen,

… die bisher ahnungslos dem gängigen Medien-Narrativ geglaubt haben,

… die der Politik vertrauen und misstrauisch sind gegenüber den
„Verschwörungstheorien der Klimaleugner“ – jedenfalls wenn sie sich einen
Rest gesunder Neugier und Misstrauen gegen sich selbst bewahrt haben.

Nur blinde Ideologen können sich den Geld- und Zeitaufwand wohl sparen.

Nach meiner eigenen Erfahrung im (akademisch gebildeten) Bekanntenkreis war
das Buch von Professor Lüdecke bisher das am besten geeignete, um Menschen
aus dem „Tal der Ahnungslosigkeit“ herauszuhelfen.

Diepositive Besprechung, die Konrad Kleinknecht, ehemaliges Vorstandsmitglied
der Deutschen Physikalischen Gesellschaft, zur ersten Auflage im Physik
Journal verfasst hatte, kann auch für die Neuauflage als Nachweis der
wissenschaftlichen Seriosität und Werbung gelten. Das ist umso wichtiger, als
– wie viele Leser wissen, und wie es auch im Buch thematisiert wird – der
Autor und zahlreiche Buchinhalte, z.B. zum angeblichen wissenschaftlichen
Konsens im Kapitel 3.5.3, Opfer medialer Zensur und unsachlicher
Verunglimpfung geworden sind, z.B. auf Wikipedia (s.o.). Aus diesem Grund
lege ich, wenn ich das Buch an „Neulinge“ verschenke, immer eine Kopie der
Kleinknecht-Besprechung bei. (Gleichermaßen kann das dem Buch vorangestellte
Geleitwort des Mathematikers und CDU-Bundestagsabgeordneten Arnold Vaatz dazu
dienen, misstrauische Zeitgenossen, die sich kein eigenes Urteil zutrauen,
von der Seriosität zu überzeugen.)

Buch:

Lüdecke, Horst-Joachim (4. überarbeitete Auflage 2020). Energie und Klima.
Chancen, Risiken und Mythen. Tübingen: expert Verlag. 221 Seiten, 320
Quellen, 33 Abbildungen.

Zu bestellen hier oder hier.
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Weitere Quellen:

Kleinknecht, K. (2013). Kampf um Strom + Energie und Klima. Physik Journal 12
(2013) Nr. 8/9, S. 86-87. https://www.pro-physik.de/restricted-files/91316

Wie Klimadaten in den USA manipuliert
werden – Erwärmung statt Abkühlung?

https://realclimatescience.com/

Die * „National Oceanic and Atmospheric Administration“ NOAA ist die Wetter-
und Ozeanografiebehörde der Vereinigten Staaten. Sie wurde am 3. Oktober 1970
als eine Einrichtung des Handelsministeriums gegründet, um die nationalen
Ozean- und Atmosphärendienste zu koordinieren. Ihr Sitz ist die
Bundeshauptstadt Washington.

Heller zeigt, wie die Klimatologen in den USA mit Hilfe des
„Beobachtungszeitraum-Fehlers“ eine Abkühlung der USA nach 1960 in eine
Erwärmung ummünzen, um das klimapoltische CO2-Narrativ zu unterstützen.

„Wir sind dümmer geworden“ -Medien
setzen Rekordkälte mit globaler
Erwärmung gleich

Die   New York Times zum Beispiel berichtet auf ihrer Website über die Gefahren
von   Frostbeulen im Winter, einschließlich eines reißerischen Artikels , der
die   Rekordhitze in Australien und die Rekordkälte in den USA als zwei Seiten
der   globalen Erwärmung bezeichnet.

      „Ganz allgemein erlebt ein heißer Planet extremes Wetter häufiger und
      intensiver“, heißt es in dem Artikel der Times, in dem er vor dem
      „Zeitalter der Wetterextreme“ gewarnt wird.
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Auch die Chicago Times, Axios, The Washington Post und andere verbreiten die
Theorie, dass die globale Erwärmung den Jet-Stream schwächte, so dass der
„Polarwirbel“ nach Süden wandern und Rekordkälte bringen konnte.

   (Bill Nyes, [ein bekannter Alarmist] entwarf apokalyptische Szenarien für
   die ultimativ stattfindende globale Erwärmung: „Die USA müssen ihr Gemüse
   in Kanada anbauen“)

Viele Experten halten dies nicht für richtig und sagen, es sei ein Hype der
Klimamedien. Tatsächlich werden Wetterereignisse, die früher als üblich
angesehen wurden, nunmehr der globalen Erwärmung zugeschrieben, die sich über
Jahrzehnte abspielt und in Trends gemessen wird, und nicht in kurzfristigen
Wetterschwankungen.

                   Sehen Sie hier das Original auf Twitter

    “Klimawandel“ bezog sich einst auf Statistiken, die das gemessene
    Wetter über Jahrzehnte hinweg zusammengefasst hatten“, bemerkte
    Roger Pielke Jr, Professor der University of Colorado, auf Twitter.

    Heutzutage wird Klimawandel meist als ursächlicher Faktor bei der
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Zuordnung von Ereignissen über Stunden, Tage oder Wochen
    verwendet“, sagte Pielke. „Wir sind dümmer geworden.“

Literaturausschnitte

    Diese zweite Art von Verwirrung liegt sichtbar vor, wenn der
    Ausdruck „Klimawandel“ selbst als kausaler Faktor verwendet wird.
    Kommt es beispielsweise zu einem ungewöhnlichen [in einem maximalen
    Zeitraum von drei Jahren, Meinung des Übersetzers] Ereignis, wird
    in vielen Medienberichten unweigerlich gefragt: Hat der Klimawandel
    dieses Ereignis verursacht?

    Diese Frage ist von Natur aus unsinnig.

    [Der Rest beschreibt am Beispiel eines Baseballspielers, dessen
    durchschnittliche Performance für sich keinen Grund darstellt,
    welche Leistung er heute auf dem Platz zeigt]

    Unglücklicherweise, drehen sich viele Diskussionen im Kreise und
    sind gleichermaßen inhaltsleer. Klimawandel an sich verursacht
    nicht mehr Wetterereignisse. Es kann angenommen werden, dass die
    Phrase „Klimawandel“ gleichgesetzt wird mit „Kohlenstoff
    Emissionen“ [und sofort mit „anthropogen“]. In dem Maße, in dem ein
    solcher Euphemismus in Diskussionen verwendet wird, schafft er
    Hindernisse für glaubwürdige Diskussionen um Beweise im
    Zusammenhang mit extremen Wetterereignissen

Winterwetter provoziert oft eine Flut von Artikeln darüber, warum kaltes
Wetter die globale Erwärmung nicht widerlegt, aber jetzt bringt die Kälte
„Wissenschaftler“, Aktivisten und Experten hervor, die behaupten, dass
Erwärmung hinter der Kälte steckt. Sogar Greenpeace-Aktivisten machten mit,
hier ist es Mike Hudema:

Sehen Sie hier das Original auf Twitter
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Klimawandel bedeutet schwere Hitze, Wirbelstürme, Brände und
    Luftströmungen und auch extreme Kälte #cold.

    Wir spüren bereits die Auswirkungen der #climate Krise. Werden wir
    etwas dagegen unternehmen? #ActOnClimate #energy #cdnpoli
    #PolarVortex #Renewables #GreenNewDeal #PanelsNotPipelines

Ergibt das einen Sinn? Natürlich nicht, und viele Wissenschaftler haben
darauf hingewiesen.

   „Ehrlich gesagt, ist es ein langer, verschwurbelter Weg, um eine solche
   Verbindung herzustellen“, sagte Kevin Trenberth, Klimaforscher am
   Nationalen Zentrum für Atmosphärenforschung.

   „Über der Arktis ist in einer Polarnacht immer kalte Luft. Die Frage ist,
   ob sie dort bleibt oder weiterwandert“, sagte Trenberth. „Das alles liegt
   im Bereich des Wetters. Das ist kein Klima. “
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Mehrere Studien haben eine Korrelation und sogar eine Verbindung zwischen der
Erwärmung der Arktis und dem Wetter in der mittleren Breite gefordert,
einschließlich einer im Jahr 2018 veröffentlichten Studie, in der
festgestellt wurde, dass Kälteeinbrüche wahrscheinlicher sind, wenn die
Arktis ungewöhnlich warm ist .

Diese Studie litt jedoch unter gravierenden Mängeln, dh. es wurden weder
Hypothesen geprüft noch wurde versucht, eine Kausalität zwischen der globalen
Erwärmung und den Kälteeinbrüchen festzustellen. Auch die offiziellen
Datensätze der Regierungsorganisationdeuten deuten auf weniger Kälteeinbrüche
hin, nicht auf mehr.

Gefunden auf The Daily Caller News Foundation vom 30.01.2019

Übersetzt durch Andreas Demmig

https://dailycaller.com/2019/01/30/media-global-warming-polar-vortex/

Mojib Latif: Drei Aussagen, drei Mal
voll daneben

AUSSAGE 1:

Mojib Latif am 4. Dezember 2012 in der Talkshow “Pelzig hält sich“:

    „Eins will ich ja auch nochmal sagen. Ich wäre ja froh, wenn es die
    Sonne wäre. Dann könnten wir ja nichts tun. Ja, aber das ist es
    nicht. Wenn Sie sich die Sonnenstrahlung angucken, seit 50 Jahren
    ist die Sonne schwächer geworden. Und wie soll eine schwächer
    werdende Sonne eigentlich eine massive Erwärmung verursachen?“

Falsch. Die Sonne ist in den letzten 50 Jahren in Wahrheit stärker geworden,
wenn man die Total Solar Irradiance (TSI) (weiße Kurve im Diagramm)
berücksichtigt, die auch die kosmische Strahlung bzw. das Sonnenmagnetfeld
mit einbezieht.
Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
Abbildung: Entwicklung der Sonnenaktivität während der vergangenen 400 Jahre.
Weiße Kurve zeigt solare Gesamtstrahlung (Total Solar Irradiance, TSI), gelbe
Ausschläge markieren Sonnenflecken. Quelle: PAGES2K-Webseite, heruntergeladen
im März 2016.

———–

AUSSAGE 2:

Mojib Latif am 4. Dezember 2012 in der Talkshow “Pelzig hält sich“:

       „Ja, das kann man ja alles quantifizieren. Das ist natürlich eine
       glatte Lüge, wenn behauptet wird, dass wir die Sonne nicht mit
       berücksichtigen. Es gibt kein Klimamodell, dass die Sonne nicht
       mitberücksichtigt. Ich meine wir sind ja keine Deppen. Hier wird ja
       irgendwie der Eindruck erweckt, als wenn wir die größten
       Vollidioten aller Zeiten sind. So ist es ja nicht.“

Falsch, Herr Latif. Ein Blick auf den Strahlungsantrieb im 5. IPCC-
Klimazustandsbericht reicht aus, um zu sehen, dass die Sonne in den Modellen
nahezu keinen Einfluss hat. CO2: 1,68 W/m2, Sonne: 0,05 W/m2. Die Sonne
spielt damit praktisch keine Rolle.
Abbildung: Strahlungsantrieb der einzelnen Klimafaktoren laut 5. IPCC-
Bericht. Die Sonne spielt praktisch keine Rolle beim IPCC.

———–

AUSSAGE 3:

Mojib Latif im Interview mit der Neuen Osnabrücker Zeitung (NOZ) am 12.
September 2012:

       NOZ: Herr Latif, trägt eher die Sonne zur Erderwärmung bei oder das
       Treibhausgas Kohlendioxid, CO2?

       LATIF: Es ist ein Mix aus beidem. Klar ist, dass der Mensch über
       die Hälfte des Temperaturanstiegs seit Beginn der
       Industrialisierung zu verantworten hat.

Zuvor hatte Latif der österreichischen Zeitung ‚Die Presse‘ (DP) am 9.
Februar 2012 das Folgende gesagt:
DIE PRESSE: Zurück zur bisherigen Erwärmung, 0,8 Grad seit 100
       Jahren. Für Vahrenholt kommt die Hälfte von der Sonne. Und beim
       IPCC kommt alles vom CO2?

       LATIF: Nein, das hat der IPCC nie gesagt, er ist sehr vorsichtig
       und sagt, dass etwa die Hälfte der Erwärmung anthropogen ist.

       DIE PRESSE: Dann sagt er das Gleiche wie Vahrenholt?

       LATIF: Ja, das ist es ja, was mich wahnsinnig macht: Da wird ein
       Popanz aufgebaut und dann genüsslich zerrissen.

Wieder liegt Latif falsch. Hier genügt ein Blick in den neuen Spezialbericht
des IPCC zum 1,5-Grad-Ziel:

       Den langfristigen Erwärmungstrend seit vorindustriellen Zeiten
       widerspiegelnd, lag die beobachtete mittlere globale
       Oberflächentemperatur in dem Jahrzehnt 2006–2015 um 0,87
       °C(wahrscheinlich zwischen 0,75 °C und 0,99 °C) höher als der
       Durchschnitt für den Zeitraum 1850–1900 (sehr hohes Vertrauen).

       Die geschätzte anthropogene globale Erwärmung stimmt mit dem Ausmaß
       der beobachteten Erwärmung innerhalb von ±20 % (wahrscheinlicher
       Bereich) überein.

Oder anders ausgedrückt: Die gesamte beobachtete Erwärmung der letzten 150
Jahre ist laut IPCC anthropogen.

———–

Drei Latif-Aussagen, drei Mal voll daneben. Gilt unter diesen Umständen
Latifs Kritik an der Kalten Sonne überhaupt noch? Gerne würden wir mit Mojib
Latif darüber persönlich sprechen. Ist er nach seiner früheren Verweigerung
zur Diskussion jetzt vielleicht gesprächsbereit? Wir hoffen auf gute
klimatische Entwicklungen für 2019.

Wir wünschen allen Kalte-Sonne-Bloglesern – und natürlich auch Herrn Latif –
einen Guten Rutsch ins neue Jahr.

Die EIKE Redaktion schließt sich diesem Wunsch des kalte Sonne Teams
vorbehaltlos an.

Klimasensitivität –                         Wer rechnet hier
falsch ?

Diese Annahme wird auch bei den Klimamodellen verwendet. Neuere
Studienergebnisse zu diesem Thema mit einem wesentlich geringeren Anstieg
wurden vom IPCC ignoriert. Wie auch jüngst wieder durch PIK Professor Anders
Levermann beim öffentlichen Fachgespräch im Umweltausschuss des Deutschen
Bundestages am 28.11.18.

Doch auch Prof. Marotzke (MPI) gab kürzlich zu, dass die bisherige Annahme
offenbar zu hoch ist. Dies wird durch den Vergleich des berechneten
Temperaturanstieges mit der Realität der letzten 20 Jahre bestätigt. Bis
heute konnte der angebliche CO2-Effekt auf die Globaltemperatur nicht durch
historische Fakten belegt werden, sondern ist laut IPCC-Bericht eine Sache
von „confidence“, d.h. von Glauben oder Vertrauen.

Die Milchmädchen-Rechnung, die Klima-Politiker, Journalisten und etliche
Klimatologen nicht machen können oder wollen, lautet wie folgt:

Bis zur Verdoppelung des CO2-Gehaltes von heute 400 auf 800 ppm vergehen bei
den aktuellen Emissionen mit einem Anstieg von ca. 2 ppm pro Jahr noch 200
Jahre. Das bedeutet real in 100 Jahren ca. + 1,5°C – genau das, was sich
Politiker bei der Pariser Konferenz so vorgestellt haben, aber ohne
kostspielige und risikoreiche CO2-Verminderungsmaßnahmen.

Das international anerkannte Modtran-Programm der Atmosphärenphysik zeigt
zwischen 400 und 800 ppm einen Temperaturanstieg von nur 1,7°C (anstelle von
den 3°C des IPCC) mit Berücksichtigung des Sättigungseffektes, der ansonsten
oft ignoriert wird. Das wäre dann in 100 Jahren nur ein Anstieg um ca.
+0,85°C.

Tatsächlich ist aber kein weiterer Anstieg der mittleren Globaltemperatur zu
erwarten, sondern das Gegenteil: sie wird in den nächsten 400 Jahren aller
Wahrscheinlichkeit nach wieder um ca. 1,5°C absinken – so, wie dies schon
seit 8000 Jahren regelmäßig alle 1000 Jahre der Fall war, zuletzt in der
mittelalterlichen Kaltzeit (auch „ Little Ice Age“ genannt). Dieser
natürliche Klimazyklus basiert auf solaren und astrophysikalischen Faktoren
und kann von Menschen nicht beeinflusst werden – genauso wenig wie andere
Natur-Ereignisse wie Erdbeben und Vulkanausbrüche.

Wissenschaftler: Globale Erwärmung ist
vorbei, jetzt kommt Abkühlung

Einer dieser Klimaforscher ist Valentina Zharkova, Astrophysikerin an der
Northumbria University im Vereinigten Königreich. Zharkova und ihr
Forscherteam sagen, auf der Grundlage mathematischer Modelle der magnetischen
Aktivität der Sonne, ist es wahrscheinlich, dass die Erde über einem Zeitraum
von 33 Jahren abnehmende Magnetfelder erlebt, beginnend ab 2021.

[Mehr zum Thema Sonne und ihre Strahlen beim Bundesministerium für Bildung und
Forschung und Zentrale für Unterrichtsmedien im Internet e. V.]

Zharkova ist nicht allein. Forscher des Physikalischen Meteorologischen
Observatoriums Davos, des Eidgenössischen Wasserforschungsinstituts, der ETH
Zürich und der Universität Bern haben 2017 ein Modell veröffentlicht, das
eine Abkühlphase „in 50 bis 100 Jahren“ projektiert. Zahlreiche andere
Studien haben ähnliche Projektionen. Die Website NoTricksZone listet Hunderte
von Peer-Reviewed-Studien [Die Sonne treibt das Klima], in denen argumentiert
wird, dass Sonnenaktivität und Sonnenzyklen auf dekadischen,
jahrhundertlangen und tausendjährigen Zeitskalen einen wesentlichen Einfluss
auf den globalen Klimawandel haben. Einige dieser Papers untermauern sogar,
dass Sonnenaktivität oft der dominierende Faktor für den Klimawandel ist.

Die Forscher sagen, dass verminderte solare magnetische Aktivität mit
historisch kühlen Perioden in der Erdgeschichte in Verbindung gebracht werden
konnten, wie das Maunder-Minimum, eine Periode niedriger magnetischer
Aktivität, die mit der „Mini-Eiszeit“ von 1645 bis 1715 zusammenhängt.
Während des Maunder-Minimums stürzten die Temperaturen so stark ab, dass die
Londoner „Frostmessen“ auf der gefrorenen Themse veranstalteten.

   Wegen Copyright nur hier der Link, zu Aufnahmen von niederländischen
   Darstellungen der “Kleinen Eiszeit” im staatlichen Museum in Berlin:
   Auch sehenswert, Eiszeitbilder auf : Pinterest

Der Historiker Geoffrey Parker schrieb für die New York Times :

   „In der ungewöhnlichen Kälte, die von den 1620er bis in die 1690er Jahre
   dauerte, war das Eis am Bosporus und an der Ostsee so dick, dass die
   Menschen von einer Seite zur anderen laufen konnten.“

Obwohl Zharkova sagt, dass die Genauigkeit ihres Modells bei 97 Prozent
liegt, ist sie sich nicht sicher, wie einflussreich die niedrigere
magnetische Sonnenaktivität sein wird, insbesondere weil man glaubt, dass es
heutzutage mehr Kohlendioxid in der Atmosphäre gibt als im 17. Jahrhundert,
und es gibt auch Klimaforscher, die glauben, dass höhere CO2-Werte
zusätzliche Erwärmung verursachen.

Viele von denen, die überzeugt sind, dass die Menschen für die höheren
globalen Temperaturen verantwortlich sind, die im vergangenen Jahrhundert
aufgezeichnet wurden, haben sie bereits begonnen, Zharkova und andere
abzutun, die sagen, dass die globale Temperatur sich aufgrund der
Sonnenaktivität bald abschwächen könnte. Michael Mann , Professor an der
Pennsylvania State University, der den widerlegten „Hockeyschläger-Graphen“
kreierte, sagte der Washington Post in 2015, dass der Effekt der geringeren
Sonnenaktivität im Vergleich zu den Kohlendioxidemissionen „ein Tropfen auf
den heißen Stein“ wäre.

Wenn Mann und andere CO2 – Warmisten, falsch liegen und mit einer geringeren
Sonnenaktivität sich auch das Klima abkühlt, dann könnten diese Ergebnisse
katastrophal für die Kreuzzüge des Klimawandels in der Democratic Party, den
Vereinten Nationen und anderen Ländern sein, die unbedingt CO2-
Emissionsbeschränkungen, Strafen oder beides verhängen wollen – das schließt
alle auf der Welt ein, auch Sie. Eine Abkühlung würde nicht nur praktisch
jedes einzelne Klimamodell unterminieren, welches auf eine stetige Erwärmung
im nächsten Jahrhundert getrimmt ist, sondern es würde auch zeigen, wie
schlecht die Mainstream-Klimawissenschaft geworden ist. Wenn Klimaaktivisten
noch nicht einmal eine 33-jährige Abkühlungsdauer aufgrund der
Sonnenaktivität nicht genau vorhersagen können, wieso sollte man dann darauf
vertrauen, dass sie die globale Temperatur für 100 Jahre in der Zukunft
vorhersagen können?

Im Gegensatz zu den schrecklichen Warnungen, die regelmäßig von linken
Zeloten und Politikern wie Sen. Bernie Sanders (I-VT) ausgegeben werden, ist
die Debatte über Ursachen und Folgen des Klimawandels noch immer sehr
lebendig. Ironisch wäre es, wenn Zharkovas Theorie der reduzierten
Sonnenaktivität sich als zutreffend erweist und Befürworter der Theorie, dass
Menschen für den Klimawandel verantwortlich sind, darin Recht haben, das auch
die Menschheit etwas zur Erderwärmung beiträgt.

Wenn die Klimaalarmisten Recht hätten, dann müsste der Planet heute viel
kühler sein als er es ist, wenn der Mensch nie größere Mengen CO2 produziert
hätte. Das bedeutet, dass die Kühlung, die sich aus der verringerten
Sonnenaktivität ergibt, theoretisch ohne die CO2-Emissionen der Menschen viel
extremer wäre. Das ist unglaublich wichtig, weil kühlere globale Temperaturen
in der Vergangenheit tödlichere Lebensbedingungen für Menschen, Pflanzen und
Wildtiere bedeutet hätten.

Wie Parker in der Times bemerkte:

   „Die tiefe Kälte in Europa und extreme Wetterereignisse [während der
   letzten kleinen Eiszeit] führten zu einer Reihe von Dürren,
   Überschwemmungen und Ernteausfällen, die zu erzwungenen Wanderungen,
   Kriegen und Revolutionen [und zur Inquisition und Hexenverfolgung]
   führten.“

Die angesehene akademische Zeitschrift The Lancet veröffentlichte 2015 eine
Studie, in der Gesundheitsdaten aus 13 Ländern berücksichtigt wurden. Die
Untersuchung von 74 Millionen Todesfällen ergab, dass kaltes Wetter indirekt
oder direkt 1.700 Prozent mehr Menschen tötet als warmes Wetter. Dies deutet
stark darauf hin, dass, selbst wenn Menschen dafür verantwortlich sind, das
globale Klima wärmer zu machen, sie in den nächsten 30 bis 40 Jahren viel
besser dran sein werden, als sie es sonst in einem kälteren Klima wären,
vorausgesetzt, Zharkovas Theorie ist richtig.

Zusätzliche Beweise zeigen auch, dass das wärmere Klima, über das
Umweltaktivisten ständig lamentieren, zahlreiche Vorteile hat. Eine Studie,
die im Jahr 2017 veröffentlicht wurde, fand rund 5 Mio km² Wälder, die bisher
nicht gezählt wurden [Fläche der 28 EU-Mitgliedsländer 4,3 Mio km²], was laut
Patrick Michaels vom Cato Institute ein starker Beweis dafür ist, dass die
Erwärmung eine signifikante Ökologisierung verursacht hat.
In 2016 wurde in Nature Climate Change eine Untersuchung veröffentlich, dass
es von 1982 bis 2009 eine erhöhte Begrünung gab, in 25-50 Prozent des
globalen Vegetationsbereiches, während nur 4 Prozent des Vegetationsbereiches
eine Dürre (Bräunung) erlebte. Die Forscher schätzen, dass 70 Prozent der
Begrünung auf höhere Kohlendioxidemissionen zurückzuführen sind.

Wenn eine globale Abkühlperiode stattfinden würde, wie würden Klimaalarmisten
reagieren? Wahrscheinlicher eher gar nicht, indem sie vorschlagen, dass die
Abkühlphase der Menschheit die letzte Chance bietet, die Katastrophe der
globalen Erwärmung abzuwenden, indem sie radikalere Energiepolitiken wie CO2-
Handelssysteme oder CO2-Steuern anwendet.

Zharkova schlug dies im Dezember in einem Interview mit Sky News vor.

   „Ich hoffe, dass die globale Warnung durch diesen Effekt [geringere
   solare magnetische Aktivität] außer Kraft gesetzt wird und der Menschheit
   und der Erde 30 Jahre Zeit gibt, um unsere Verschmutzung zu beseitigen.
   Wir müssen uns in dieser Zeit sammeln und alles auf der Erde für die
   nächste große Sonnenaktivität vorbereiten“.

Wenn Klimawissenschaftler nur halb so viel Zeit und Energie darauf verwenden
würden, zu lernen mit einem sich verändernden Klima zu leben, anstatt zu
versuchen, Vorhersagen darüber zu machen, was mit dem Klima der Erde in
hundert Jahren sein könnte, wären wir alle viel besser dran. Natürlich gäbe
es dann weniger dringende „Krisen“ und damit weniger Möglichkeiten, weit
reichende Gesetze zu begründen, die jeden Aspekt des Lebens der Menschen
kontrollieren.

Und das können wir sicher nicht, oder?

   [hier bin ich mir nicht sicher, wie das gemeint ist: … dass die Wissenschaftler
   sich um Anpassung bemühen und weniger alarmistische Warnungen ausgeben – oder
   weniger knebelnde Gesetzgebung? – der Übersetzer]

Justin Haskins ist Chefredakteur und wissenschaftlicher Mitarbeiter und H.
Sterling Burnett, Ph.D., ist Senior Fellow, beide am Heartland Institute.

Gefunden auf AmericanThinker vom 23. Oktober 2018

Übersetzt durch Andreas Demmig

https://www.americanthinker.com/articles/2018/10/why_some_scientists_say_glob
al_warming_is_out_and_global_cooling_is_in.html#ixzz5VKK1D85U

Hinweis:

Die Einwirkung kosmischer Strahlen und ihre Auswirkung auf das
Wettergeschehen der Erde, ist Forschungsthema von Prof. Dr. Henrik Svensmark,
hier auf Eike schon öfter vorgestellt – und Gastredner auf der 12.
Internationalen Klima- und Energiekonferenz in München
Ex-Beatle bekämpft die Klimaerwärmung
mit veganer Kost

„Es ist nicht die totale Lösung, aber es ist Teil der Lösung„, sagte Sir Paul
McCartney Reportern in einem Interview. Fleischlos hilft die globale
Erwärmung zurückzudrängen. Aktivisten haben diese Position seit Jahren
gestärkt, fügte er hinzu, aber Leute wie Trump machen es schwierig.

   „Besonders wenn jemanden wie Trump sagt, dass der Klimawandel nur ein
   Schwindel ist“, sagte McCartney, 75, über Kommentare, die der Präsident
   einst über die globale Erwärmung äußerte. In dem Interview wurde ein
   Kurzfilm des ehemaligen Beatles gezeigt, in dem die Leute ermutigt
   wurden, eine Woche lang auf tierische Produkte zu verzichten.

   „Viele Leute wie ich denken, das ist nur verrückt, also ist es vielleicht
   jetzt eine gute Zeit, um die Aufmerksamkeit der Leute zu bekommen und zu
   sagen:“ Schau, vergiss Trump, wir können selbst etwas tun „.

Umweltschützer haben schon länger versucht, Schulen und andere Institutionen
zu veranlassen, von Fleischgerichten in Richtung Tofu umzustellen. Schulen
aus Kalifornien schlossen sich Anfang dieses Jahres mit der Umweltgruppe
Friends of the Earth (FOE) zusammen, um Kindern ein Mittagsmenü zu geben,
das darauf ausgelegt ist, Nahrungsmittel zu eliminieren, von denen gesagt
wird, dass sie für unseren Planeten „nicht nachhaltig sind“.

Die neue Speisekarte bietet weit weniger Fleisch und mehr pflanzliche
Lebensmittel. Jedes Fleisch oder jeder Käse, den die Schule verwendete,
stammte von „weidenden, ökologischen Milchkühen“. Die Mittagskarte der
Schüler reicht von der Pepperoni-Pizza über veganen Tofu und vegane Tostadas.

Erschienen auf The Daily Caller am 06.11.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/11/06/paul-mccarthy-gong-vegan-is-the-best-way-to
-get-back-at-trumps-climate-madness/

Die Gesetze der Mittelwerte: Teil 3,
Der durchschnittliche Durchschnitt
Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“ sind in der breiten
Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und
sowohl als Wort als auch im Kontext ist eine überwältigende Menge an
„lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die
Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen
Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte
von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr
Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen
Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen
Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2
[Teil 2 hier übersetzt] werfen, bevor Sie fortfahren.

Warum ist es eine mathematische Sünde, eine Reihe von
Durchschnittswerten zu mitteln?

„Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter
Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn
versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was
man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

„Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte
„zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass
ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in
Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu
stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der
verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung
darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis:
NEIN!)

„Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und
Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist,
aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es
wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „-
siehe Wiki.de “Simpsons Paradox“

Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von
Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder
fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben
Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von
Patienten, die gleiche Anzahl von Meinungen und, wie bei allen
Durchschnittswerten, sind die Daten selbst physisch und logisch homogen
(nicht heterogen) und physisch und logisch kommensurabel (nicht
inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1]

Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30
Schüler gehören und wollte nun die durchschnittliche Größe der Schüler
finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse
durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt
durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie
durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der
Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem
Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die
Ergebnisse sind gleich.

Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle
unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben:
30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und
dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die
Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann
durch 150 teilt.

Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20
Schülern und die einzelnen Schüler der Klasse von 60 Schülern
unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um
für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil
des Gesamtdurchschnitts repräsentieren [0,66 = 1/150].

Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des
Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für
25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der
Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts
steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für
0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den
Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der
größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im
Durchschnitt gleichberechtigt ist.

Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in
diesen Abschnitt vorgestellt wurden. (Hier und hier)

Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten
wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:
Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und
hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf:
Durchschnittswerte zu mitteln.

Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise,
bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und
dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat
einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in
Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro-
Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem
Rechenweg und acht Landkreise liegen unter dem Durchschnitt.

Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene
Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem
heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen
basieren, die im Bereich der einstelligen oder sogar Bruchteilen von
Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad.

Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten
Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den
Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo
Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C)
beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert.
(0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und
0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie.
[Kann man diesen Unterschied merken? – der Übersetzer]

Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig
unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder
Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein
Ähnlich, aber nicht identisch, das ist Simpsons Paradox.

Simpsons Paradox

Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen,
das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten)
auftritt, oft in medizinischen Studien und verschiedenen Zweigen der
Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder
Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von
Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten)
kombiniert werden.

Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf
die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer
und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern.

[Die 1868 gegründete University of California, Berkeley, gehört zu den
renommiertesten Universitäten der Welt.]

Hier erklärt es einer der Autoren:

„Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt,
weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen
zeigen.

           Bewerber      Zugelassen
UCB
           Applicants    Admitted
Männer     8442          44%
Frauen     4321          35%

Statistischer Beweis für die Anklage (Tabelle abgetippt)

Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und
damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle
Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als
Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben
voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat
zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für
Frauen zu haben.“
In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle
Fachbereiche hinweg keine informative Sicht auf die Situation.

Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine
wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind
wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die
wahre Geschichte finden sie hier.

Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger
korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle
Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe
gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für
Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von
Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe
von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer
Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt
erreichte.“

Diese Tabelle zeigt das Paradox:

In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag
– Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter
[auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik.
Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem
ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden.

Klimatologie

In der Klimatologie tendieren die verschiedenen Gruppen die Daten über
längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte
zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter
die verschiedenen Methoden gewichten und ihre Methoden verteidigen.

Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich
in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage
hervorbringt, die sie dann einfach als die globale durchschnittliche
Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine
Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen,
monatlichen und jährlichen Durchschnitten an – aber das sind keine echten
Mittelwerte…. mehr dazu später.

Ein anderer Experte mag behaupten, dass sie definitiv keine
Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von
Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie
diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion
zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen
Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] -
Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu
erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen
gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden
diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten
Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach
Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“
bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien
„gedurchschnittet“ (gemittelt).

Die Anomalien können oder können nicht, je nach Berechnungssystem,
tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten
Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht
den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)].
Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht
echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen.

Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht
so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche
Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein
Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode
bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das
arithmetische Mittel der niedrigsten und höchsten aufgezeichneten
Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum
Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen,
auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen
aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo
und den Hi summiert und durch zwei teilt.

Macht das einen Unterschied? Das ist eine heikle Frage.

Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder
mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent
zu bleiben, so macht man es auch heute noch.
Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN:
64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf
Minuten eine Temperaturablesung. Der Datensatz enthält Werte für
„DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von
„DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die
„DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das
arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser
letzte Wert wird in der Klimatologie als die tägliche durchschnittliche
Temperatur verwendet. Für einen typischen Dezembertag sehen die
aufgezeichneten Werte so aus:

Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das
arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab
auf x)

Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3
F… Die Differenzen für diesen einen Tag:

   Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem
   tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F
   aufgrund des Rundungsalgorithmus.

   Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem
   korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten
   Temperaturen = 0,667 ° F

Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem
gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten
Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am
5. Januar 2016.

Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des
aufgezeichneten Durchschnitts.
Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle
Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als
tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen
aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem
Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung
herangezogen] – aber eher werden berechnet „wie wir das schon immer getan
haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in
einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise
als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber
irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem
Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint.
Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre]
für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller
Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in
Richtung wärmer].

Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die
gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es
spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es
kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden,
um politische Entscheidungen zu beeinflussen, nicht genau berechnete,
grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind.
Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich
nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“
verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten
der ersten Werteebene sind falsch, unpräzise, ungenau berechnet.

Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der
übliche Chor von:

 1. Am Ende gleicht sich alles aus (tut es nicht)
 2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken)
 3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien.

Die beiden ersten Argumente sind fadenscheinig.

Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben
beschriebenen Unterschiede. Der Grund für den Unterschied (außer der
einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass
die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt
wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde
eine „normal Verteilung“ sehen, die sich so darstellt:
Normal-oder-Standard-Verteilung

Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann
wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur –
das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich
nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den
Tag unterscheiden.

Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese
drei Tage von Januar und Februar 2016 in Millbrook, NY:
Reale stündliche Temperaturen

Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um
gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum
nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen
aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese
Tatsache. Doch in der Klimatologie werden die tägliche
Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen,
monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen
Idee berechnet.

Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft
nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt
zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und
Konsistenz.

Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir
müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo-
Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen
– weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz
bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt
sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen
beeinflussen, die Stationsdaten als Quelle verwenden.

Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem
gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt
quantitativ – sowohl die Werte als auch die Größen der Effekte werden für
verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene
Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische
Sie können auch lesen