Horst-Joachim Lüdecke: Energie und Klima - Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung - Eike
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Horst-Joachim Lüdecke: Energie und Klima – Chancen, Risiken und Mythen, 4. überarbeitete Auflage. Eine Buchbesprechung. Autor Horst-Joachim Lüdecke ist pensionierter Professor für Physik, als Klimaforscher (Mit-)Autor zahlreicher internationaler Publikationen in begutachteten Fachjournalen und Autor einiger populärwissenschaftlicher Bücher. Auch durch Vorträge und Anhörungen in Parlamenten ist er bekannt geworden. Wer ihn noch nicht kennt (was hier selten sein dürfte), findet Einzelheiten hier. Charakteristik und Stil Im vorliegenden Buch hinterfragt der Autor das gängige mediale Narrativ zum anthropogenen CO2 als Hauptursache des aktuellen Klimawandels und damit verbunden die deutsche Energiepolitik. Auf nur 221 Seiten mit 33 Abbildungen bringt er dabei nahezu Unglaubliches fertig: Der Text ist so komprimiert geschrieben und gespickt mit Fakten, dass man als Leser mit fortschreitendem Kenntnisstand bei wiederholtem Lesen immer wieder Neues entdeckt. Gleichzeitig liest er sich, auch für thematische Neulinge, flüssig und (scheinbar) leicht. Obwohl als populärwissenschaftliches Buch konzipiert, weicht der Autor der Komplexität des Gegenstandes nicht aus und erliegt nie der Gefahr, unzulässig zu vereinfachen. Lesebeispiel: Kapitel 1.1., Ausganglage, S. 11f. „Bereits leicht zugängliche Fakten zeigten somit an, dass die Grundlagen der Klimafurcht fragwürdig sind. Über problemlos Nachprüfbares, wie Überschwemmungshöhen von Flüssen und Extremwetter-Statistiken, besteht weitgehende Unkenntnis in der Öffentlichkeit und den Redaktionsstuben der Medien. Wie sieht es aber dann erst bei komplexeren Sachverhalten aus? Ist menschgemachtes CO2wirklich klimaschädlich? Beantworten wir diese Frage einmal hilfsweise mit „Ja“. Dann schließt sich die Folgefrage an, ob Deutschlands kostspielige CO2-Vermeidungsmaßnahmen überhaupt global spürbar sein können. Unser Weltanteil von etwa 2% aller menschgemachten CO2- Emissionen ist vernachlässigbar, und von den maßgebenden Verursachern, wie beispielsweise China hört man außer wohlfeilen politischen Beteuerungen nichts Substantielles über CO2-Vermeidungsmaßnahmen. Und weiter: Kann man das sich naturgesetzlich stets wandelnde Klima überhaupt schützen? Welche Klimazone von polar bis tropisch bedarf des stärksten Schutzes? Was sagen unabhängige Klimafachleute dazu? Gibt es hier einen ähnlichen Konsens über die Klimaschädlichkeit des menschgemachten CO2wie in Politik und Öffentlichkeit?“
Dem wissenschaftlichen Anspruch wird er nicht nur durch differenzierte, relativierende Formulierungen, sondern vor allem durch 320 Quellen und ein sorgfältig aufbereitetes Literaturverzeichnis gerecht. Theoretische und praxisnahe Abschnitte wechseln einander ab. Daneben handelt es sich um einen der ganz seltenen naturwissenschaftlichen Texte, die schon rein sprachlich ein Genuss sind. Grammatisch und etymologisch anspruchsvolle Passagen werden gewürzt mit Humor, Sarkasmus und manchmal auch etwas Polemik. Einmal begonnen, kann man das Buch kaum noch aus der Hand legen. Inhalt und Aufbau Anstelle einer Zusammenfassung, die wegen der schon erwähnten Inhaltsdichte kaum mehr möglich ist, hier das Inhaltsverzeichnis Inhalt. Entgegen der Behauptung auf Wikipedia – die man insofern als üble Nachrede bezeichnen muss – ist der Autor ist kein „Klima(wandel)leugner“. Weder streitet er ab, dass Klima sich wandelt, noch dass der Mensch einen Anteil daran haben kann, noch dass CO2 ein Treibhausgas ist. Allerdings widerlegt er mit klaren Argumenten, durch zahlreiche nachprüfbare Quellen belegt, die derzeit in den Medien immer wiederkehrenden „Mythen“ zum Klimawandel, z.B.: Noch nie war es so warm wie heute. Noch nie hat sich die Erde so schnell erwärmt wie heute. Extremwetter (z.B. Dürren, Hurrikanes) nehmen im Zuge des Klimawandels zu. Durch den Klimawandel sterben Korallen, die Natur gerät aus dem Gleichgewicht. u.a. Der erste Teil des Buches beschäftigt sich neben diesen Themen mit der Klimageschichte der Erde und mit theoretischen und empirischen Zusammenhäng von CO2 und postulierten Klimafolgen (Temperaturanstieg, Meeresversauerung u.a.). Besonders unter die Lupe genommen wird die vielzitierte Korrelation zwischen anthropogenem CO2 und dem globalen Temperaturanstieg seit ca. 1850. Fazit: So einfach und monokausal, wie es uns in den täglichen Medien nahegebracht wird, liegen die Dinge nicht. Über die komplexen atmosphärischen Zusammenhänge weiß die Wissenschaft noch sehr wenig, aber Vieles, was wir täglich zu lesen oder hören bekommen, ist nachweislich falsch. Im zweiten Teil geht es um Energie. Anliegen des Autors ist es aufzuzeigen, dass die in Deutschland eingeleitete „Energiewende“maßnahmen weder geeignet noch verhältnismäßig sind, um Klimawandel und seine postulierten Begleiterscheinungen aufzuhalten. Dass Strom nur einen kleiner Teil unserer Energie darstellt, und dass selbst dieser Teil niemals durch Wind- und Solarkraft bereitgestellt werden kann, wissen selbst viele Akademiker in Deutschland heutzutage nicht. Die Zahlen und Fakten im Buch sind geeignet, ihnen schnell und nachhaltig die Augen zu öffnen. Zahlreiche praktische Rechenbeispiele erlauben dem interessierten Leser, sich aktiv zu beteiligen.
Ein abschließendes Kapitel bewertet nicht nur die aktuelle Klimapolitik, sondern deckt auch unlautere Aktivitäten von Wissenschaft und Medien auf. Die angeführten Belege beweisen, dass es sich dabei keineswegs um verschwörungstheoretische Behauptungen handelt. Der Aufbau des Buches ist besonders lebendig gestaltet durch einführende Überblicke zu Beginn der Kapitel, in denen der Leser schon neugierig gemacht wird auf die spätere systematische Darstellung, die Auflockerung der detailreichen Theoriekapitel durch Bilder und Rechenbeispiele, und abschließende Zusammenfassungen und Rückverweise. Lesebeispiel, einführender Überblick: Kapitel 2, Klima, S. 21. „Der verheerende Hurrikan Katrina hatte Ende August 2005 die Stadt New Orleans im Süden der USA schwer geschädigt, wobei die nächsten Jahre keine schweren Stürme in New Orleans mehr vorkamen. War Katrina ein Klimaereignis? Die Antwort lautet „Nein“. Es wäre ein Klimaereignis gewesen, wenn in den gesamten 30 Jahren vor Katrina die Hurrikan-Häufigkeit oder -Stärke zugenommen hätten. Dies war aber nicht der Fall (s. unter 2.3.1).“ Lesebeispiel, praktische Rechnung: Kapitel 3, Energie, S. 149: „Unter 3.3 haben wir die Leistung beim Betanken eines einzigen Benzinautos berechnet, es waren 6,1 MW! Dies entspricht der realen mittleren Jahresleistung von vier200 m hohen E126 [Windkraftanlagen]! Welcher Kunde an einer Tankstelle mag sich dies beim Tanken wohl vorstellen?“ Lesebeispiel, abschließende Zusammenfassung: Kapitel 2, Klima, S. 111ff. „2.8 Diskussionen von Klimarealisten mit Klimawarnern? […] Diskutiert man dagegen mit Leuten, die es mit Informationsgewinn ernst meinen und sich einer vernünftigen Diskussion nicht verschließen, erscheinen nur die einfachsten und möglichst faktennahen Argumente hilfreich. […] Hier daher die nach Auffassung des Buchautors zehn wichtigsten und einfachsten Kernargumente, die den Behauptungen der Klimawarner entgegengesetzt werden könnten: 1. Klimawarner: „Klimaschutz“ ist die größte aktuelle Herausforderungder Menschheit. Klimarealist: „Klima ist […]“ Und was fehlt in dem Buch? Bei allem Enthusiasmus geht eine Besprechung nicht ohne Kritik ab. Im vorletzten Kapitel „Hintergründe des Klima-Aktivismus“ diskutiert der Autor als politische Motivation die so genannte große Transformation. Hier hätten aber auch wirtschaftliche Motive all jener Kapitalgeber und Industrien genannt werden können, die seit Beginn der Klimadiskussion in den 1980er Jahren zunehmend in propagierte Technologien investiert haben. Außerdem würde man sich zum schnellen Nachschlagen, z.B. in Diskussionen, einen Index wünschen. Was ist neu?
Gegenüber den vorherigen Auflagen hat der Autor den Aufbau des Buches grundlegend verändert. Obwohl sich schon die vorigen Auflagen gut lasen, fällt hier die deutlich systematischere inhaltliche Gliederung der Abschnitte auf. Außerdem wurden inhaltliche Schwerpunkte verschoben. Während zum Thema Energie die Kernkraft inzwischen in einem eigenen Buchbehandelt wird und somit hier kaum noch zu finden ist, sind zum Thema Klima weitere interessante Details hinzugekommen, z.B. zur Klimasensitiviät von CO2 (Bild 18) oder zu den Klimamodellen des IPCC (Bild 19). Zudem sind alle Daten aktualisiert und zahlreiche aktuelle Literatur, insbesondere kritisierte Mediendarstellungen, neu eingefügt worden. Für wen lohnt sich der Kauf? Klare Antwort: Für alle. Jedenfalls für alle, die … … eine der früheren Auflagen bereits gelesen haben und ihre Kenntnisse auffrischen und ergänzen wollen, … die bisher ahnungslos dem gängigen Medien-Narrativ geglaubt haben, … die der Politik vertrauen und misstrauisch sind gegenüber den „Verschwörungstheorien der Klimaleugner“ – jedenfalls wenn sie sich einen Rest gesunder Neugier und Misstrauen gegen sich selbst bewahrt haben. Nur blinde Ideologen können sich den Geld- und Zeitaufwand wohl sparen. Nach meiner eigenen Erfahrung im (akademisch gebildeten) Bekanntenkreis war das Buch von Professor Lüdecke bisher das am besten geeignete, um Menschen aus dem „Tal der Ahnungslosigkeit“ herauszuhelfen. Diepositive Besprechung, die Konrad Kleinknecht, ehemaliges Vorstandsmitglied der Deutschen Physikalischen Gesellschaft, zur ersten Auflage im Physik Journal verfasst hatte, kann auch für die Neuauflage als Nachweis der wissenschaftlichen Seriosität und Werbung gelten. Das ist umso wichtiger, als – wie viele Leser wissen, und wie es auch im Buch thematisiert wird – der Autor und zahlreiche Buchinhalte, z.B. zum angeblichen wissenschaftlichen Konsens im Kapitel 3.5.3, Opfer medialer Zensur und unsachlicher Verunglimpfung geworden sind, z.B. auf Wikipedia (s.o.). Aus diesem Grund lege ich, wenn ich das Buch an „Neulinge“ verschenke, immer eine Kopie der Kleinknecht-Besprechung bei. (Gleichermaßen kann das dem Buch vorangestellte Geleitwort des Mathematikers und CDU-Bundestagsabgeordneten Arnold Vaatz dazu dienen, misstrauische Zeitgenossen, die sich kein eigenes Urteil zutrauen, von der Seriosität zu überzeugen.) Buch: Lüdecke, Horst-Joachim (4. überarbeitete Auflage 2020). Energie und Klima. Chancen, Risiken und Mythen. Tübingen: expert Verlag. 221 Seiten, 320 Quellen, 33 Abbildungen. Zu bestellen hier oder hier.
Weitere Quellen: Kleinknecht, K. (2013). Kampf um Strom + Energie und Klima. Physik Journal 12 (2013) Nr. 8/9, S. 86-87. https://www.pro-physik.de/restricted-files/91316 Wie Klimadaten in den USA manipuliert werden – Erwärmung statt Abkühlung? https://realclimatescience.com/ Die * „National Oceanic and Atmospheric Administration“ NOAA ist die Wetter- und Ozeanografiebehörde der Vereinigten Staaten. Sie wurde am 3. Oktober 1970 als eine Einrichtung des Handelsministeriums gegründet, um die nationalen Ozean- und Atmosphärendienste zu koordinieren. Ihr Sitz ist die Bundeshauptstadt Washington. Heller zeigt, wie die Klimatologen in den USA mit Hilfe des „Beobachtungszeitraum-Fehlers“ eine Abkühlung der USA nach 1960 in eine Erwärmung ummünzen, um das klimapoltische CO2-Narrativ zu unterstützen. „Wir sind dümmer geworden“ -Medien setzen Rekordkälte mit globaler Erwärmung gleich Die New York Times zum Beispiel berichtet auf ihrer Website über die Gefahren von Frostbeulen im Winter, einschließlich eines reißerischen Artikels , der die Rekordhitze in Australien und die Rekordkälte in den USA als zwei Seiten der globalen Erwärmung bezeichnet. „Ganz allgemein erlebt ein heißer Planet extremes Wetter häufiger und intensiver“, heißt es in dem Artikel der Times, in dem er vor dem „Zeitalter der Wetterextreme“ gewarnt wird.
Auch die Chicago Times, Axios, The Washington Post und andere verbreiten die Theorie, dass die globale Erwärmung den Jet-Stream schwächte, so dass der „Polarwirbel“ nach Süden wandern und Rekordkälte bringen konnte. (Bill Nyes, [ein bekannter Alarmist] entwarf apokalyptische Szenarien für die ultimativ stattfindende globale Erwärmung: „Die USA müssen ihr Gemüse in Kanada anbauen“) Viele Experten halten dies nicht für richtig und sagen, es sei ein Hype der Klimamedien. Tatsächlich werden Wetterereignisse, die früher als üblich angesehen wurden, nunmehr der globalen Erwärmung zugeschrieben, die sich über Jahrzehnte abspielt und in Trends gemessen wird, und nicht in kurzfristigen Wetterschwankungen. Sehen Sie hier das Original auf Twitter “Klimawandel“ bezog sich einst auf Statistiken, die das gemessene Wetter über Jahrzehnte hinweg zusammengefasst hatten“, bemerkte Roger Pielke Jr, Professor der University of Colorado, auf Twitter. Heutzutage wird Klimawandel meist als ursächlicher Faktor bei der
Zuordnung von Ereignissen über Stunden, Tage oder Wochen verwendet“, sagte Pielke. „Wir sind dümmer geworden.“ Literaturausschnitte Diese zweite Art von Verwirrung liegt sichtbar vor, wenn der Ausdruck „Klimawandel“ selbst als kausaler Faktor verwendet wird. Kommt es beispielsweise zu einem ungewöhnlichen [in einem maximalen Zeitraum von drei Jahren, Meinung des Übersetzers] Ereignis, wird in vielen Medienberichten unweigerlich gefragt: Hat der Klimawandel dieses Ereignis verursacht? Diese Frage ist von Natur aus unsinnig. [Der Rest beschreibt am Beispiel eines Baseballspielers, dessen durchschnittliche Performance für sich keinen Grund darstellt, welche Leistung er heute auf dem Platz zeigt] Unglücklicherweise, drehen sich viele Diskussionen im Kreise und sind gleichermaßen inhaltsleer. Klimawandel an sich verursacht nicht mehr Wetterereignisse. Es kann angenommen werden, dass die Phrase „Klimawandel“ gleichgesetzt wird mit „Kohlenstoff Emissionen“ [und sofort mit „anthropogen“]. In dem Maße, in dem ein solcher Euphemismus in Diskussionen verwendet wird, schafft er Hindernisse für glaubwürdige Diskussionen um Beweise im Zusammenhang mit extremen Wetterereignissen Winterwetter provoziert oft eine Flut von Artikeln darüber, warum kaltes Wetter die globale Erwärmung nicht widerlegt, aber jetzt bringt die Kälte „Wissenschaftler“, Aktivisten und Experten hervor, die behaupten, dass Erwärmung hinter der Kälte steckt. Sogar Greenpeace-Aktivisten machten mit, hier ist es Mike Hudema: Sehen Sie hier das Original auf Twitter
Klimawandel bedeutet schwere Hitze, Wirbelstürme, Brände und Luftströmungen und auch extreme Kälte #cold. Wir spüren bereits die Auswirkungen der #climate Krise. Werden wir etwas dagegen unternehmen? #ActOnClimate #energy #cdnpoli #PolarVortex #Renewables #GreenNewDeal #PanelsNotPipelines Ergibt das einen Sinn? Natürlich nicht, und viele Wissenschaftler haben darauf hingewiesen. „Ehrlich gesagt, ist es ein langer, verschwurbelter Weg, um eine solche Verbindung herzustellen“, sagte Kevin Trenberth, Klimaforscher am Nationalen Zentrum für Atmosphärenforschung. „Über der Arktis ist in einer Polarnacht immer kalte Luft. Die Frage ist, ob sie dort bleibt oder weiterwandert“, sagte Trenberth. „Das alles liegt im Bereich des Wetters. Das ist kein Klima. “
Mehrere Studien haben eine Korrelation und sogar eine Verbindung zwischen der Erwärmung der Arktis und dem Wetter in der mittleren Breite gefordert, einschließlich einer im Jahr 2018 veröffentlichten Studie, in der festgestellt wurde, dass Kälteeinbrüche wahrscheinlicher sind, wenn die Arktis ungewöhnlich warm ist . Diese Studie litt jedoch unter gravierenden Mängeln, dh. es wurden weder Hypothesen geprüft noch wurde versucht, eine Kausalität zwischen der globalen Erwärmung und den Kälteeinbrüchen festzustellen. Auch die offiziellen Datensätze der Regierungsorganisationdeuten deuten auf weniger Kälteeinbrüche hin, nicht auf mehr. Gefunden auf The Daily Caller News Foundation vom 30.01.2019 Übersetzt durch Andreas Demmig https://dailycaller.com/2019/01/30/media-global-warming-polar-vortex/ Mojib Latif: Drei Aussagen, drei Mal voll daneben AUSSAGE 1: Mojib Latif am 4. Dezember 2012 in der Talkshow “Pelzig hält sich“: „Eins will ich ja auch nochmal sagen. Ich wäre ja froh, wenn es die Sonne wäre. Dann könnten wir ja nichts tun. Ja, aber das ist es nicht. Wenn Sie sich die Sonnenstrahlung angucken, seit 50 Jahren ist die Sonne schwächer geworden. Und wie soll eine schwächer werdende Sonne eigentlich eine massive Erwärmung verursachen?“ Falsch. Die Sonne ist in den letzten 50 Jahren in Wahrheit stärker geworden, wenn man die Total Solar Irradiance (TSI) (weiße Kurve im Diagramm) berücksichtigt, die auch die kosmische Strahlung bzw. das Sonnenmagnetfeld mit einbezieht.
Abbildung: Entwicklung der Sonnenaktivität während der vergangenen 400 Jahre. Weiße Kurve zeigt solare Gesamtstrahlung (Total Solar Irradiance, TSI), gelbe Ausschläge markieren Sonnenflecken. Quelle: PAGES2K-Webseite, heruntergeladen im März 2016. ———– AUSSAGE 2: Mojib Latif am 4. Dezember 2012 in der Talkshow “Pelzig hält sich“: „Ja, das kann man ja alles quantifizieren. Das ist natürlich eine glatte Lüge, wenn behauptet wird, dass wir die Sonne nicht mit berücksichtigen. Es gibt kein Klimamodell, dass die Sonne nicht mitberücksichtigt. Ich meine wir sind ja keine Deppen. Hier wird ja irgendwie der Eindruck erweckt, als wenn wir die größten Vollidioten aller Zeiten sind. So ist es ja nicht.“ Falsch, Herr Latif. Ein Blick auf den Strahlungsantrieb im 5. IPCC- Klimazustandsbericht reicht aus, um zu sehen, dass die Sonne in den Modellen nahezu keinen Einfluss hat. CO2: 1,68 W/m2, Sonne: 0,05 W/m2. Die Sonne spielt damit praktisch keine Rolle.
Abbildung: Strahlungsantrieb der einzelnen Klimafaktoren laut 5. IPCC- Bericht. Die Sonne spielt praktisch keine Rolle beim IPCC. ———– AUSSAGE 3: Mojib Latif im Interview mit der Neuen Osnabrücker Zeitung (NOZ) am 12. September 2012: NOZ: Herr Latif, trägt eher die Sonne zur Erderwärmung bei oder das Treibhausgas Kohlendioxid, CO2? LATIF: Es ist ein Mix aus beidem. Klar ist, dass der Mensch über die Hälfte des Temperaturanstiegs seit Beginn der Industrialisierung zu verantworten hat. Zuvor hatte Latif der österreichischen Zeitung ‚Die Presse‘ (DP) am 9. Februar 2012 das Folgende gesagt:
DIE PRESSE: Zurück zur bisherigen Erwärmung, 0,8 Grad seit 100 Jahren. Für Vahrenholt kommt die Hälfte von der Sonne. Und beim IPCC kommt alles vom CO2? LATIF: Nein, das hat der IPCC nie gesagt, er ist sehr vorsichtig und sagt, dass etwa die Hälfte der Erwärmung anthropogen ist. DIE PRESSE: Dann sagt er das Gleiche wie Vahrenholt? LATIF: Ja, das ist es ja, was mich wahnsinnig macht: Da wird ein Popanz aufgebaut und dann genüsslich zerrissen. Wieder liegt Latif falsch. Hier genügt ein Blick in den neuen Spezialbericht des IPCC zum 1,5-Grad-Ziel: Den langfristigen Erwärmungstrend seit vorindustriellen Zeiten widerspiegelnd, lag die beobachtete mittlere globale Oberflächentemperatur in dem Jahrzehnt 2006–2015 um 0,87 °C(wahrscheinlich zwischen 0,75 °C und 0,99 °C) höher als der Durchschnitt für den Zeitraum 1850–1900 (sehr hohes Vertrauen). Die geschätzte anthropogene globale Erwärmung stimmt mit dem Ausmaß der beobachteten Erwärmung innerhalb von ±20 % (wahrscheinlicher Bereich) überein. Oder anders ausgedrückt: Die gesamte beobachtete Erwärmung der letzten 150 Jahre ist laut IPCC anthropogen. ———– Drei Latif-Aussagen, drei Mal voll daneben. Gilt unter diesen Umständen Latifs Kritik an der Kalten Sonne überhaupt noch? Gerne würden wir mit Mojib Latif darüber persönlich sprechen. Ist er nach seiner früheren Verweigerung zur Diskussion jetzt vielleicht gesprächsbereit? Wir hoffen auf gute klimatische Entwicklungen für 2019. Wir wünschen allen Kalte-Sonne-Bloglesern – und natürlich auch Herrn Latif – einen Guten Rutsch ins neue Jahr. Die EIKE Redaktion schließt sich diesem Wunsch des kalte Sonne Teams vorbehaltlos an. Klimasensitivität – Wer rechnet hier
falsch ? Diese Annahme wird auch bei den Klimamodellen verwendet. Neuere Studienergebnisse zu diesem Thema mit einem wesentlich geringeren Anstieg wurden vom IPCC ignoriert. Wie auch jüngst wieder durch PIK Professor Anders Levermann beim öffentlichen Fachgespräch im Umweltausschuss des Deutschen Bundestages am 28.11.18. Doch auch Prof. Marotzke (MPI) gab kürzlich zu, dass die bisherige Annahme offenbar zu hoch ist. Dies wird durch den Vergleich des berechneten Temperaturanstieges mit der Realität der letzten 20 Jahre bestätigt. Bis heute konnte der angebliche CO2-Effekt auf die Globaltemperatur nicht durch historische Fakten belegt werden, sondern ist laut IPCC-Bericht eine Sache von „confidence“, d.h. von Glauben oder Vertrauen. Die Milchmädchen-Rechnung, die Klima-Politiker, Journalisten und etliche Klimatologen nicht machen können oder wollen, lautet wie folgt: Bis zur Verdoppelung des CO2-Gehaltes von heute 400 auf 800 ppm vergehen bei den aktuellen Emissionen mit einem Anstieg von ca. 2 ppm pro Jahr noch 200 Jahre. Das bedeutet real in 100 Jahren ca. + 1,5°C – genau das, was sich Politiker bei der Pariser Konferenz so vorgestellt haben, aber ohne kostspielige und risikoreiche CO2-Verminderungsmaßnahmen. Das international anerkannte Modtran-Programm der Atmosphärenphysik zeigt zwischen 400 und 800 ppm einen Temperaturanstieg von nur 1,7°C (anstelle von den 3°C des IPCC) mit Berücksichtigung des Sättigungseffektes, der ansonsten
oft ignoriert wird. Das wäre dann in 100 Jahren nur ein Anstieg um ca. +0,85°C. Tatsächlich ist aber kein weiterer Anstieg der mittleren Globaltemperatur zu erwarten, sondern das Gegenteil: sie wird in den nächsten 400 Jahren aller Wahrscheinlichkeit nach wieder um ca. 1,5°C absinken – so, wie dies schon seit 8000 Jahren regelmäßig alle 1000 Jahre der Fall war, zuletzt in der mittelalterlichen Kaltzeit (auch „ Little Ice Age“ genannt). Dieser natürliche Klimazyklus basiert auf solaren und astrophysikalischen Faktoren und kann von Menschen nicht beeinflusst werden – genauso wenig wie andere Natur-Ereignisse wie Erdbeben und Vulkanausbrüche. Wissenschaftler: Globale Erwärmung ist vorbei, jetzt kommt Abkühlung Einer dieser Klimaforscher ist Valentina Zharkova, Astrophysikerin an der Northumbria University im Vereinigten Königreich. Zharkova und ihr Forscherteam sagen, auf der Grundlage mathematischer Modelle der magnetischen Aktivität der Sonne, ist es wahrscheinlich, dass die Erde über einem Zeitraum
von 33 Jahren abnehmende Magnetfelder erlebt, beginnend ab 2021. [Mehr zum Thema Sonne und ihre Strahlen beim Bundesministerium für Bildung und Forschung und Zentrale für Unterrichtsmedien im Internet e. V.] Zharkova ist nicht allein. Forscher des Physikalischen Meteorologischen Observatoriums Davos, des Eidgenössischen Wasserforschungsinstituts, der ETH Zürich und der Universität Bern haben 2017 ein Modell veröffentlicht, das eine Abkühlphase „in 50 bis 100 Jahren“ projektiert. Zahlreiche andere Studien haben ähnliche Projektionen. Die Website NoTricksZone listet Hunderte von Peer-Reviewed-Studien [Die Sonne treibt das Klima], in denen argumentiert wird, dass Sonnenaktivität und Sonnenzyklen auf dekadischen, jahrhundertlangen und tausendjährigen Zeitskalen einen wesentlichen Einfluss auf den globalen Klimawandel haben. Einige dieser Papers untermauern sogar, dass Sonnenaktivität oft der dominierende Faktor für den Klimawandel ist. Die Forscher sagen, dass verminderte solare magnetische Aktivität mit historisch kühlen Perioden in der Erdgeschichte in Verbindung gebracht werden konnten, wie das Maunder-Minimum, eine Periode niedriger magnetischer Aktivität, die mit der „Mini-Eiszeit“ von 1645 bis 1715 zusammenhängt. Während des Maunder-Minimums stürzten die Temperaturen so stark ab, dass die Londoner „Frostmessen“ auf der gefrorenen Themse veranstalteten. Wegen Copyright nur hier der Link, zu Aufnahmen von niederländischen Darstellungen der “Kleinen Eiszeit” im staatlichen Museum in Berlin: Auch sehenswert, Eiszeitbilder auf : Pinterest Der Historiker Geoffrey Parker schrieb für die New York Times : „In der ungewöhnlichen Kälte, die von den 1620er bis in die 1690er Jahre dauerte, war das Eis am Bosporus und an der Ostsee so dick, dass die Menschen von einer Seite zur anderen laufen konnten.“ Obwohl Zharkova sagt, dass die Genauigkeit ihres Modells bei 97 Prozent liegt, ist sie sich nicht sicher, wie einflussreich die niedrigere magnetische Sonnenaktivität sein wird, insbesondere weil man glaubt, dass es heutzutage mehr Kohlendioxid in der Atmosphäre gibt als im 17. Jahrhundert, und es gibt auch Klimaforscher, die glauben, dass höhere CO2-Werte zusätzliche Erwärmung verursachen. Viele von denen, die überzeugt sind, dass die Menschen für die höheren globalen Temperaturen verantwortlich sind, die im vergangenen Jahrhundert aufgezeichnet wurden, haben sie bereits begonnen, Zharkova und andere abzutun, die sagen, dass die globale Temperatur sich aufgrund der Sonnenaktivität bald abschwächen könnte. Michael Mann , Professor an der Pennsylvania State University, der den widerlegten „Hockeyschläger-Graphen“ kreierte, sagte der Washington Post in 2015, dass der Effekt der geringeren Sonnenaktivität im Vergleich zu den Kohlendioxidemissionen „ein Tropfen auf den heißen Stein“ wäre. Wenn Mann und andere CO2 – Warmisten, falsch liegen und mit einer geringeren Sonnenaktivität sich auch das Klima abkühlt, dann könnten diese Ergebnisse
katastrophal für die Kreuzzüge des Klimawandels in der Democratic Party, den Vereinten Nationen und anderen Ländern sein, die unbedingt CO2- Emissionsbeschränkungen, Strafen oder beides verhängen wollen – das schließt alle auf der Welt ein, auch Sie. Eine Abkühlung würde nicht nur praktisch jedes einzelne Klimamodell unterminieren, welches auf eine stetige Erwärmung im nächsten Jahrhundert getrimmt ist, sondern es würde auch zeigen, wie schlecht die Mainstream-Klimawissenschaft geworden ist. Wenn Klimaaktivisten noch nicht einmal eine 33-jährige Abkühlungsdauer aufgrund der Sonnenaktivität nicht genau vorhersagen können, wieso sollte man dann darauf vertrauen, dass sie die globale Temperatur für 100 Jahre in der Zukunft vorhersagen können? Im Gegensatz zu den schrecklichen Warnungen, die regelmäßig von linken Zeloten und Politikern wie Sen. Bernie Sanders (I-VT) ausgegeben werden, ist die Debatte über Ursachen und Folgen des Klimawandels noch immer sehr lebendig. Ironisch wäre es, wenn Zharkovas Theorie der reduzierten Sonnenaktivität sich als zutreffend erweist und Befürworter der Theorie, dass Menschen für den Klimawandel verantwortlich sind, darin Recht haben, das auch die Menschheit etwas zur Erderwärmung beiträgt. Wenn die Klimaalarmisten Recht hätten, dann müsste der Planet heute viel kühler sein als er es ist, wenn der Mensch nie größere Mengen CO2 produziert hätte. Das bedeutet, dass die Kühlung, die sich aus der verringerten Sonnenaktivität ergibt, theoretisch ohne die CO2-Emissionen der Menschen viel extremer wäre. Das ist unglaublich wichtig, weil kühlere globale Temperaturen in der Vergangenheit tödlichere Lebensbedingungen für Menschen, Pflanzen und Wildtiere bedeutet hätten. Wie Parker in der Times bemerkte: „Die tiefe Kälte in Europa und extreme Wetterereignisse [während der letzten kleinen Eiszeit] führten zu einer Reihe von Dürren, Überschwemmungen und Ernteausfällen, die zu erzwungenen Wanderungen, Kriegen und Revolutionen [und zur Inquisition und Hexenverfolgung] führten.“ Die angesehene akademische Zeitschrift The Lancet veröffentlichte 2015 eine Studie, in der Gesundheitsdaten aus 13 Ländern berücksichtigt wurden. Die Untersuchung von 74 Millionen Todesfällen ergab, dass kaltes Wetter indirekt oder direkt 1.700 Prozent mehr Menschen tötet als warmes Wetter. Dies deutet stark darauf hin, dass, selbst wenn Menschen dafür verantwortlich sind, das globale Klima wärmer zu machen, sie in den nächsten 30 bis 40 Jahren viel besser dran sein werden, als sie es sonst in einem kälteren Klima wären, vorausgesetzt, Zharkovas Theorie ist richtig. Zusätzliche Beweise zeigen auch, dass das wärmere Klima, über das Umweltaktivisten ständig lamentieren, zahlreiche Vorteile hat. Eine Studie, die im Jahr 2017 veröffentlicht wurde, fand rund 5 Mio km² Wälder, die bisher nicht gezählt wurden [Fläche der 28 EU-Mitgliedsländer 4,3 Mio km²], was laut Patrick Michaels vom Cato Institute ein starker Beweis dafür ist, dass die Erwärmung eine signifikante Ökologisierung verursacht hat.
In 2016 wurde in Nature Climate Change eine Untersuchung veröffentlich, dass es von 1982 bis 2009 eine erhöhte Begrünung gab, in 25-50 Prozent des globalen Vegetationsbereiches, während nur 4 Prozent des Vegetationsbereiches eine Dürre (Bräunung) erlebte. Die Forscher schätzen, dass 70 Prozent der Begrünung auf höhere Kohlendioxidemissionen zurückzuführen sind. Wenn eine globale Abkühlperiode stattfinden würde, wie würden Klimaalarmisten reagieren? Wahrscheinlicher eher gar nicht, indem sie vorschlagen, dass die Abkühlphase der Menschheit die letzte Chance bietet, die Katastrophe der globalen Erwärmung abzuwenden, indem sie radikalere Energiepolitiken wie CO2- Handelssysteme oder CO2-Steuern anwendet. Zharkova schlug dies im Dezember in einem Interview mit Sky News vor. „Ich hoffe, dass die globale Warnung durch diesen Effekt [geringere solare magnetische Aktivität] außer Kraft gesetzt wird und der Menschheit und der Erde 30 Jahre Zeit gibt, um unsere Verschmutzung zu beseitigen. Wir müssen uns in dieser Zeit sammeln und alles auf der Erde für die nächste große Sonnenaktivität vorbereiten“. Wenn Klimawissenschaftler nur halb so viel Zeit und Energie darauf verwenden würden, zu lernen mit einem sich verändernden Klima zu leben, anstatt zu versuchen, Vorhersagen darüber zu machen, was mit dem Klima der Erde in hundert Jahren sein könnte, wären wir alle viel besser dran. Natürlich gäbe es dann weniger dringende „Krisen“ und damit weniger Möglichkeiten, weit reichende Gesetze zu begründen, die jeden Aspekt des Lebens der Menschen kontrollieren. Und das können wir sicher nicht, oder? [hier bin ich mir nicht sicher, wie das gemeint ist: … dass die Wissenschaftler sich um Anpassung bemühen und weniger alarmistische Warnungen ausgeben – oder weniger knebelnde Gesetzgebung? – der Übersetzer] Justin Haskins ist Chefredakteur und wissenschaftlicher Mitarbeiter und H. Sterling Burnett, Ph.D., ist Senior Fellow, beide am Heartland Institute. Gefunden auf AmericanThinker vom 23. Oktober 2018 Übersetzt durch Andreas Demmig https://www.americanthinker.com/articles/2018/10/why_some_scientists_say_glob al_warming_is_out_and_global_cooling_is_in.html#ixzz5VKK1D85U Hinweis: Die Einwirkung kosmischer Strahlen und ihre Auswirkung auf das Wettergeschehen der Erde, ist Forschungsthema von Prof. Dr. Henrik Svensmark, hier auf Eike schon öfter vorgestellt – und Gastredner auf der 12. Internationalen Klima- und Energiekonferenz in München
Ex-Beatle bekämpft die Klimaerwärmung mit veganer Kost „Es ist nicht die totale Lösung, aber es ist Teil der Lösung„, sagte Sir Paul McCartney Reportern in einem Interview. Fleischlos hilft die globale Erwärmung zurückzudrängen. Aktivisten haben diese Position seit Jahren gestärkt, fügte er hinzu, aber Leute wie Trump machen es schwierig. „Besonders wenn jemanden wie Trump sagt, dass der Klimawandel nur ein Schwindel ist“, sagte McCartney, 75, über Kommentare, die der Präsident einst über die globale Erwärmung äußerte. In dem Interview wurde ein Kurzfilm des ehemaligen Beatles gezeigt, in dem die Leute ermutigt wurden, eine Woche lang auf tierische Produkte zu verzichten. „Viele Leute wie ich denken, das ist nur verrückt, also ist es vielleicht jetzt eine gute Zeit, um die Aufmerksamkeit der Leute zu bekommen und zu sagen:“ Schau, vergiss Trump, wir können selbst etwas tun „. Umweltschützer haben schon länger versucht, Schulen und andere Institutionen zu veranlassen, von Fleischgerichten in Richtung Tofu umzustellen. Schulen aus Kalifornien schlossen sich Anfang dieses Jahres mit der Umweltgruppe Friends of the Earth (FOE) zusammen, um Kindern ein Mittagsmenü zu geben, das darauf ausgelegt ist, Nahrungsmittel zu eliminieren, von denen gesagt wird, dass sie für unseren Planeten „nicht nachhaltig sind“. Die neue Speisekarte bietet weit weniger Fleisch und mehr pflanzliche Lebensmittel. Jedes Fleisch oder jeder Käse, den die Schule verwendete, stammte von „weidenden, ökologischen Milchkühen“. Die Mittagskarte der Schüler reicht von der Pepperoni-Pizza über veganen Tofu und vegane Tostadas. Erschienen auf The Daily Caller am 06.11.2017 Übersetzt durch Andreas Demmig http://dailycaller.com/2017/11/06/paul-mccarthy-gong-vegan-is-the-best-way-to -get-back-at-trumps-climate-madness/ Die Gesetze der Mittelwerte: Teil 3, Der durchschnittliche Durchschnitt
Durchschnittliches Sowohl das Wort als auch das Konzept „Durchschnitt“ sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen. In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2 [Teil 2 hier übersetzt] werfen, bevor Sie fortfahren. Warum ist es eine mathematische Sünde, eine Reihe von Durchschnittswerten zu mitteln? „Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln. „Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte „zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis: NEIN!) „Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist, aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „- siehe Wiki.de “Simpsons Paradox“ Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von Patienten, die gleiche Anzahl von Meinungen und, wie bei allen Durchschnittswerten, sind die Daten selbst physisch und logisch homogen (nicht heterogen) und physisch und logisch kommensurabel (nicht inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1] Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30 Schüler gehören und wollte nun die durchschnittliche Größe der Schüler
finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die Ergebnisse sind gleich. Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben: 30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann durch 150 teilt. Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20 Schülern und die einzelnen Schüler der Klasse von 60 Schülern unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil des Gesamtdurchschnitts repräsentieren [0,66 = 1/150]. Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für 25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für 0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im Durchschnitt gleichberechtigt ist. Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in diesen Abschnitt vorgestellt wurden. (Hier und hier) Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:
Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln. Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise, bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro- Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem Rechenweg und acht Landkreise liegen unter dem Durchschnitt. Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen basieren, die im Bereich der einstelligen oder sogar Bruchteilen von Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad. Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C) beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert. (0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und 0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie. [Kann man diesen Unterschied merken? – der Übersetzer] Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein
Ähnlich, aber nicht identisch, das ist Simpsons Paradox. Simpsons Paradox Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen, das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten) auftritt, oft in medizinischen Studien und verschiedenen Zweigen der Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten) kombiniert werden. Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern. [Die 1868 gegründete University of California, Berkeley, gehört zu den renommiertesten Universitäten der Welt.] Hier erklärt es einer der Autoren: „Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt, weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen zeigen. Bewerber Zugelassen UCB Applicants Admitted Männer 8442 44% Frauen 4321 35% Statistischer Beweis für die Anklage (Tabelle abgetippt) Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für Frauen zu haben.“
In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle Fachbereiche hinweg keine informative Sicht auf die Situation. Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die wahre Geschichte finden sie hier. Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt erreichte.“ Diese Tabelle zeigt das Paradox: In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag – Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter [auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik. Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden. Klimatologie In der Klimatologie tendieren die verschiedenen Gruppen die Daten über längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte
zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter die verschiedenen Methoden gewichten und ihre Methoden verteidigen. Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage hervorbringt, die sie dann einfach als die globale durchschnittliche Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen, monatlichen und jährlichen Durchschnitten an – aber das sind keine echten Mittelwerte…. mehr dazu später. Ein anderer Experte mag behaupten, dass sie definitiv keine Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] - Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“ bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien „gedurchschnittet“ (gemittelt). Die Anomalien können oder können nicht, je nach Berechnungssystem, tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)]. Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen. Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das arithmetische Mittel der niedrigsten und höchsten aufgezeichneten Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen, auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo und den Hi summiert und durch zwei teilt. Macht das einen Unterschied? Das ist eine heikle Frage. Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent zu bleiben, so macht man es auch heute noch.
Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN: 64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf Minuten eine Temperaturablesung. Der Datensatz enthält Werte für „DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von „DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die „DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser letzte Wert wird in der Klimatologie als die tägliche durchschnittliche Temperatur verwendet. Für einen typischen Dezembertag sehen die aufgezeichneten Werte so aus: Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab auf x) Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3 F… Die Differenzen für diesen einen Tag: Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F aufgrund des Rundungsalgorithmus. Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten Temperaturen = 0,667 ° F Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am 5. Januar 2016. Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des aufgezeichneten Durchschnitts.
Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung herangezogen] – aber eher werden berechnet „wie wir das schon immer getan haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint. Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre] für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in Richtung wärmer]. Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden, um politische Entscheidungen zu beeinflussen, nicht genau berechnete, grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind. Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“ verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten der ersten Werteebene sind falsch, unpräzise, ungenau berechnet. Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der übliche Chor von: 1. Am Ende gleicht sich alles aus (tut es nicht) 2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken) 3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien. Die beiden ersten Argumente sind fadenscheinig. Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben beschriebenen Unterschiede. Der Grund für den Unterschied (außer der einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde eine „normal Verteilung“ sehen, die sich so darstellt:
Normal-oder-Standard-Verteilung Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur – das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den Tag unterscheiden. Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese drei Tage von Januar und Februar 2016 in Millbrook, NY:
Reale stündliche Temperaturen Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese Tatsache. Doch in der Klimatologie werden die tägliche Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen, monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen Idee berechnet. Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und Konsistenz. Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo- Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen – weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen beeinflussen, die Stationsdaten als Quelle verwenden. Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt quantitativ – sowohl die Werte als auch die Größen der Effekte werden für verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische
Sie können auch lesen