NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
@NYT lügt hinsichtlich Klima – indem die Vergangenheit verschwiegen wird [*In diesem Beitrag tauchen noch öfter Zahlenangaben durchweg in den in den USA gebräuchlichen Einheiten auf. Des besseren Verständnisses halber werden diese Angaben hier aber gleich in europäische Einheiten umgerechnet. Anm. d. Übers.] [**Vermutlich war das in Mitteleuropa anders, aber es geht hier auch darum aufzuzeigen, dass Deutschland eben nicht der Nabel der Welt ist und dass das Wetter auf der ganzen Welt nicht so ist (oder zu sein hat) wie in Deutschland. Anm. d. Übers.] In irgendeinem Zusammenhang dazu sandte mir ein Leser einen Link zu einer interaktiven Website der New York Times, welche von sich behauptet, die Anzahl der Tage mit einer Temperatur über 32°C [in US-Einheiten ist das eine Art ,magische Schwelle‘ von 90°F. Anm. d. Übers.] pro Jahr für Städte im ganzen Land zu listen. Die Ergebnisse werden für die Times zusammengestellt von einer Institution (man könnte es auch eine Umwelt-Propagandagruppe nennen) mit der Bezeichnung Climate Impacts Lab. https://www.nytimes.com/interactive/2018/08/30/climate/how-much-hotter-is-you r-hometown.html?action=click&module=Most%20Popular&pgtype=Homepage Da ich viele Datensätze dieser Art zusammengestellt habe, schaute ich mal darauf. Die Website fragt nach der Stadt und dem Geburtsjahr und präsentiert dann eine Zeitreihe, die vermeintlich die Anzahl der Tage mit einer Temperatur über 32°C pro Jahr zeigt seit Geburt und wie die Anzahl dieser Tage zugenommen hat. Obwohl ich in Kalifornien geboren wurde, habe ich mehr Jahre in Huntsville gelebt als an irgendeinem anderen Ort. Also gab ich mein Geburtsdatum ein und Huntsville als meine Geburtsstadt. Sofort wurde dann aber mein Argwohn geweckt, als der erscheinende Datensatz erst im Jahre 1960 begann, also einige Jahre nach meiner Geburt! Offensichtlich wollen die Times und das Climate Impact Lab nichts mit Menschen zu tun haben, die älter sind als 58 Jahre. Für Huntsville und Montgomery sind hier die entsprechenden Ergebnisse – irgendwie Angst erzeugend. Es scheint, dass die Anzahl der Tage mit über 32°C auf das höchste Niveau jemals gestiegen ist. Man macht mir weis, dass es im Jahre 1960 45 derartige Tage in Huntsville gegeben hat, in 2017 dagegen 57 Tage, Tendenz steigend.
Um das alles noch ängstigender zu machen, beziehen sie Klimamodell- Projektionen bis zum Jahr 2090 mit ein, um mir zu sagen, dass wenn ich im Jahre 2040 80 Jahre alt werde es 73 derartige heiße Tage in Huntsville geben wird, siehe Graphik. Hilfe!
Bevor man nun sein Haus verkauft und nach Kanada zieht, betrachte man die wahre Geschichte. Nachdem ich viele Klima-Datensätze für Alabama erstellt hatte, einige davon ab dem Jahr 1850, wusste ich, dass die Story in der Times darauf ausgelegt war, Alarm zu schreien und die Behauptung voranzutreiben, dass Menschen, welche auf Kohlenstoffbasis Energie verbrauchen, die ihnen zu einem besseren Leben verhilft, unsere Sommer sogar noch schlimmer macht. Vorsicht,liebe Leser, dieses Webtool ist nicht darauf angelegt, genaue Informationen zu verbreiten. Erstens, Klimadaten für Alabama begannen im 19. Jahrhundert, nicht erst im Jahre 1960. Im Jahre 2016 veröffentlichten Dr. Richard McNider (mein Vorgänger) und ich selbst eine sorgfältig konstruierte Zeitreihe der Sommertemperaturen für den Staat ab 1883 unter Einbeziehung zahlreicher Stationsaufzeichnungen. Einige davon hatten noch nicht einmal Eingang in die Datensätze der [US-]Bundesregierung gefunden, also die Hauptquelle für Institutionen wie das Climate Impact Lab. Ich habe diese Arbeiten aktualisiert bis einschließlich Sommer 2018 – das Ergebnis zeigt die Graphik unten. Diese zeigt nicht nur, dass die Tagestemperaturen im Sommer im Verlauf der letzten 136 Jahre nicht nur nicht gestiegen, sondern sogar gesunken sind. Hmmm … wenn man sich diese Graphik so betrachtet – warum wohl hat Climate Impact Lab das Jahr 1960 als Startjahr seiner Graphik gewählt?
Wir gingen in jener Studie noch einen Schritt weiter und wiesen nach, dass Klimamodelle komplett falsch lagen bei der Replikation des Abwärtstrends der Temperatur in Alabama während der letzten 120 Jahre – 76 unterschiedliche Modelle mit einer Fehlerquote von 100%. Sollte man diesen gleichen Modellen trauen, dass sie uns so Auskunft über die Zukunft geben wie die Times es behauptet? Warum nur hat man die Modelle nicht auf deren Validität untersucht? Was ist nun also mit den „heißen“ (oder, wie wir in Alabama sagen „typischen“) Tagen mit einer Temperatur über 32°C? Für Alabama und die gesamte Nation habe ich seit 1895 die mittlere Anzahl pro Station für jedes Jahr berechnet. Die Ergebnisse unten sprechen für sich (es gibt keine Zunahme der Anzahl von Tagen mit über 32°C) – und sie stellen die Falschinformation bloß, welche die Times hinaus posaunt.
Genaue Informationen hinsichtlich des Klimas in Alabama zu verbreiten ist genau das, was wir in unserem Büro machen. Tatsächlich kann ich bei Heranziehen der realen Daten nicht einmal ansatzweise die Bilder reproduzieren, mit denen das Climate Impact Lab aufwartet und welchen zufolge die Zehnerjahre dieses Jahrhunderts die meisten Tage mit 32°C verzeichnete –
ich vermute mal, sie verwenden mehr theoretische Ergebnisse als sich an Beobachtungen zu orientieren. Man beachte, wie glatt ihre Graphik ist im Vergleich zu den realen Daten – das sieht mir sehr unecht aus. Dies ist ein wunderbarer Staat, in dem wir leben, in dem Menschen das Leben genießen und Industrien sich entfalten können – und unsere Klimabedingungen sind einer der Gründe, warum wir so erfolgreich sind bzgl. des Zuzugs weiterer Menschen. Gelegentlich jedoch kommen Zeiten, in welchen ich Behauptungen von jenen entgegen treten muss, deren Absicht nicht die Information ist, sondern das Schüren falschen Alarms – dies ist normalerweise dann der Fall, wenn Umwelt-Interessengruppen eine Presseerklärung fabrizieren, deren dramatische Inhalte von willigen Medien verbreitet werden (ohne jede Fakten-Recherche). Jetzt ist eine solche Zeit, und ich bin sicher, dass es nicht das letzte Mal ist. Striche Citation: Christy, J.R. and R.T. McNider, 2016: Time series construction of summer surface temperatures for Alabama, 1883-2014, and comparisons with tropospheric temperature and climate model simulations. J. Applied Meteor. Climatology, DOI: 10.1175/JAMC-D-15-0287.1. Data from the New York Times website accessed on 5 and 6 September 2018. – John Christy The Alabama State Climatologist Link: https://wattsupwiththat.com/2018/09/12/nyt-lies-about-climate-by-omitting-the -past/ Temperatur-Manipulationen mildern Wutanfälle Normalerweise habe ich den RSS-Datensatz als meine Hauptquelle herangezogen, weil es der erste war, der seine monatlichen Daten veröffentlichte. Im November 2015 jedoch, nachdem der Datensatz seit 18 Jahren und 9 Monaten keine Erwärmung gezeigt hatte, zeigte Senator Ted Cruz unsere Graphik der RSS-Daten bei einer Anhörung im US-Senat, um eben diesen Stillstand zu erklären. Die Demokraten waren darob sichtlich ungehalten und suchten nichts Geringeres als einen Admiral aus, der – erfolglos – versuchen sollte, die Graphik zu widerlegen. Ich habe bereits damals vorausgesagt, dass Carl Mears, der Betreiber jenes Datensatzes, zur rechten Zeit alle drei längsten terrestrischen Datensätze kopieren – GISS, NOAA und HadCRUT4 – und diese so
überarbeiten würde, dass der lange Stillstand daraus verschwinden würde. Damit sollte eine erheblich größere globale Erwärmung suggeriert werden als die ursprünglich veröffentlichten Daten gezeigt hatten. Der lineare Regressionstrend kleinster Quadrate im Satelliten- Datensatz RSS der globalen mittleren Temperatur-Anomalie zeigt vor der Revision seit 18 Jahren und 9 Monaten keine Erwärmung (von Februar 1997 bis Oktober 2015), obwohl ein Drittel aller anthropogenen Antriebe während genau dieses Zeitraumes angefallen war. Ted Cruz forderte im November 2015 mit dieser Graphik die „Demokraten“ im Senat heraus. Wie könnte es anders sein – gleich im nächsten Monat unterwarf Dr. Mears (der die RSS-Website dazu missbraucht, Skeptiker der globalen Erwärmung als „Leugner“ zu verunglimpfen) seinen Datensatz dem Adjustozän, indem er den RSS-Datensatz gebührend bearbeitete, um den Stillstand zu eliminieren. Zweifellos ist er von seinen Klima-extremistischen Gesinnungsgenossen bedrängt worden, etwas zu tun, um die Skeptiker zum Schweigen zu bringen, damit diese nicht mehr auf das auffallende Fehlen jedweder globaler Erwärmung hinweisen während eines Zeitraumes, als ein Drittel des menschlichen Einflusses auf das Klima angefallen war. Und siehe da, auf einmal war der Stillstand weg:
Willkommen im Adjustozän: RSS fügt 1 K pro Jahrhundert dem hinzu, was einst der Stillstand war. Wie sich herausstellte, hätte sich Dr. sMear* nicht die Mühe machen brauchen, den Stillstand zu beseitigen. Ein großes El Niño-Ereignis machte das sowieso. Allerdings zeigt eine interessante Analyse von Prof. Fritz Vahrenholt und Dr Sebastian Lüning hier, dass dieser Datensatz nicht länger als zuverlässig gelten kann, nachdem man ihn derartig manipuliert hatte. Die Analyse bringt ans Tageslicht, wie der RSS Datensatz bearbeitet worden war. Die zwei Wissenschaftler kommen zu dem Ergebnis, dass die Nachbearbeitung [ex-post- facto post-processing] der Satellitendaten seitens RSS unzureichend gerechtfertigt worden ist: [*Wieder ein solches Wortspiel. Der Lord verschiebt das ,s‘ im Namen nach vorne, so dass sich ,smear‘ ergibt = Dr. Schmiere. Anm. d. Übers.] Monatliche globale mittlere Temperaturanomalien von RSS vom Januar 1979 bis Juni 2018. Die nicht manipulierte Version ist in rot, die bearbeitete Version in blau dargestellt. Die dicken Kurven sind über 37 Monate geglättete Mittelwerte. Graphik von Prof. Ole Humlum von seiner guten Website www.climate4you.com. RSS hob die zuvor gemessenen Temperaturen seit dem Jahr 2000 an, was die Erwärmungsrate insgesamt seit 1979 um 0,15 K, nämlich von 0,62 K auf jetzt 0,77 K hat zunehmen lassen:
Man hätte es nicht machen dürfen, aber Lüning und Vahrenholt haben entdeckt, dass RSS das getan hat. Im Jahr bevor die RSS-Daten Mannipuliert [in Anspielung auf Prof. Mann, Anm. d. Übers.] worden waren, hatte RSS begonnen, sich ernsthaft für die Länge des Stillstands zu interessieren. Dr. Mears schrieb darüber auf seinem Blog hier. Seine damaligen Ergebnisse sind hier zusammengefasst: Ergebnis von 33 IPCC-Modellen (türkis) im Vergleich zur gemessenen globalen Temperaturänderung seitens RSS (schwarz), 1979 bis 2014. Darauf bekam Dr. Mears einen Temperatur-Wutanfall und schrieb: „Die Leugner lieben es zu vermuten, dass die Ursache der Diskrepanz zwischen Modellen und Beobachtungen in irgendeinem Problem mit der zugrunde liegenden
Modellphysik zu finden ist, und sie verwerfen jede andere Art der Erklärung. Dies verleitet sie zu der – sehr wahrscheinlich falschen – Schlussfolgerung, dass die langfristige Klima-Sensitivität viel geringer ist als gegenwärtig gedacht“. Dr. Mears räumte die wachsende Diskrepanz zwischen RSS-Daten und Modellen ein, aber er unterstellte uns, dass wir den Startzeitpunkt der globalen Temperatur-Graphik cherry-picked hätten: „Jüngst ging aus einer Anzahl von Artikeln in der Mainstream-Presse hervor, dass es während der letzten zwei Jahrzehnte kaum eine oder gar keine Änderung der globalen mittleren Temperatur gegeben hat. Deswegen hat man uns viele Fragen gestellt nach dem Motto ,Ich sah diese Graphik auf einer Leugner- Website. Sind das wirklich Ihre Daten?‘ Während die Endpunkte in einigen dieser Berichte cherry-picked worden sind, um den Beweis noch besser aussehen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als die meisten IPCC AR5-Simulationen des historischen Klimas prophezeit hatten. Damit liegt das starke ENSO-Ereignis am Beginn ihrer Zeitreihe, was zu einer geringen linearen Anpassung mit der geringstmöglichen Steigung führte“. Tatsächlich wurde die durch den El Nino ausgelöste Wärmespitze 1998 fast vollständig ausgeglichen durch zwei Faktoren: die nicht unähnliche Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst. Graphiken von Werner Brozek und Prof. Brown der RSS- und GISS- Temperaturen. Beide beginnen 1997 und 2000. In jedem Datensatz sind die Trendlinien nahezu identisch. Folglich ist die Aussage, dass der Stillstand dem El Nino 1998 geschuldet ist, falsch.
Obige Graphik demonstriert, dass die Trends der globalen Temperatur im RSS- Datensatz vor der Manipulation und im GISS-Datensatz genau gleich waren, und zwar vor und nach dem El Nino 1998. Dies zeigt, dass die Länge des Stillstands ausreichend war, um den imaginären Einfluss zu nullifizieren. Es ist nützlich, die Erwärmung seit 1990, genommen als Mittel der vier Adjustozän-Datensätze (RSS, GISS, NCEI und HadCRUT4: erste Graphik unten) zu vergleichen mit dem UAH-Datensatz, den Lüning und Vahrenholt als zuverlässig einstufen (zweite Graphik unten): Mittel der monatlichen mittleren Temperaturanomalien nach RSS, GISS, NCEI und HadCRUT4 von Januar 1990 bis Juni 2018 (dunkelblaue Zackenkurve) und des linearen Regressionstrends kleinster Quadrate (hellblaue Linie) im Vergleich mit dem geringeren der beiden IPCC- Mittelfrist-Prophezeiungen (Bereich in orange). Anomalien der unteren Troposphäre nebst Trend von Januar 1990 bis Juni 2018 nach UAH. Man sieht, dass der Erwärmungstrend in den Adjustozän-Datensätzen über den Zeitraum fast 50% größer ist als im UAH-Datensatz, welchen Lüning und Vahrenholt zuverlässiger finden. Nach den Adjustierungen zeigt der RSS-Datensatz seit 1990 jetzt eine stärkere
Erwärmung als jeder andere Datensatz, die sogar noch über den vielfach manipulierten GISS-Datensatz hinausgeht: Auf ein Jahrhundert umgerechnete globale Erwärmungstrends von Januar 1990 bis Juni 2018. Die beiden mittelfristigen IPCC-Prophezeiungen für das Szenario ,Business as Usual‘ und unsere überarbeiteten Prognosen nach Korrektur des Fehlers in der Definition von Temperatur-Rückkopplung seitens der offiziellen Klimatologie (weiße Beschriftung) im Vergleich zu beobachteten Raten (blaue Beschriftung) aus den fünf am weitesten zurückreichenden Datensätzen. Man beachte, dass die RSS-Erwärmungsrate seit 1990 nahezu doppelt so hoch ist wie bei UAH, wo man dessen globale Erwärmungsrate vor zwei oder drei Jahren nach unten korrigiert hatte. Und doch beruhen beide Datensätze auf genau den gleichen Satellitendaten. Die Differenz von fast 1 K pro Jahrhundert zeigt, wie stark Temperatur-Datensätze auf subjektive Adjustierungen reagieren anstatt objektive Messungen zu repräsentieren. Sollen wir einmal zynisch annehmen, dass alle diese Adjustierungen – RSS, GISS, NCEI und HadCRUT4 zum Wärmeren, UAH leicht zum Kälteren – die politische Ausrichtung der jeweiligen Datensatz-Besitzer reflektieren? Lüning und Vahrenholt können keine rationale Rechtfertigung finden für die große und plötzliche Änderung des RSS-Datensatzes so bald, nachdem Ted Cruz unsere den Stillstand zeigende RSS-Graphik für eine Anhörung vor dem Senat herangezogen hatte. Allerdings konnten sie auch nicht feststellen, dass die UAH-Daten fälschlich adjustiert worden waren. Sie empfehlen UAH als in Ordnung. Die MofB [= Monckton of Brenchley]-Nachhersage basiert auf zwei Fakten: Wir berechnen die Charney-Sensitivität auf lediglich 1,17 K pro CO2-Verdoppelung, und außerdem ist in vielen Modellen die prognostizierte Gleichgewichts- Erwärmung bei einer Verdoppelung der CO 2 -Konzentration die Charney- Sensitivität in etwa gleich der flüchtigen Erwärmung aus allen anthropogenen Quellen im 21. Jahrhundert. Dies ist daher eine provisorische Prognose, aber sie ist konsistenter mit dem UAH-Datensatz als mit den fragwürdigen
Datensätzen des Adjustozäns. Das Ausmaß der Manipulation in manchen Datensätzen ist enorm. Eine andere erhellende Graphik vom nimmermüden Professor Humlum folgt hier. Er publiziert eine große Vielfalt von Graphiken zur globalen Erwärmung in seinem öffentlich zugänglichen monatlichen Report bei climate4you.com: Mann-gemachte globale Erwärmung: wie GISS die offensichtliche Erwärmung um über die Hälfte verstärkte Das GISS, dessen Datensatz inzwischen derartig politisiert ist, dass er vollkommen wertlos ist, sMeared die Daten über einen Zeitraum von weniger als sieben Jahren, nämlich von März 2010 bis Dezember 2017, und zwar so erheblich, dass die zutage tretende Erwärmungsrate über das 20. Jahrhundert über ein halb mal so groß ist. Die größte Änderung erfolgte im März 2013, zu einem Zeitpunkt also, an dem der lang dauernde Stillstand bereits zu einer permanenten Peinlichkeit der offiziellen Klimatologie geworden war. Nur einen Monat zuvor hat war jetzt in Ungnade gefallene Chef des IPCC, der Eisenbahn- Ingenieur Pachauri, einer der ersten Sprecher der offiziellen Klimatologie, welcher die Existenz des Stillstandes einräumte. Das tat er auf einem Vortrag in Melbourne, worüber in der Folge nur in einer einzigen Zeitung berichtet worden war, nämlich The Australian. Diese Zeitung steht schon lange unter Verdacht, weil sie immer wieder beide Seiten der Klimadebatte hat zu Wort kommen lässt. Faszinierend ist, dass selbst nach den erheblichen Datenmanipulationen zum Ende des Stillstandes in vier der fünf langzeitlichen Datensätze, und obwohl der Trend in allen Datensätzen aufgrund des starken El Nino vor ein paar Jahren ebenfalls gestiegen ist, die Original-Prophezeiungen des IPCC aus dem Jahr 1990, welche die Angst erzeugen sollten, ungeheuer exzessiv bleiben. Inzwischen hat jedoch das IPCC selbst erkannt, wie absurd seine Original- Prophezeiungen waren. Im 5. Zustandsbericht 2013 wurde die Abhängigkeit von Modellen erstmals aufgegeben und ersetzt durch etwas, das als „Experten- Beurteilung“ ihrer überhitzten Resultate bezeichnet wird. Außerdem wurde die
mittelfristige Prognose halbiert. Damit inkonsistent hat man jedoch sorgfältig dessen Gleichgewichts-Prophezeiung – 1,5 bis 4,5 K pro CO 2 - Verdoppelung – beschämend unverändert gelassen. Die unzähligen Apologeten des IPCC in den Marxstream-Medien haben eine Parteilinie entwickelt, um das erbärmliche prognostische Scheitern der IPCC- Prophezeiungen aus dem Jahr 1990 hinweg zu erklären. Ja sie verstiegen sich absolut fälschlich sogar dazu zu versuchen, dass alles „noch viel, viel schlimmer sei als wir jemals gedacht haben“. Eine seiner allgemeinsten Entschuldigungen, vorgebracht im Büßer-Tonfall, nämlich die monotone Darbietung und das Zombie-artige Auftreten der unglaublich Gehirngewaschenen ist, dass dank des UN Framework Convention on Global Government Climate Change die CO2-Reduktion so eindrucksvoll war, dass die Emissionen jetzt deutlich unter dem Business-as-Usual-Szenario im IPCC- Bericht 1990 liegen und viel näher dem weniger extremistischen Szenario B. Mit Verlaub – nein! Obwohl die Aufzeichnung der CO 2 -Emissionen in das Adjustozän hineingezogen worden ist dergestalt, dass jetzt so getan wird, als ob – per impossibile – die globalen CO2-Emissionen während der letzten fünf Jahre unverändert geblieben waren, zeigt der jüngste Bericht zu diesen Emissionen diese als fast konsistent mit dem usiness-as-Usual-Szenario des IPCC (1990). Globale CO2-Emissionen folgen dem Business-as-Usual-Szenario A des IPCC. Als man mit dieser lügnerischen Ausrede gescheitert war, entwickelte die Partei eine interessante Rückzugslinie mit der Auswirkung, dass obwohl die Emissionen nicht dem IPCC-Szenario B folgten, die resultierenden Strahlungsantriebe viel geringer sind als vom IPCC 1990 prophezeit. Und das sind sie auch. Was jedoch die Parteilinie sorgfältig versteckt, ist der Grund
für diesen Umstand. Die Partei erkannte, dass deren Schätzungen des kumulativen anthropogenen Gesamt-Strahlungsantriebs aus allen Quellen hoch genug waren in Relation zur beobachteten Erwärmung, dass sich eine weit geringere Gleichgewichts- Sensitivität auf Strahlungsantriebe zeigte als ursprünglich verfügt. Dem zufolge reflektierte der 3. Zustandsbericht ordnungsgemäß die adjustierte Parteilinie, indem magische Windungen sowie künstliche und erhebliche Reduktion des gesamt-anthropogenen Antriebs damit verwoben wurden. Man führte nämlich etwas ein, was Prof. Lindzen unverblümt „den Aerosol-Frisier-Faktor“ nannte. Der Einfluss dieses schädlichen Frisier-Faktors wird im 5. Zustandsbericht deutlich: Fudge, mudge, kludge [etwa: frisieren, schummeln, flickschustern]: Der Aerosol-Frisier-Faktor reduziert den menschengemachten Strahlungseinfluss erheblich und erhöht fälschlich die Klima- Sensitivität (IPCC 2013, Abb. SPM.5) Die IPCC-Liste der Strahlungsantriebe im Vergleich mit der vorindustriellen Ära zeigt einen gesamt-anthropogenen Strahlungsantrieb von 2,29 W/m² relativ zum Jahr 1750. Allerdings wäre diese Gesamtzahl noch deutlich höher ohne die beiden Aerosol-Frisier-Faktoren, nämlich insgesamt 0,82 W/m². Falls zwei Drittel dieser Gesamtzahl zurück hinzugefügt werden, wie es sein sollte, weil anthropogene Aerosole sich in nichts von natürlichen Aerosolen in den Sahara- Winden unterscheiden, welche bis nach Schottland verfrachtet werden können,
wird der gesamt-anthropogene Faktor zu 2,85 W/m². Der Unterschied zur offiziellen Klima-Sensitivität sieht so aus: Wie der Aerosol-Frisier-Faktor künstlich den Systemerhaltungs-Faktor A erhöht. Im linken Bild ist die Referenz-Sensitivität (also die anthropogene Temperaturänderung zwischen 1850 und 2010 vor Berücksichtigung von Rückkopplungen) das Produkt des Planck-Parameters 0,3 K pro W/m² und der mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen Strahlungsantriebs in der industriellen Ära 2011: d. h. 0,68 K. Die Gleichgewichts-Sensitivität ist etwas komplexer, weil es die offizielle Klimatologie liebt sich vorzustellen (vermutlich ohne jede Rechtfertigung), dass bislang noch nicht die ganze anthropogene Erwärmung wirksam geworden ist. Daher haben wir für die Mittelfrist-Schätzung bei Smith (2015) des Gesamt-Strahlungs-Ungleichgewichtes von 0,6 W/m² zugelassen. Dies konvertiert die gemessene Erwärmung von 0,75 K von 1850 bis 2011 zu einer Gleichgewichts- Erwärmung von 1,02 K. Der Systemerhaltungs-Faktor verwendet den Delta-Wert der Systemerhaltungs- Gleichung, welche derzeit universal bei der offiziellen Klimatologie ist. Der Faktor ist das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, d. h. 1,5. Da die Referenz-Sensitivität bei CO2-Verdoppelung, abgeleitet aus den CMIP5-Modellen bei Andrews (2012) 1,04 K beträgt, beläuft sich die Charney- Sensitivität auf 1,5 X 1,04 oder 1,55 K. Im rechten Bild wurden etwas über zwei Drittel des Aerosol-Frisier-Faktors von 0,82 K dem gesamt-anthropogenen Antrieb zurück hinzugefügt, worauf sich 2,85 K ergaben. Warum zurück addiert? Nun, ohne zu viele Geheimnisse zu verraten, die offizielle Klimatologie hat angefangen zu begreifen, dass der Aerosol-Frisier-Faktor viel, viel zu hoch ist. Er ist so unrealistisch, dass er Zweifel weckt hinsichtlich der Glaubwürdigkeit der übrigen Tabelle mit den Antrieben in IPCC 1990 (Abb. SPM.5). Man erwarte signifikante Änderungen im nächsten IPCC-Zustandsbericht, welcher etwa 2020 geplant ist. Verwendet man den korrigierten Wert des gesamt-anthropogenen Antriebs, fällt der Systemerhaltungs-Faktor auf 1,13. Das führt zu einer Charney-Sensitivität von 1,13 X 1,04 oder 1,17 K. Wir wollen noch einen anderen Weg einschlagen, das zu testen, und zwar unter Verwendung der Absolutwert-Gleichung, welche durch die fälschlich restriktive Definition einer „Temperatur-Rückkopplung“ der offiziellen Klimatologie
ausgeschlossen wird: Der System-Erhaltungs-Faktor 2011: (Links) ohne und (rechts) mit Frisier-Faktor-Korrektur Hier zeigt sich ein bedeutender Vorteil, wenn man die Systemerhaltungs- Gleichung mit Absolutwerten anwendet, welche von der offiziellen Klimatologie verworfen wird. Änderungen der Delta-Werte führen zu großen Änderungen des Systemerhaltungs-Faktors, aber nur sehr geringe Änderungen, wenn er mittels der Absolutwert-Gleichung abgeleitet wird. Tatsächlich sind die Systemerhaltungs-Faktoren der Jahre 1850 und 2011, wenn mit der Absolutwert- Gleichung abgeleitet, nahezu identisch mit 1,13. Dies zeigt, dass unter den heutigen Bedingungen Nicht-Linearitäten in Rückkopplungen nur sehr geringen Einfluss auf den Systemerhaltungs-Faktor haben. Unter dem Strich: Kein noch so großer Wutanfall ob des Temperaturverlaufs kann die Tatsache verändern, dass der Systemerhaltungs-Faktor und damit auch die Gleichgewichts-Temperaturen gering sind – egal ob man die Delta-Wert- Gleichung heranzieht (Charney-Sensitivität 1,55 K) oder die Absolutwert- Gleichung (Charney-Sensitivität 1,17 K).
Link: https://wattsupwiththat.com/2018/08/21/temperature-tampering-temper-tantrums/ Übersetzt von Chris Frey EIKE NOAA erneut ertappt: Datenmani- pulation, diesmal mit der Eliminierung einer Rekord-Kältewelle Dieses Mal waren die Daten betroffen, welche die jüngste Rekord-Kältewelle im Nordosten der USA belegen. Die NOAA möchte diese Kältewelle aus der Historie entfernen. Falls man die NOAA-Graphiken zum Maß aller Dinge macht, gibt es nichts besonders Ungewöhnliches hinsichtlich der Kälte dieses Winters, welche dazu geführt hat, dass Haie im Ozean erfroren sind und Leguane von den Bäumen fielen (hier). Die NOAA-Graphik vom Januar 2018 für den Nordosten der USA sieht folgendermaßen aus (das Gebiet umfasst die Neuengland-Staaten sowie die angrenzenden Staaten NY, PA, NJ, DE und MD):
Man würde beim Betrachten dieser Graphik nie darauf kommen, dass es in diesem Gebiet jüngst zu einer Rekorde brechenden Kältewelle gekommen war, oder? Das liegt daran, wie Paul Homewood entdeckt hat, dass die NOAA die Daten manipuliert hat. Wieder einmal hat die NOAA Temperaturen in der Vergangenheit nach unten korrigiert, um sie kälter aussehen zu lassen, als sie waren, während sie Temperaturen aus jüngster Zeit nach oben korrigiert hat, damit sie wärmer aussehen als sie waren. Gründe? Vermutlich haben die Gründe mehr mit Ideologie als mit Meteorologie zu tun. Wir sprechen hier nicht über Grad-Bruchteile. Die Korrekturen addieren sich zu atemberaubenden ca. 1,7°C! Das liegt weit jenseits aller Fehlerbandbreiten oder einfacher Fehler und reicht tief in den Bereich Fiktion und politische Propaganda. Aufmerksam wurde Homewood auf diese Manipulationen, als er die Datensätze von New York unter die Lupe nahm. Vor allem irritierte ihn, wie die NOAA mit dem besonders kalten Winter umgegangen war, der New York 2013/14 heimgesucht hatte, was er hier beschreibt. ————————– Die ganze Story von James Delingpole steht hier. Ich empfehle die Lektüre dringend. Er kommentiert ganz am Schluss: Das ist ein Skandal! Die Klima-Wächter der NOAA sind politische Aktivisten, aber keinesfalls ehrliche Wissenschaftler. Der US-Steuerzahler darf deren Propaganda nicht länger finanzieren! Legt den Sumpf endlich trocken! Politik und Medien bei uns machen ja auch begeistert mit. Kann man da wirklich nichts machen außer immer wieder auf derartige Praktiken hinzuweisen? – Chris Frey, Übersetzer Link: https://wattsupwiththat.com/2018/02/20/noaa-caught-cooking-the-books-again-th is-time-by-erasing-a-record-cold-snap/ Übersetzt von Chris Frey EIKE Schummel, Schummel! Wie sie daran
scheiterten, die Kluft zwischen prophe- zeiter und gemessener Erwärmung zu verschleiern Abbildung 1: Die Regression kleinster Quadrate über die monatlichen globalen Anomalien während des gesamten Satelliten-Zeitraumes zeigt von Dezember 1978 bis Dezember 2017 eine Erwärmung mit einer Rate äquivalent zu lediglich 1,28°C pro Jahrhundert. Nimmt die Rate der globalen Erwärmung unaufhaltsam zu? Die Antwort lautet Nein, wie aus Abbildung 2 hervorgeht: Abbildung 2: Der Trend kleinster Quadrate im UAH-Datensatz zeigt von Februar 1997 bis Dezember 2017 Erwärmung mit einer Rate äquivalent zu 0,85°C pro Jahrhundert. Die Erwärmungsrate der 251 Monate mit Daten über die Hälfte des gesamten UAH-
Datensatzes ist nicht höher als die Rate über den gesamten Zeitraum von 469 Monaten. Sie liegt ein Drittel niedriger, von 1,28 auf 0,85°C pro Jahrhundert. Ich habe den Startzeitpunkt für Abbildung 2 gewählt, weil er den Beginn der längsten Periode des Großen Stillstands markiert, welche dem RSS- Satelliten-Datensatz zufolge spektakuläre 18 Jahre und 9 Monate dauert, von Februar 1997 bis Oktober 2015, wie Abbildung 3 zeigt: Abbildung 3: Der Trend kleinster Quadrate im RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung von Februar 1997 bis Oktober 2015, also 18 Jahre und 9 Monate lang. Das ist die längste Periode des Stillstands, obwohl ein Drittel aller anthropogenen Antriebe in diesen Zeitraum fällt. Ein wenig Historie. Im Zuge seiner Vorbereitung auf eine Debatte im Senat Ende 2015 ist Senator Ted Cruz an das Heartland Institute herangetreten und hat um eine einzelne Graphik gebeten, welche am Besten den klimaskeptischen Standpunkt belegt. Man wählte Abbildung 3, und Senator Cruz zeigte sie im Senat, zum sichtlichen Unbehagen der Demokraten. Bob Carter schrieb mir kurz vor seinem viel zu frühen Tod, wie erfreut er war von unserer Linie zu hören, dass ein Drittel des gesamten Einflusses des Menschen auf das Klima seit 1750 während des Stillstands aufgetreten war, jedoch ohne auch nur die geringste Erwärmung auszulösen. In meinem Bericht über den Stillstand im November 2017 bei WUWT prophezeite ich, dass der RSS-Datensatz rasch manipuliert werden würde, um den Stillstand daraus zu entfernen. Nur wenige Wochen später verkündete der Betreiber jenes Datensatzes, Dr. Carl Mears, welcher dazu neigt, Skeptiker als „Leugner“ zu diffamieren, dass es tatsächlich eine Revision geben würde. Als diese dann erschien, war der Stillstand daraus verschwunden. Interessant dabei ist, dass dieser Vorgang, d. h. die Veränderung von Daten ex post facto, um sie an die Parteilinie anzupassen, immer noch weitergeht. Aus dem Datensatz, so wie er vor ein paar Monaten gezeigt worden ist, war der empörende Null-Trend während des 18 Jahre und 9 Monate langen Stillstands daraus verschwunden und ersetzt worden durch einen Trend äquivalent zu 0,77°C pro Jahrhundert (Abbildung 4). Allerdings reichte diese Temperatur-Manipulation* nicht aus. Der RSS-
Datensatz, so wie er heute gezeigt wird, zeigt eine Erwärmungsrate äquivalent zu 0,83°C pro Jahrhundert über genau den gleichen Zeitraum (Abbildung 5). [*Monckton verwendet hier eines seiner unübersetzbaren und auch unnachahmlichen Wortspiele. Er schreibt tamparature change, zusammengesetzt aus tamper und temperature. Anm. d. Übers.] Abbildung 4: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands auf der Grundlage der Mitte 2017 gezeigten Daten. Abbildung 5: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands, diesmal mit den Daten, wie sie heute gezeigt werden. Man vergleiche die Abbildungen 4 und 5 mit Abbildung 6, den derzeitigen UAH- Daten über die 18 Jahre und 9 Monate des Stillstands. Sie zeigen eine statistisch nicht signifikante Erwärmung äquivalent zu 0,05°C pro Jahrhundert über den Stillstands-Zeitraum. Zu der Zeit des Stillstands zeigten die UAH-Daten eine höhere Erwärmungsrate
als RSS. Seitdem sind die UAH-Daten überarbeitet worden mit dem Effekt der Reduktion der zuvor erkennbaren geringen Erwärmungsrate während der Stillstands-Periode, während die RSS-Daten weiterhin und immer noch dergestalt überarbeitet werden, dass die offensichtliche Erwärmungsrate über den gleichen Zeitraum immer stärker in Erscheinung tritt. Aus all diesen Daten geht klar hervor, dass die Rate der globalen Erwärmung sehr erheblich unter dem liegt, was ursprünglich prophezeit worden war. In einem weiteren Beitrag werde ich für jedermann verständlich zeigen, wie groß die Diskrepanz ist zwischen nervös machender Prophezeiung und belangloser Beobachtung, und wie falsch die vielfachen künstlichen Behauptungen in gewissen begutachteten Studien waren, die belegen sollten, wie recht das IPCC mit seinen ursprünglichen Prophezeiungen hatte, und wie falsch jene Prophezeiungen wirklich waren. Und schließlich werde ich zu gegebener Zeit genau zeigen, welcher Fehler in dem Modellen zu diesen außerordentlichen Über-Prophezeiungen geführt haben, und wie gering die angemessen prophezeite Erwärmungsrate ist, nachdem dieser verhängnisvolle Fehler korrigiert ist. Abbildung 6: Der Trend kleinster Quadrate des gegenwärtigen UAH-Datensatzes stimmt überein mit dem Original-RSS-Datensatz und zeigt während der 18 Jahre und 9 Monate von Februar 1997 bis Oktober 2015 eine globale Erwärmung mit einer Rate, die nicht unterscheidbar ist von Null. Link: https://wattsupwiththat.com/2018/01/03/tamper-tamper-how-they-failed-to-hide- the-gulf-between-predicted-and-observed-warming/ Übersetzt von Chris Frey EIKE
Eine Merkwürdigkeit bei den Adjustie- rungen von Bojen-Daten von Karl et al. 2015 Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm- Änderungen in den ERSSTv4-Daten erforderlich macht. Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%. Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm- adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte? Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber davon habe ich nichts gesehen. Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel: https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record / Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen. Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der Anteil 2015 über 70% gelegen hat. Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50% gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren Temperatur-Adjustierungen. Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm- Adjustierung infolge der Bojen.
Link: https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy- data-adjustments/ Übersetzt von Chris Frey EIKE Mehr zum einschlägigen Artikel von David Rose: Instabilität im Global Historical Climate Network GHCN Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die David Rose in seinem Artikel ans Tageslicht gebracht hat. Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen- Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht. Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die Differenz:
Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode 1961 bis 1990. h/t The CarbonBrief Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten. Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig „unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der Mitautoren der „Pausebuster“-Studie von Karl et al. 2015. Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten ernstlich dubios. Paul Matthews schreibt auf der Website CliScep: Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands- Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war, welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man: „Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse herauskamen“.
Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt. Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier. Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen der Vergangenheit waren jedes Mal ziemlich unterschiedlich. Hier folgt eine von mir zu jener Zeit erstellte Graphik mit Daten, die von der GHCN ftp site heruntergeladen werden können. (die nicht adjustierten bzw. adjustierten Files sind ghcnm.tavg.latest.qcu.tar.gz bzw. ghcnm.tavg.latest.qca.tar.gz). Sie illustrieren die Instabilität des Adjustierungs-Algorithmus‘: Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012 vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen
des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen, die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender Vergangenheit illustriert die Instabilität. Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January 1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge. Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN- Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies. Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten danach als Input verwendet werden für weithin gebräuchliche Datensätze wie etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich, dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten Probleme bei ihren Verfahren nicht bewusst sind. Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr ähnliche Graphik.
Der ganze Beitrag dazu steht hier: https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/ Link: https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-artic le-instability-in-the-global-historical-climate-network/ Übersetzt von Chris Frey EIKE 100% der Erwärmung in den USA gehen auf Datenmanipulationen der NOAA zurück Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“. Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung, welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr
2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien: In den USA war es dieses Jahr überwältigend heiß. Quelle: Climate Central Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre 2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde Temperaturen mit heißen Temperaturen auf. Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C] gestiegen seien
Klima auf einen Blick. Quelle: National Centers for Environmental Information (NCEI) Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten. Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung. Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel behauptete Erwärmung.
Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA [die Abkürzung steht für National Oceanic and Atmospheric Administration. Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM (Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von Beweisen]. Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten
ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich auch leicht feststellen, hat man doch fabrizierte Temperaturen in der Datenbasis mit einem „E“ gekennzeichnet. Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen vom Tisch: 1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale Daten [un-gridded data]. 2. Man „musste“ die Daten adjustieren, um einem Bias wegen des Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen. Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen Daten.
Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am Nachmittag eingestellt wurden. Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten, die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten. Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel Erwärmung zu zeigen wegen TOBS am Morgen. Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist
(0,3°F) und nach 1990 flach verläuft. https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg .gif Gavin Schmidt von der NASA erklärt sehr eindeutig, warum die US- Temperaturaufzeichnungen nicht adjustiert werden müssen: Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im Grunde die gleichen Antworten. Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz- Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben bisher keine solchen Dinge gefunden. Ausführlicher: NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature Record Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:
US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr mildes Jahr. Link: http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-t ampering/ Übersetzt von Chris Frey EIKE Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum Original.
Sie können auch lesen