NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike

Die Seite wird erstellt Daniel Lindemann
 
WEITER LESEN
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
@NYT lügt hinsichtlich Klima – indem
die Vergangenheit verschwiegen wird

[*In diesem Beitrag tauchen noch öfter Zahlenangaben durchweg in den in den
USA gebräuchlichen Einheiten auf. Des besseren Verständnisses halber werden
diese Angaben hier aber gleich in europäische Einheiten umgerechnet. Anm. d.
Übers.]

[**Vermutlich war das in Mitteleuropa anders, aber es geht hier auch darum
aufzuzeigen, dass Deutschland eben nicht der Nabel der Welt ist und dass das
Wetter auf der ganzen Welt nicht so ist (oder zu sein hat) wie in
Deutschland. Anm. d. Übers.]

In irgendeinem Zusammenhang dazu sandte mir ein Leser einen Link zu einer
interaktiven Website der New York Times, welche von sich behauptet, die
Anzahl der Tage mit einer Temperatur über 32°C [in US-Einheiten ist das eine
Art ,magische Schwelle‘ von 90°F. Anm. d. Übers.] pro Jahr für Städte im
ganzen Land zu listen. Die Ergebnisse werden für die Times zusammengestellt
von einer Institution (man könnte es auch eine Umwelt-Propagandagruppe
nennen) mit der Bezeichnung Climate Impacts Lab.

https://www.nytimes.com/interactive/2018/08/30/climate/how-much-hotter-is-you
r-hometown.html?action=click&module=Most%20Popular&pgtype=Homepage

Da ich viele Datensätze dieser Art zusammengestellt habe, schaute ich mal
darauf. Die Website fragt nach der Stadt und dem Geburtsjahr und präsentiert
dann eine Zeitreihe, die vermeintlich die Anzahl der Tage mit einer
Temperatur über 32°C pro Jahr zeigt seit Geburt und wie die Anzahl dieser
Tage zugenommen hat.

Obwohl ich in Kalifornien geboren wurde, habe ich mehr Jahre in Huntsville
gelebt als an irgendeinem anderen Ort. Also gab ich mein Geburtsdatum ein und
Huntsville als meine Geburtsstadt. Sofort wurde dann aber mein Argwohn
geweckt, als der erscheinende Datensatz erst im Jahre 1960 begann, also
einige Jahre nach meiner Geburt! Offensichtlich wollen die Times und das
Climate Impact Lab nichts mit Menschen zu tun haben, die älter sind als 58
Jahre.

Für Huntsville und Montgomery sind hier die entsprechenden Ergebnisse –
irgendwie Angst erzeugend. Es scheint, dass die Anzahl der Tage mit über 32°C
auf das höchste Niveau jemals gestiegen ist. Man macht mir weis, dass es im
Jahre 1960 45 derartige Tage in Huntsville gegeben hat, in 2017 dagegen 57
Tage, Tendenz steigend.
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Um das alles noch ängstigender zu machen, beziehen sie Klimamodell-
Projektionen bis zum Jahr 2090 mit ein, um mir zu sagen, dass wenn ich im
Jahre 2040 80 Jahre alt werde es 73 derartige heiße Tage in Huntsville geben
wird, siehe Graphik. Hilfe!
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Bevor man nun sein Haus verkauft und nach Kanada zieht, betrachte man die
wahre Geschichte. Nachdem ich viele Klima-Datensätze für Alabama erstellt
hatte, einige davon ab dem Jahr 1850, wusste ich, dass die Story in der Times
darauf ausgelegt war, Alarm zu schreien und die Behauptung voranzutreiben,
dass Menschen, welche auf Kohlenstoffbasis Energie verbrauchen, die ihnen zu
einem besseren Leben verhilft, unsere Sommer sogar noch schlimmer macht.
Vorsicht,liebe Leser, dieses Webtool ist nicht darauf angelegt, genaue
Informationen zu verbreiten.

Erstens, Klimadaten für Alabama begannen im 19. Jahrhundert, nicht erst im
Jahre 1960. Im Jahre 2016 veröffentlichten Dr. Richard McNider (mein
Vorgänger) und ich selbst eine sorgfältig konstruierte Zeitreihe der
Sommertemperaturen für den Staat ab 1883 unter Einbeziehung zahlreicher
Stationsaufzeichnungen. Einige davon hatten noch nicht einmal Eingang in die
Datensätze der [US-]Bundesregierung gefunden, also die Hauptquelle für
Institutionen wie das Climate Impact Lab. Ich habe diese Arbeiten
aktualisiert bis einschließlich Sommer 2018 – das Ergebnis zeigt die Graphik
unten. Diese zeigt nicht nur, dass die Tagestemperaturen im Sommer im Verlauf
der letzten 136 Jahre nicht nur nicht gestiegen, sondern sogar gesunken sind.
Hmmm … wenn man sich diese Graphik so betrachtet – warum wohl hat Climate
Impact Lab das Jahr 1960 als Startjahr seiner Graphik gewählt?
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Wir gingen in jener Studie noch einen Schritt weiter und wiesen nach, dass
Klimamodelle komplett falsch lagen bei der Replikation des Abwärtstrends der
Temperatur in Alabama während der letzten 120 Jahre – 76 unterschiedliche
Modelle mit einer Fehlerquote von 100%. Sollte man diesen gleichen Modellen
trauen, dass sie uns so Auskunft über die Zukunft geben wie die Times es
behauptet? Warum nur hat man die Modelle nicht auf deren Validität
untersucht?

Was ist nun also mit den „heißen“ (oder, wie wir in Alabama sagen
„typischen“) Tagen mit einer Temperatur über 32°C? Für Alabama und die
gesamte Nation habe ich seit 1895 die mittlere Anzahl pro Station für jedes
Jahr berechnet. Die Ergebnisse unten sprechen für sich (es gibt keine Zunahme
der Anzahl von Tagen mit über 32°C) – und sie stellen die Falschinformation
bloß, welche die Times hinaus posaunt.
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Genaue Informationen hinsichtlich des Klimas in Alabama zu verbreiten ist
genau das, was wir in unserem Büro machen. Tatsächlich kann ich bei
Heranziehen der realen Daten nicht einmal ansatzweise die Bilder
reproduzieren, mit denen das Climate Impact Lab aufwartet und welchen zufolge
die Zehnerjahre dieses Jahrhunderts die meisten Tage mit 32°C verzeichnete –
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
ich vermute mal, sie verwenden mehr theoretische Ergebnisse als sich an
Beobachtungen zu orientieren. Man beachte, wie glatt ihre Graphik ist im
Vergleich zu den realen Daten – das sieht mir sehr unecht aus.

Dies ist ein wunderbarer Staat, in dem wir leben, in dem Menschen das Leben
genießen und Industrien sich entfalten können – und unsere Klimabedingungen
sind einer der Gründe, warum wir so erfolgreich sind bzgl. des Zuzugs
weiterer Menschen. Gelegentlich jedoch kommen Zeiten, in welchen ich
Behauptungen von jenen entgegen treten muss, deren Absicht nicht die
Information ist, sondern das Schüren falschen Alarms – dies ist normalerweise
dann der Fall, wenn Umwelt-Interessengruppen eine Presseerklärung
fabrizieren, deren dramatische Inhalte von willigen Medien verbreitet werden
(ohne jede Fakten-Recherche). Jetzt ist eine solche Zeit, und ich bin sicher,
dass es nicht das letzte Mal ist.

Striche

Citation:

Christy, J.R. and R.T. McNider, 2016: Time series construction of summer
surface temperatures for Alabama, 1883-2014, and comparisons with
tropospheric temperature and climate model simulations. J. Applied Meteor.
Climatology, DOI: 10.1175/JAMC-D-15-0287.1.

Data from the New York Times website accessed on 5 and 6 September 2018.

– John Christy
The Alabama State Climatologist

Link:
https://wattsupwiththat.com/2018/09/12/nyt-lies-about-climate-by-omitting-the
-past/

Temperatur-Manipulationen mildern
Wutanfälle

Normalerweise habe ich den RSS-Datensatz als meine Hauptquelle herangezogen,
weil es der erste war, der seine monatlichen Daten veröffentlichte. Im
November 2015 jedoch, nachdem der Datensatz seit 18 Jahren und 9 Monaten
keine Erwärmung gezeigt hatte, zeigte Senator Ted Cruz unsere Graphik der
RSS-Daten bei einer Anhörung im US-Senat, um eben diesen Stillstand zu
erklären. Die Demokraten waren darob sichtlich ungehalten und suchten nichts
Geringeres als einen Admiral aus, der – erfolglos – versuchen sollte, die
Graphik zu widerlegen. Ich habe bereits damals vorausgesagt, dass Carl Mears,
der Betreiber jenes Datensatzes, zur rechten Zeit alle drei längsten
terrestrischen Datensätze kopieren – GISS, NOAA und HadCRUT4 – und diese so
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
überarbeiten würde, dass der lange Stillstand daraus verschwinden würde.
Damit sollte eine erheblich größere globale Erwärmung suggeriert werden als
die ursprünglich veröffentlichten Daten gezeigt hatten.

Der lineare Regressionstrend kleinster Quadrate im Satelliten-
Datensatz RSS der globalen mittleren Temperatur-Anomalie zeigt vor
der Revision seit 18 Jahren und 9 Monaten keine Erwärmung (von
Februar 1997 bis Oktober 2015), obwohl ein Drittel aller
anthropogenen Antriebe während genau dieses Zeitraumes angefallen
war. Ted Cruz forderte im November 2015 mit dieser Graphik die
„Demokraten“ im Senat heraus.

Wie könnte es anders sein – gleich im nächsten Monat unterwarf Dr. Mears (der
die RSS-Website dazu missbraucht, Skeptiker der globalen Erwärmung als
„Leugner“ zu verunglimpfen) seinen Datensatz dem Adjustozän, indem er den
RSS-Datensatz gebührend bearbeitete, um den Stillstand zu eliminieren.
Zweifellos ist er von seinen Klima-extremistischen Gesinnungsgenossen
bedrängt worden, etwas zu tun, um die Skeptiker zum Schweigen zu bringen,
damit diese nicht mehr auf das auffallende Fehlen jedweder globaler Erwärmung
hinweisen während eines Zeitraumes, als ein Drittel des menschlichen
Einflusses auf das Klima angefallen war. Und siehe da, auf einmal war der
Stillstand weg:
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Willkommen im Adjustozän: RSS fügt 1 K pro Jahrhundert dem hinzu,
was einst der Stillstand war.

Wie sich herausstellte, hätte sich Dr. sMear* nicht die Mühe machen brauchen,
den Stillstand zu beseitigen. Ein großes El Niño-Ereignis machte das sowieso.
Allerdings zeigt eine interessante Analyse von Prof. Fritz Vahrenholt und Dr
Sebastian Lüning hier, dass dieser Datensatz nicht länger als zuverlässig
gelten kann, nachdem man ihn derartig manipuliert hatte. Die Analyse bringt
ans Tageslicht, wie der RSS Datensatz bearbeitet worden war. Die zwei
Wissenschaftler kommen zu dem Ergebnis, dass die Nachbearbeitung [ex-post-
facto post-processing] der Satellitendaten seitens RSS unzureichend
gerechtfertigt worden ist:

[*Wieder ein solches Wortspiel. Der Lord verschiebt das ,s‘ im Namen nach
vorne, so dass sich ,smear‘ ergibt = Dr. Schmiere. Anm. d. Übers.]

Monatliche globale mittlere Temperaturanomalien von RSS vom Januar
1979 bis Juni 2018. Die nicht manipulierte Version ist in rot, die
bearbeitete Version in blau dargestellt. Die dicken Kurven sind über
37 Monate geglättete Mittelwerte. Graphik von Prof. Ole Humlum von
seiner guten Website www.climate4you.com.

RSS hob die zuvor gemessenen Temperaturen seit dem Jahr 2000 an, was die
Erwärmungsrate insgesamt seit 1979 um 0,15 K, nämlich von 0,62 K auf jetzt
0,77 K hat zunehmen lassen:
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Man hätte es nicht machen dürfen, aber Lüning und Vahrenholt haben
entdeckt, dass RSS das getan hat.

Im Jahr bevor die RSS-Daten Mannipuliert [in Anspielung auf Prof. Mann, Anm.
d. Übers.] worden waren, hatte RSS begonnen, sich ernsthaft für die Länge des
Stillstands zu interessieren. Dr. Mears schrieb darüber auf seinem Blog hier.
Seine damaligen Ergebnisse sind hier zusammengefasst:

Ergebnis von 33 IPCC-Modellen (türkis) im Vergleich zur gemessenen
globalen Temperaturänderung seitens RSS (schwarz), 1979 bis 2014.

Darauf bekam Dr. Mears einen Temperatur-Wutanfall und schrieb:

„Die Leugner lieben es zu vermuten, dass die Ursache der Diskrepanz zwischen
Modellen und Beobachtungen in irgendeinem Problem mit der zugrunde liegenden
NYT lügt hinsichtlich Klima - indem die Vergangenheit verschwiegen wird - Eike
Modellphysik zu finden ist, und sie verwerfen jede andere Art der Erklärung.
Dies verleitet sie zu der – sehr wahrscheinlich falschen – Schlussfolgerung,
dass die langfristige Klima-Sensitivität viel geringer ist als gegenwärtig
gedacht“.

Dr. Mears räumte die wachsende Diskrepanz zwischen RSS-Daten und Modellen
ein, aber er unterstellte uns, dass wir den Startzeitpunkt der globalen
Temperatur-Graphik cherry-picked hätten:

„Jüngst ging aus einer Anzahl von Artikeln in der Mainstream-Presse hervor,
dass es während der letzten zwei Jahrzehnte kaum eine oder gar keine Änderung
der globalen mittleren Temperatur gegeben hat. Deswegen hat man uns viele
Fragen gestellt nach dem Motto ,Ich sah diese Graphik auf einer Leugner-
Website. Sind das wirklich Ihre Daten?‘ Während die Endpunkte in einigen
dieser Berichte cherry-picked worden sind, um den Beweis noch besser aussehen
zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der
neunziger Jahre geringer ist als die meisten IPCC AR5-Simulationen des
historischen Klimas prophezeit hatten. Damit liegt das starke ENSO-Ereignis
am Beginn ihrer Zeitreihe, was zu einer geringen linearen Anpassung mit der
geringstmöglichen Steigung führte“.

Tatsächlich wurde die durch den El Nino ausgelöste Wärmespitze 1998 fast
vollständig ausgeglichen durch zwei Faktoren: die nicht unähnliche Spitze des
El Nino 2010 und der schieren Länge des Stillstands selbst.

Graphiken von Werner Brozek und Prof. Brown der RSS- und GISS-
Temperaturen. Beide beginnen 1997 und 2000. In jedem Datensatz sind
die Trendlinien nahezu identisch. Folglich ist die Aussage, dass der
Stillstand dem El Nino 1998 geschuldet ist, falsch.
Obige Graphik demonstriert, dass die Trends der globalen Temperatur im RSS-
Datensatz vor der Manipulation und im GISS-Datensatz genau gleich waren, und
zwar vor und nach dem El Nino 1998. Dies zeigt, dass die Länge des
Stillstands ausreichend war, um den imaginären Einfluss zu nullifizieren.

Es ist nützlich, die Erwärmung seit 1990, genommen als Mittel der vier
Adjustozän-Datensätze (RSS, GISS, NCEI und HadCRUT4: erste Graphik unten) zu
vergleichen mit dem UAH-Datensatz, den Lüning und Vahrenholt als zuverlässig
einstufen (zweite Graphik unten):

Mittel der monatlichen mittleren Temperaturanomalien nach RSS, GISS,
NCEI und HadCRUT4 von Januar 1990 bis Juni 2018 (dunkelblaue
Zackenkurve) und des linearen Regressionstrends kleinster Quadrate
(hellblaue Linie) im Vergleich mit dem geringeren der beiden IPCC-
Mittelfrist-Prophezeiungen (Bereich in orange).

Anomalien der unteren Troposphäre nebst Trend von Januar 1990 bis
Juni 2018 nach UAH.

Man sieht, dass der Erwärmungstrend in den Adjustozän-Datensätzen über den
Zeitraum fast 50% größer ist als im UAH-Datensatz, welchen Lüning und
Vahrenholt zuverlässiger finden.

Nach den Adjustierungen zeigt der RSS-Datensatz seit 1990 jetzt eine stärkere
Erwärmung als jeder andere Datensatz, die sogar noch über den vielfach
manipulierten GISS-Datensatz hinausgeht:

Auf ein Jahrhundert umgerechnete globale Erwärmungstrends von Januar
1990 bis Juni 2018. Die beiden mittelfristigen IPCC-Prophezeiungen
für das Szenario ,Business as Usual‘ und unsere überarbeiteten
Prognosen nach Korrektur des Fehlers in der Definition von
Temperatur-Rückkopplung seitens der offiziellen Klimatologie (weiße
Beschriftung) im Vergleich zu beobachteten Raten (blaue
Beschriftung) aus den fünf am weitesten zurückreichenden
Datensätzen.

Man beachte, dass die RSS-Erwärmungsrate seit 1990 nahezu doppelt so hoch ist
wie bei UAH, wo man dessen globale Erwärmungsrate vor zwei oder drei Jahren
nach unten korrigiert hatte. Und doch beruhen beide Datensätze auf genau den
gleichen Satellitendaten. Die Differenz von fast 1 K pro Jahrhundert zeigt,
wie stark Temperatur-Datensätze auf subjektive Adjustierungen reagieren
anstatt objektive Messungen zu repräsentieren.

Sollen wir einmal zynisch annehmen, dass alle diese Adjustierungen – RSS,
GISS, NCEI und HadCRUT4 zum Wärmeren, UAH leicht zum Kälteren – die
politische Ausrichtung der jeweiligen Datensatz-Besitzer reflektieren? Lüning
und Vahrenholt können keine rationale Rechtfertigung finden für die große und
plötzliche Änderung des RSS-Datensatzes so bald, nachdem Ted Cruz unsere den
Stillstand zeigende RSS-Graphik für eine Anhörung vor dem Senat herangezogen
hatte. Allerdings konnten sie auch nicht feststellen, dass die UAH-Daten
fälschlich adjustiert worden waren. Sie empfehlen UAH als in Ordnung.

Die MofB [= Monckton of Brenchley]-Nachhersage basiert auf zwei Fakten: Wir
berechnen die Charney-Sensitivität auf lediglich 1,17 K pro CO2-Verdoppelung,
und außerdem ist in vielen Modellen die prognostizierte Gleichgewichts-
Erwärmung bei einer Verdoppelung der CO 2 -Konzentration die Charney-
Sensitivität in etwa gleich der flüchtigen Erwärmung aus allen anthropogenen
Quellen im 21. Jahrhundert. Dies ist daher eine provisorische Prognose, aber
sie ist konsistenter mit dem UAH-Datensatz als mit den fragwürdigen
Datensätzen des Adjustozäns.

Das Ausmaß der Manipulation in manchen Datensätzen ist enorm. Eine andere
erhellende Graphik vom nimmermüden Professor Humlum folgt hier. Er publiziert
eine große Vielfalt von Graphiken zur globalen Erwärmung in seinem öffentlich
zugänglichen monatlichen Report bei climate4you.com:

Mann-gemachte globale Erwärmung: wie GISS die offensichtliche
Erwärmung um über die Hälfte verstärkte

Das GISS, dessen Datensatz inzwischen derartig politisiert ist, dass er
vollkommen wertlos ist, sMeared die Daten über einen Zeitraum von weniger als
sieben Jahren, nämlich von März 2010 bis Dezember 2017, und zwar so
erheblich, dass die zutage tretende Erwärmungsrate über das 20. Jahrhundert
über ein halb mal so groß ist. Die größte Änderung erfolgte im März 2013, zu
einem Zeitpunkt also, an dem der lang dauernde Stillstand bereits zu einer
permanenten Peinlichkeit der offiziellen Klimatologie geworden war. Nur einen
Monat zuvor hat war jetzt in Ungnade gefallene Chef des IPCC, der Eisenbahn-
Ingenieur Pachauri, einer der ersten Sprecher der offiziellen Klimatologie,
welcher die Existenz des Stillstandes einräumte. Das tat er auf einem Vortrag
in Melbourne, worüber in der Folge nur in einer einzigen Zeitung berichtet
worden war, nämlich The Australian. Diese Zeitung steht schon lange unter
Verdacht, weil sie immer wieder beide Seiten der Klimadebatte hat zu Wort
kommen lässt.

Faszinierend ist, dass selbst nach den erheblichen Datenmanipulationen zum
Ende des Stillstandes in vier der fünf langzeitlichen Datensätze, und obwohl
der Trend in allen Datensätzen aufgrund des starken El Nino vor ein paar
Jahren ebenfalls gestiegen ist, die Original-Prophezeiungen des IPCC aus dem
Jahr 1990, welche die Angst erzeugen sollten, ungeheuer exzessiv bleiben.

Inzwischen hat jedoch das IPCC selbst erkannt, wie absurd seine Original-
Prophezeiungen waren. Im 5. Zustandsbericht 2013 wurde die Abhängigkeit von
Modellen erstmals aufgegeben und ersetzt durch etwas, das als „Experten-
Beurteilung“ ihrer überhitzten Resultate bezeichnet wird. Außerdem wurde die
mittelfristige Prognose halbiert. Damit inkonsistent hat man jedoch
sorgfältig dessen Gleichgewichts-Prophezeiung – 1,5 bis 4,5 K pro CO 2 -
Verdoppelung – beschämend unverändert gelassen.

Die unzähligen Apologeten des IPCC in den Marxstream-Medien haben eine
Parteilinie entwickelt, um das erbärmliche prognostische Scheitern der IPCC-
Prophezeiungen aus dem Jahr 1990 hinweg zu erklären. Ja sie verstiegen sich
absolut fälschlich sogar dazu zu versuchen, dass alles „noch viel, viel
schlimmer sei als wir jemals gedacht haben“.

Eine seiner allgemeinsten Entschuldigungen, vorgebracht im Büßer-Tonfall,
nämlich die monotone Darbietung und das Zombie-artige Auftreten der
unglaublich Gehirngewaschenen ist, dass dank des UN Framework Convention on
Global Government Climate Change die CO2-Reduktion so eindrucksvoll war, dass
die Emissionen jetzt deutlich unter dem Business-as-Usual-Szenario im IPCC-
Bericht 1990 liegen und viel näher dem weniger extremistischen Szenario B.

Mit Verlaub – nein! Obwohl die Aufzeichnung der CO 2 -Emissionen in das
Adjustozän hineingezogen worden ist dergestalt, dass jetzt so getan wird, als
ob – per impossibile – die globalen CO2-Emissionen während der letzten fünf
Jahre unverändert geblieben waren, zeigt der jüngste Bericht zu diesen
Emissionen diese als fast konsistent mit dem usiness-as-Usual-Szenario des
IPCC (1990).

Globale CO2-Emissionen folgen dem Business-as-Usual-Szenario A des
IPCC.

Als man mit dieser lügnerischen Ausrede gescheitert war, entwickelte die
Partei eine interessante Rückzugslinie mit der Auswirkung, dass obwohl die
Emissionen nicht dem IPCC-Szenario B folgten, die resultierenden
Strahlungsantriebe viel geringer sind als vom IPCC 1990 prophezeit. Und das
sind sie auch. Was jedoch die Parteilinie sorgfältig versteckt, ist der Grund
für diesen Umstand.

Die Partei erkannte, dass deren Schätzungen des kumulativen anthropogenen
Gesamt-Strahlungsantriebs aus allen Quellen hoch genug waren in Relation zur
beobachteten Erwärmung, dass sich eine weit geringere Gleichgewichts-
Sensitivität auf Strahlungsantriebe zeigte als ursprünglich verfügt. Dem
zufolge reflektierte der 3. Zustandsbericht ordnungsgemäß die adjustierte
Parteilinie, indem magische Windungen sowie künstliche und erhebliche
Reduktion des gesamt-anthropogenen Antriebs damit verwoben wurden. Man führte
nämlich etwas ein, was Prof. Lindzen unverblümt „den Aerosol-Frisier-Faktor“
nannte. Der Einfluss dieses schädlichen Frisier-Faktors wird im 5.
Zustandsbericht deutlich:

Fudge, mudge, kludge [etwa: frisieren, schummeln, flickschustern]:
Der Aerosol-Frisier-Faktor reduziert den menschengemachten
Strahlungseinfluss erheblich und erhöht fälschlich die Klima-
Sensitivität (IPCC 2013, Abb. SPM.5)

Die IPCC-Liste der Strahlungsantriebe im Vergleich mit der vorindustriellen
Ära zeigt einen gesamt-anthropogenen Strahlungsantrieb von 2,29 W/m² relativ
zum Jahr 1750. Allerdings wäre diese Gesamtzahl noch deutlich höher ohne die
beiden Aerosol-Frisier-Faktoren, nämlich insgesamt 0,82 W/m². Falls zwei
Drittel dieser Gesamtzahl zurück hinzugefügt werden, wie es sein sollte, weil
anthropogene Aerosole sich in nichts von natürlichen Aerosolen in den Sahara-
Winden unterscheiden, welche bis nach Schottland verfrachtet werden können,
wird der gesamt-anthropogene Faktor zu 2,85 W/m². Der Unterschied zur
offiziellen Klima-Sensitivität sieht so aus:

Wie der Aerosol-Frisier-Faktor künstlich den Systemerhaltungs-Faktor A
erhöht.

Im linken Bild ist die Referenz-Sensitivität (also die anthropogene
Temperaturänderung zwischen 1850 und 2010 vor Berücksichtigung von
Rückkopplungen) das Produkt des Planck-Parameters 0,3 K pro W/m² und der
mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen
Strahlungsantriebs in der industriellen Ära 2011: d. h. 0,68 K.

Die Gleichgewichts-Sensitivität ist etwas komplexer, weil es die offizielle
Klimatologie liebt sich vorzustellen (vermutlich ohne jede Rechtfertigung),
dass bislang noch nicht die ganze anthropogene Erwärmung wirksam geworden
ist. Daher haben wir für die Mittelfrist-Schätzung bei Smith (2015) des
Gesamt-Strahlungs-Ungleichgewichtes von 0,6 W/m² zugelassen. Dies konvertiert
die gemessene Erwärmung von 0,75 K von 1850 bis 2011 zu einer Gleichgewichts-
Erwärmung von 1,02 K.

Der Systemerhaltungs-Faktor verwendet den Delta-Wert der Systemerhaltungs-
Gleichung, welche derzeit universal bei der offiziellen Klimatologie ist. Der
Faktor ist das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, d.
h. 1,5. Da die Referenz-Sensitivität bei CO2-Verdoppelung, abgeleitet aus den
CMIP5-Modellen bei Andrews (2012) 1,04 K beträgt, beläuft sich die Charney-
Sensitivität auf 1,5 X 1,04 oder 1,55 K.

Im rechten Bild wurden etwas über zwei Drittel des Aerosol-Frisier-Faktors
von 0,82 K dem gesamt-anthropogenen Antrieb zurück hinzugefügt, worauf sich
2,85 K ergaben. Warum zurück addiert? Nun, ohne zu viele Geheimnisse zu
verraten, die offizielle Klimatologie hat angefangen zu begreifen, dass der
Aerosol-Frisier-Faktor viel, viel zu hoch ist. Er ist so unrealistisch, dass
er Zweifel weckt hinsichtlich der Glaubwürdigkeit der übrigen Tabelle mit den
Antrieben in IPCC 1990 (Abb. SPM.5). Man erwarte signifikante Änderungen im
nächsten IPCC-Zustandsbericht, welcher etwa 2020 geplant ist.

Verwendet man den korrigierten Wert des gesamt-anthropogenen Antriebs, fällt
der Systemerhaltungs-Faktor auf 1,13. Das führt zu einer Charney-Sensitivität
von 1,13 X 1,04 oder 1,17 K.

Wir wollen noch einen anderen Weg einschlagen, das zu testen, und zwar unter
Verwendung der Absolutwert-Gleichung, welche durch die fälschlich restriktive
Definition einer „Temperatur-Rückkopplung“ der offiziellen Klimatologie
ausgeschlossen wird:

Der System-Erhaltungs-Faktor 2011: (Links) ohne und (rechts) mit
Frisier-Faktor-Korrektur

Hier zeigt sich ein bedeutender Vorteil, wenn man die Systemerhaltungs-
Gleichung mit Absolutwerten anwendet, welche von der offiziellen Klimatologie
verworfen wird. Änderungen der Delta-Werte führen zu großen Änderungen des
Systemerhaltungs-Faktors, aber nur sehr geringe Änderungen, wenn er mittels
der Absolutwert-Gleichung abgeleitet wird. Tatsächlich sind die
Systemerhaltungs-Faktoren der Jahre 1850 und 2011, wenn mit der Absolutwert-
Gleichung abgeleitet, nahezu identisch mit 1,13. Dies zeigt, dass unter den
heutigen Bedingungen Nicht-Linearitäten in Rückkopplungen nur sehr geringen
Einfluss auf den Systemerhaltungs-Faktor haben.

Unter dem Strich: Kein noch so großer Wutanfall ob des Temperaturverlaufs
kann die Tatsache verändern, dass der Systemerhaltungs-Faktor und damit auch
die Gleichgewichts-Temperaturen gering sind – egal ob man die Delta-Wert-
Gleichung heranzieht (Charney-Sensitivität 1,55 K) oder die Absolutwert-
Gleichung (Charney-Sensitivität 1,17 K).
Link:
https://wattsupwiththat.com/2018/08/21/temperature-tampering-temper-tantrums/

Übersetzt von Chris Frey EIKE

NOAA erneut ertappt: Datenmani-
pulation, diesmal mit der Eliminierung
einer Rekord-Kältewelle

Dieses Mal waren die Daten betroffen, welche die jüngste Rekord-Kältewelle im
Nordosten der USA belegen. Die NOAA möchte diese Kältewelle aus der Historie
entfernen.

Falls man die NOAA-Graphiken zum Maß aller Dinge macht, gibt es nichts
besonders Ungewöhnliches hinsichtlich der Kälte dieses Winters, welche dazu
geführt hat, dass Haie im Ozean erfroren sind und Leguane von den Bäumen
fielen (hier).

Die NOAA-Graphik vom Januar 2018 für den Nordosten der USA sieht
folgendermaßen aus (das Gebiet umfasst die Neuengland-Staaten sowie die
angrenzenden Staaten NY, PA, NJ, DE und MD):
Man würde beim Betrachten dieser Graphik nie darauf kommen, dass es in diesem
Gebiet jüngst zu einer Rekorde brechenden Kältewelle gekommen war, oder?

Das liegt daran, wie Paul Homewood entdeckt hat, dass die NOAA die Daten
manipuliert hat. Wieder einmal hat die NOAA Temperaturen in der Vergangenheit
nach unten korrigiert, um sie kälter aussehen zu lassen, als sie waren,
während sie Temperaturen aus jüngster Zeit nach oben korrigiert hat, damit
sie wärmer aussehen als sie waren. Gründe? Vermutlich haben die Gründe mehr
mit Ideologie als mit Meteorologie zu tun.

Wir sprechen hier nicht über Grad-Bruchteile. Die Korrekturen addieren sich
zu atemberaubenden ca. 1,7°C! Das liegt weit jenseits aller Fehlerbandbreiten
oder einfacher Fehler und reicht tief in den Bereich Fiktion und politische
Propaganda.

Aufmerksam wurde Homewood auf diese Manipulationen, als er die Datensätze von
New York unter die Lupe nahm.

Vor allem irritierte ihn, wie die NOAA mit dem besonders kalten Winter
umgegangen war, der New York 2013/14 heimgesucht hatte, was er hier
beschreibt.

————————–

Die ganze Story von James Delingpole steht hier. Ich empfehle die Lektüre
dringend. Er kommentiert ganz am Schluss:

Das ist ein Skandal! Die Klima-Wächter der NOAA sind politische Aktivisten,
aber keinesfalls ehrliche Wissenschaftler. Der US-Steuerzahler darf deren
Propaganda nicht länger finanzieren!

Legt den Sumpf endlich trocken!

Politik und Medien bei uns machen ja auch begeistert mit. Kann man da
wirklich nichts machen außer immer wieder auf derartige Praktiken
hinzuweisen? – Chris Frey, Übersetzer

Link:
https://wattsupwiththat.com/2018/02/20/noaa-caught-cooking-the-books-again-th
is-time-by-erasing-a-record-cold-snap/

Übersetzt von Chris Frey EIKE

Schummel, Schummel! Wie sie daran
scheiterten, die Kluft zwischen prophe-
zeiter und gemessener Erwärmung zu
verschleiern

Abbildung 1: Die Regression kleinster Quadrate über die monatlichen globalen
Anomalien während des gesamten Satelliten-Zeitraumes zeigt von Dezember 1978
bis Dezember 2017 eine Erwärmung mit einer Rate äquivalent zu lediglich
1,28°C pro Jahrhundert.

Nimmt die Rate der globalen Erwärmung unaufhaltsam zu? Die Antwort lautet
Nein, wie aus Abbildung 2 hervorgeht:

Abbildung 2: Der Trend kleinster Quadrate im UAH-Datensatz zeigt von
Februar 1997 bis Dezember 2017 Erwärmung mit einer Rate äquivalent zu
0,85°C pro Jahrhundert.

Die Erwärmungsrate der 251 Monate mit Daten über die Hälfte des gesamten UAH-
Datensatzes ist nicht höher als die Rate über den gesamten Zeitraum von 469
Monaten. Sie liegt ein Drittel niedriger, von 1,28 auf 0,85°C pro
Jahrhundert. Ich habe den Startzeitpunkt für Abbildung 2 gewählt, weil er den
Beginn der längsten Periode des Großen Stillstands markiert, welche dem RSS-
Satelliten-Datensatz zufolge spektakuläre 18 Jahre und 9 Monate dauert, von
Februar 1997 bis Oktober 2015, wie Abbildung 3 zeigt:

Abbildung 3: Der Trend kleinster Quadrate im RSS-Satelliten-Datensatz
zeigt keinerlei globale Erwärmung von Februar 1997 bis Oktober 2015, also
18 Jahre und 9 Monate lang. Das ist die längste Periode des Stillstands,
obwohl ein Drittel aller anthropogenen Antriebe in diesen Zeitraum fällt.

Ein wenig Historie. Im Zuge seiner Vorbereitung auf eine Debatte im Senat
Ende 2015 ist Senator Ted Cruz an das Heartland Institute herangetreten und
hat um eine einzelne Graphik gebeten, welche am Besten den klimaskeptischen
Standpunkt belegt. Man wählte Abbildung 3, und Senator Cruz zeigte sie im
Senat, zum sichtlichen Unbehagen der Demokraten. Bob Carter schrieb mir kurz
vor seinem viel zu frühen Tod, wie erfreut er war von unserer Linie zu hören,
dass ein Drittel des gesamten Einflusses des Menschen auf das Klima seit 1750
während des Stillstands aufgetreten war, jedoch ohne auch nur die geringste
Erwärmung auszulösen.

In meinem Bericht über den Stillstand im November 2017 bei WUWT prophezeite
ich, dass der RSS-Datensatz rasch manipuliert werden würde, um den Stillstand
daraus zu entfernen. Nur wenige Wochen später verkündete der Betreiber jenes
Datensatzes, Dr. Carl Mears, welcher dazu neigt, Skeptiker als „Leugner“ zu
diffamieren, dass es tatsächlich eine Revision geben würde. Als diese dann
erschien, war der Stillstand daraus verschwunden.

Interessant dabei ist, dass dieser Vorgang, d. h. die Veränderung von Daten
ex post facto, um sie an die Parteilinie anzupassen, immer noch weitergeht.
Aus dem Datensatz, so wie er vor ein paar Monaten gezeigt worden ist, war der
empörende Null-Trend während des 18 Jahre und 9 Monate langen Stillstands
daraus verschwunden und ersetzt worden durch einen Trend äquivalent zu 0,77°C
pro Jahrhundert (Abbildung 4).

Allerdings reichte diese Temperatur-Manipulation* nicht aus. Der RSS-
Datensatz, so wie er heute gezeigt wird, zeigt eine Erwärmungsrate äquivalent
zu 0,83°C pro Jahrhundert über genau den gleichen Zeitraum (Abbildung 5).

[*Monckton verwendet hier eines seiner unübersetzbaren und auch
unnachahmlichen Wortspiele. Er schreibt tamparature change, zusammengesetzt
aus tamper und temperature. Anm. d. Übers.]

Abbildung 4: Der Trend kleinster Quadrate im RSS-Datensatz über die 18
Jahre und 9 Monate des Stillstands auf der Grundlage der Mitte 2017
gezeigten Daten.

Abbildung 5: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre
und 9 Monate des Stillstands, diesmal mit den Daten, wie sie heute gezeigt
werden.

Man vergleiche die Abbildungen 4 und 5 mit Abbildung 6, den derzeitigen UAH-
Daten über die 18 Jahre und 9 Monate des Stillstands. Sie zeigen eine
statistisch nicht signifikante Erwärmung äquivalent zu 0,05°C pro Jahrhundert
über den Stillstands-Zeitraum.

Zu der Zeit des Stillstands zeigten die UAH-Daten eine höhere Erwärmungsrate
als RSS. Seitdem sind die UAH-Daten überarbeitet worden mit dem Effekt der
Reduktion der zuvor erkennbaren geringen Erwärmungsrate während der
Stillstands-Periode, während die RSS-Daten weiterhin und immer noch
dergestalt überarbeitet werden, dass die offensichtliche Erwärmungsrate über
den gleichen Zeitraum immer stärker in Erscheinung tritt.

Aus all diesen Daten geht klar hervor, dass die Rate der globalen Erwärmung
sehr erheblich unter dem liegt, was ursprünglich prophezeit worden war. In
einem weiteren Beitrag werde ich für jedermann verständlich zeigen, wie groß
die Diskrepanz ist zwischen nervös machender Prophezeiung und belangloser
Beobachtung, und wie falsch die vielfachen künstlichen Behauptungen in
gewissen begutachteten Studien waren, die belegen sollten, wie recht das IPCC
mit seinen ursprünglichen Prophezeiungen hatte, und wie falsch jene
Prophezeiungen wirklich waren.

Und schließlich werde ich zu gegebener Zeit genau zeigen, welcher Fehler in
dem Modellen zu diesen außerordentlichen Über-Prophezeiungen geführt haben,
und wie gering die angemessen prophezeite Erwärmungsrate ist, nachdem dieser
verhängnisvolle Fehler korrigiert ist.

Abbildung 6: Der Trend kleinster Quadrate des gegenwärtigen UAH-Datensatzes
stimmt überein mit dem Original-RSS-Datensatz und zeigt während der 18
Jahre und 9 Monate von Februar 1997 bis Oktober 2015 eine globale Erwärmung
mit einer Rate, die nicht unterscheidbar ist von Null.

Link:
https://wattsupwiththat.com/2018/01/03/tamper-tamper-how-they-failed-to-hide-
the-gulf-between-predicted-and-observed-warming/

Übersetzt von Chris Frey EIKE
Eine Merkwürdigkeit bei den Adjustie-
rungen von Bojen-Daten von Karl et al.
2015

Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm-
Änderungen in den ERSSTv4-Daten erforderlich macht.

Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses
Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%.

Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm-
adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte?

Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber
davon habe ich nichts gesehen.

Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel:

https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record
/

Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen.
Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen
habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der
Anteil 2015 über 70% gelegen hat.

Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50%
gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren
Temperatur-Adjustierungen.

Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung
von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm-
Adjustierung infolge der Bojen.
Link:
https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy-
data-adjustments/

Übersetzt von Chris Frey EIKE

Mehr zum einschlägigen Artikel von
David Rose: Instabilität im Global
Historical Climate Network GHCN

Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus
gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die
David Rose in seinem Artikel ans Tageslicht gebracht hat.

Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den
Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel
angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen-
Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der
Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht.

Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die
Differenz:
Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von
HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode
1961 bis 1990. h/t The CarbonBrief

Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten.

Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig
„unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben
von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der
Mitautoren der „Pausebuster“-Studie von Karl et al. 2015.

Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten
ernstlich dubios.

Paul Matthews schreibt auf der Website CliScep:

Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im
Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands-
Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war,
welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man:
„Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese
machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der
Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse
herauskamen“.
Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des
Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt.
Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang
hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier.
Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die
Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck
kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien
betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich
die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb
nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul
Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese
Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der
Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich
die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und
es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer
wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der
Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen
der Vergangenheit waren jedes Mal ziemlich unterschiedlich.

Hier folgt eine von mir zu jener    Zeit erstellte Graphik mit Daten, die von
der GHCN ftp site heruntergeladen   werden können. (die nicht adjustierten bzw.
adjustierten      Files    sind      ghcnm.tavg.latest.qcu.tar.gz         bzw.
ghcnm.tavg.latest.qca.tar.gz).      Sie illustrieren die Instabilität des
Adjustierungs-Algorithmus‘:

Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice
Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012
vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich
gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen
des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In
diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt
worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der
Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen,
die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten
Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart
beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender
Vergangenheit illustriert die Instabilität.

Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January
1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität
des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von
Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge
zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im
Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des
GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum
Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge.

Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich
möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN-
Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch
bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier
gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies.
Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen
Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten
danach als Input verwendet werden für weithin gebräuchliche Datensätze wie
etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere
Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich,
dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten
Probleme bei ihren Verfahren nicht bewusst sind.

Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten
vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für
Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die
Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr
ähnliche Graphik.
Der         ganze         Beitrag          dazu         steht          hier:
https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/

Link:
https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-artic
le-instability-in-the-global-historical-climate-network/

Übersetzt von Chris Frey EIKE

100% der Erwärmung in den USA gehen
auf Datenmanipulationen der NOAA
zurück

Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder
die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen
bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“.
Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den
Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad
Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey

Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung,
welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr
2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die
Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien:

In den USA war es dieses Jahr überwältigend heiß.
Quelle: Climate Central

Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre
2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter
dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller
Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum
vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde
Temperaturen mit heißen Temperaturen auf.

Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C]
gestiegen seien
Klima auf einen Blick. Quelle: National Centers for Environmental Information
(NCEI)

Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake
data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten.
Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung.

Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel
behauptete Erwärmung.
Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA
[die Abkürzung steht für National Oceanic and Atmospheric Administration.
Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der
globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM
(Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von
Beweisen].

Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast
ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende
Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten
ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich
auch leicht feststellen, hat man doch fabrizierte Temperaturen in der
Datenbasis mit einem „E“ gekennzeichnet.

Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte
die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen
vom Tisch:

1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale
Daten [un-gridded data].

2. Man „musste“ die Daten adjustieren, um einem Bias wegen des
Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen.

Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den
Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der
Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen
Daten.
Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales
Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass
falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu
einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei
Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen
dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am
Nachmittag eingestellt wurden.

Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten,
die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten.
Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im
vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel
Erwärmung zu zeigen wegen TOBS am Morgen.

Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist
(0,3°F) und nach 1990 flach verläuft.

https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg
.gif

Gavin Schmidt von der NASA erklärt sehr eindeutig,           warum   die   US-
Temperaturaufzeichnungen nicht adjustiert werden müssen:

Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im
Grunde die gleichen Antworten.

Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz-
Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach
potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben
bisher keine solchen Dinge gefunden.

Ausführlicher:

  NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature
                                   Record

Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:
US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com

Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den
USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr
mildes Jahr.

Link:
http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-t
ampering/

Übersetzt von Chris Frey EIKE

Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie
lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum
Original.
Sie können auch lesen