Wie funktioniert heutzutage Wettervorhersage?
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
Herbstschule "System Erde" - Potsdam, September 2002 DMG und GFZ Dipl.-Meteorologe Konrad Balzer e-mail: konradbalzer@gmx.net Wie funktioniert heutzutage Wettervorhersage? Eine kritische und vergleichende Bestandsaufnahme 1. Grundlagen der Wettervorhersage Rückblick Vor 126 Jahren, am 16. Februar 1876, erschien an der Deutschen Seewarte in Hamburg die erste deutsche Wetterkarte. Das gesamte mittels Wettertelegraphie übermittelte Depeschenmaterial bestand 3mal täglich aus Beobachtungen von Luftdruck, Wind, Bewölkung, Temperatur und Niederschlag von ursprünglich 36 Inlands- und ebensoviel Auslandsstationen. 10 Jahre später waren es 100 Depeschen zwischen Westirland und Archangelsk/Charkow und von Bodö im arktischen Norwegen bis zur Südspitze Italiens -keinerlei 'real-time-Informationen' vom Brocken, den Azoren, Island oder gar vom Atlantik und Amerika! Die wenig detaillierten und vergleichsweise informationsarmen Vorhersagen erreichten den Kunden nicht selten als 'Nachsagen', jedoch wurde die wichtigste Klientel in den Häfen und an verschiedenen Küstenpunkten Deutschlands mit Sturmwarnungen, so schnell es nur irgend möglich war, versorgt. Ansonsten wurde die verehrte Kundschaft vertraut gemacht mit "Anleitungen zur (eigenen) Aufstellung von Wetterprognosen auf Grund der Wetterkarten" - eine Idee übrigens, die noch in den 1930er Jahren von renommierten Meteorologen für den Fall extrem schwieriger und 'aussichtsloser' Wettersituationen verfolgt wurde ... Erst 36 Jahre sind vergangen, seit im Oktober 1966 in Deutschland, im Deutschen Wetterdienst, mit der täglichen Berechnung von Wetterkarten begonnen werden konnte. Anfangs bestand das mit mathematisch- physikalischen Modellen per Computer simulierte 'Wetter' nur aus Druckfeldern und Isobaren, Hochs und Tiefs, Höhenrücken und -trögen - kein Schneefall, Bodenfrost oder SW-Sturm, nicht einmal Warm- oder Kaltfronten. 1
Aber die Druckfelder, die eine Wetterlage charakterisieren, wurden von dem Duo "Modell+Computer" sehr bald genauer und detaillierter vorhergesagt als durch die herkömmliche Kombination aus "Meteorologe+Erfahrung". Infolgedessen konnte sich der Vorhersagemeteorologe ("Synoptiker") in der 2. Hälfte der 60er Jahre ganz auf die (subjektive) Interpretation der Vorhersagekarten, also die Transformation der großräumigen Wetterlage in lokales Wetter konzentrieren. Jedoch, im Laufe der Zeit bemerkte man, dass zwischen dem Fortschritt der 'numerischen Vorhersage' von Druckfeldern einerseits und dem ihrer Transformation in tatsächliches, örtliches Wetter andererseits eine immer größer werdende 'Schere' entstand. Daher begann man in den U.S.A., Schweden und (Ost-)Deutschland damit, auch diese Interpretationsarbeit zu objektivieren, d.h. mittels statistisch gewonnener Algorithmen die Vorhersage realen Wetters letztendlich zu automatisieren. Das stieß, wie man sich vorstellen kann, nicht überall und bei jedem Vorhersagemeteorologen auf ungeteilte Gegenliebe, obwohl auch immer wieder der gegenteilige Ruf nach mehr und besserer Unterstützung durch 'den Computer' zu vernehmen war, vor allem dann, wenn es um die Routinevorhersage neuer meteorologischer Elemente und Ereignisse ging, wie z.B. Verdunstung, Globalstrahlung, Windböen, Starkniederschlag und alle Aussagen in Wahrscheinlichkeitsform, wie z.B. Wahrscheinlichkeit (=Risiko) von Nebel, Gewitter, Frost, Neuschnee > 5 cm Höhe u.s.w. Nicht zuletzt die anhaltenden Bemühungen und Ergebnisse einer systematischen, vergleichenden Prognosenprüfung (Verifikation) ließen es vernünftig erscheinen, "Mensch" und "Maschine" nicht gegeneinander auszuspielen, sondern sie zusammenzuführen. Dieser Ansatz einer 'Mensch-Maschine-Kombination' erwies sich -übrigens nicht nur in der Meteorologie! – lange Zeit als sehr fruchtbar, da in der Regel das gemeinsame Vorhersage-Produkt besser war als seine Einzelteile. Parallel zur statistischen Interpretation von Vorhersagekarten, die konkurrenzlos und immer genauer von thermo-hydrodynamischen Vorhersagemodellen erzeugt wurden, gelang es zunehmend auch in direkter Weise, aus dem dynamischen Modell (direct model output = DMO) heraus, reales Wetter vorherzusagen. Es begann mit dem Niederschlag; Lufttemperatur, Wind und Bedeckungsgrad mit Wolken in verschiedenen Höhenniveaus folgten. 2
Ausblick Durch den jahrzehntelangen, internationalen Einsatz milliardenschwerer Investitionen in Wissenschaft und Technik - in der Meteorologie hieß und heißt das vor allem: • mehr Beobachtungsdaten rund um die Welt und rund um die Uhr • bessere Modelle und • schnellere Computer (s. folgende Abbildung) hat nunmehr die Numerische (automatische) Wettervorhersage in ihrer Einheit von Diagnose - Prognose – statistischer Interpretation einen Stand erreicht, der es selbst dem erfahrenen Meteorologen immer schwerer macht, die Qualität der automatischen Wettervorhersagen noch weiter zu 'veredeln', und längst gilt dieser Fazit nicht nur für die Bereiche der mittelfristigen Wettervorhersage (3 bis 10 Tage im voraus). Meteorologische Computerpower 12 FLOPS (Zehnerpotenzen) 9 6 3 0 1940 1950 1960 1970 1980 1990 2000 2010 3= kilo, 6= Mega (Million), 9= Giga (Milliarde), 12= Tera (Billion), 15= Peta (Billiarde) log(FLOPS) = 0.1863 JAHR – 361 r=0.99 Ł Verzehnfachung der Rechnerleistung alle 5 Jahre Grundlage obiger Abbildung bilden die wichtigsten Computer der staatlichen Wetterdienste, die eine numerische Wettervorhersage-Routine betreiben. Der Punkt rechts oben 'gehört' dem Deutschen Wetterdienst (DWD). 3
Im Ergebnis der rasanten Entwicklung von Wissenschaft und Technik trat etwa zum Jahrhundertwechsel ein dramatischer Wandel in der Art und Weise ein, wie und mit welchen Mitteln eine bestmögliche Wettervorhersage erzeugt und dem interessierten Kunden angeboten werden kann. Überblick Übrigens unterteilt die Meteorologie die 'Zukunft' in verschiedene Abschnitte: • Kürzestfristvorhersage, 0 - 12 Stunden im voraus (darin eingebettet der 'Nowcasting'-Bereich bis +2 Std.) • Kurzfristvorhersage, +12 ... +72 Stunden • Mittelfristvorhersage, +72 Stunden ... +10 Tage • Langfristvorhersagen, mehr als +10 Tage im voraus, von Jahreszeitenvorhersagen ist die Rede bei Vorhersagezeiträume von mindestens 3 Monaten. • Von Klimavorhersage spricht man bei Projektionen von Jahrzehnten (und länger). Das folgende Schema versucht, das komplizierte Mit- und Nacheinander von Mensch und Maschine, Beobachtung und Modell, Diagnose und Vorhersage darzustellen, dessen erklärtes Ziel letztlich darin besteht, immer genauere, räumlich und zeitlich detailliertere Vorhersagen für die Öffentlichkeit und die Wirtschaft zu erzeugen, und zwar rechtzeitig und möglichst weit in die Zukunft. Diese Grafik gibt einen Eindruck von dem weltumspannenden System des World Weather Watch (WWW) der meteorologischen Weltorganisation WMO: Zahl der Beobachtungen die dem Europäischen Zentrum für mittelfristige Wettervorhersagen (EZMW) am 1.Mai 1993 für seine globale Wetteranalyse zur Verfügung standen. 4
Geophysikalische Umwelt zu Lande, Luft und Wasser ↓ ↓ ↓ ↓ Globale Messdaten und Beobachtungen Innerhalb eines 6Stundenzeitraums fallen an: 4000 - 5000 SYNOPs (automatische/bemannte Boden- Wetterstationen) 600 - 700 SHIPs (Wettermeldungen vom Schiff aus) 800 Driftbojen (unbemannte, in den Weltmeeren driftende Mini-Plattformen, die Luft-/Wassertemperatur und Luftdruck messen) 42000 Bodenwindangaben von den Weltmeeren, von Satelliten aus Seegangsmessungen geschätzt (Scatterometer-Winde) 600 - 700 Radiosonden-Aufstiege (Wind, Temperatur und Feuchteprofile aus der Troposphäre und (unteren) Stratosphäre) 3000 - 4000 automatische oder manuell übermittelte Wind- und Temperaturangaben von Flugzeugen aus (AIREPs und AMDARs) 10000 - vom Wettersatelliten aus bestimmte vertikale 11000 Temperaturprofile (SATEMs) 1000 - 2000 satelliten-gestützte Winddaten, geschätzt aus dem Wolkenzug in verschiedenen Höhen (SATOBs) Quelle: Ewen Mc Callum, Meteorologischer Dienst, Bracknell, U.K. (1996) ↓ Daten sammeln und bearbeiten ↓ Analyse und Assimilation ↓ Mathematisch-physikalische Modelle der numerischen Wettervorhersage ↓ ↓ DMO Statistische Interpretation, direkte Modell-Produkte 5
↓ statistische Nachbearbeitung z.B. mittels KALMAN- Filter ↓ Subjektive → Interpretation ← durch den Meteorologen vom Dienst ↓ → Wettervorhersagen ← für Nutzer 2. Zur Verifikation von Wettervorhersagen Natur Daten Wissen Verifikation Gesellschaft Aussagen Modelle Verifikation, also die Überprüfung prognostischer Aussagen an der Realität der Beobachtungs- und Messdaten, stellt einen wichtigen Feedback- Mechanismus zur Höherentwicklung des Systems "Meteorologie" dar. Außerdem erlaubt sie die Beantwortung einer Reihe praktisch wichtiger Fragen, wie zum Beispiel: 6
Wie gut sind heutzutage Wettervorhersagen? Eine einfache und notwendige Frage - aber sie ist nicht ganz leicht zu beantworten. Das liegt nicht etwa daran, dass der Wetterdienst – egal ob staatlich oder privat betrieben - hinsichtlich der Qualität seiner Wettervorhersage-Angebote in "Beweisnot" käme, sondern an der Notwendigkeit, dass wir uns verständigen müssen, was wir unter "gut" verstehen wollen. Abb.1 Fehlerhäufigkeiten (=Differenz "beobachtet" – "vorhergesagt") bei der Vorher-sage der morgigen höchsten Lufttemperatur für 14 Orte in Deutschland, Jahr 2000 empirisch theoretisch 1400 1200 absolute Häufigkeiten 1000 800 600 400 200 0 -9 -6 -3 0 3 6 9 Prognosefehler EIN-VOR (K) Die Säulen stellen die bei der Verifikation ermittelten (absoluten) Häufigkeiten aller 4985 Einzelfehler dar. Sie können ziemlich befriedigend durch die Gauß'sche Normalverteilung angenähert werden, die alle vom ehemaligen 10- DM-Schein kennen: Zwei Parameter bestimmen sie eindeutig: der Erwartungswert des Fehlers (ideal=0) und seine Streuung um diesen Mittelwert, die hier 1.85K beträgt – je kleiner, um so besser, und umgekehrt! Im folgenden verwenden wir das geeignetere Fehlermaß rmse. Es gilt: rmse=0 nur bei einer perfekten , d.h. völlig fehlerfreien Vorhersage. 7
Ein Maß für die Vorhersageleistung Mag sein, dass ein rmse-Wert von, sagen wir, 4 K, mit dem heutzutage erst am 8. Folgetag zu rechnen ist, für den einen oder anderen Nutzer zu groß ist. Natürlich wäre uns allen ein sehr viel kleineres rmse und damit eine sehr viel genauere Vorhersage lieber. Andererseits ist es völlig illusorisch, jemals zu erwarten, dass Vorhersagen für den 8. Folgetag so genau sein könnten wie für den 4. oder 2., dass also die Länge des Vorhersagezeitraumes keinen Einfluss auf die Vorhersagegenauigkeit hätte. Wir können uns dies gut am Beispiel einer Schützenscheibe verdeutlichen: Je geringer die Distanz, von wo aus gezielt und geschossen wird, um so genauer wird ins Schwarze getroffen - und umgekehrt! Trotzdem, es bleibt die Frage, bei welchen Prüfmaßen - egal, ob rmse oder Treffer -eine Vorhersage nicht mehr lohnt, ihren Sinn verliert. Offenbar doch dann, wenn andere Informationen, die mit der eigentlichen Wettervorhersage nichts zu tun haben, bessere Ergebnisse erzielen. Welche könnten das sein? Unser Wetter kann zwar rasch wechseln, aber keine beliebig großen Sprünge machen, d.h. es neigt dazu, sich von Tag zu Tag nur innerhalb gewisser Schranken zu ändern; wir Meteorologen sprechen von einer Erhaltungsneigung des Wetters. Ebenso bemerken wir mehr oder weniger große Abweichungen vom normalerweise zu erwartende Wetter: aber auch diese Abweichungen vom sogenannten Klima-Normalwert können nicht beliebig groß sein. Mit anderen Worten: Erhaltungsneigung und lokales Klima besitzen eine gewisse Information auch über das morgige Wetter oder das in 3 Tagen usw.. Mithin ergibt sich ein sehr anschauliches und objektives Maß der Vorhersagegüte, indem wir die 'echte' Vorhersage mit der kostenlosen 'Persistenzvorhersage' ("Morgen so wie heute") oder der (im Prinzip ebenfalls bekannten) 'Klimavorhersage' ("Das Wetter entspricht genau den vieljährigen Durchschnittswerten") vergleichen, etwa so: 1 - (rmse/rmseref)² 'ref' ist die jeweils genauere der beiden Referenzvorhersagen. Die so berechnete Güte nennen wir RV (Reduktion der Fehlervarianz). RV ist sehr leicht zu interpretieren: RV = 1 oder 100% nur bei völlig fehlerfreier, idealer Vorhersage RV < 0, wenn die echte Vorhersage ungenauer ist als die (kostenlose) Referenzstrategie. Beispiel: Fehlervergleich von 5 verschiedenen Strategien zur Vorhersage der täglichen Maximumtemperatur, Jahr 2001, 6 deutsche Orte 8
6,5 6 Persistenz 5,5 5 Fehler rmse [K] 4,5 Klima 4 3,5 3 2,5 Endvorhersage 2 1,5 0 1 2 3 4 Tage im 5voraus 6 7 8 9 10 Kurven in pink, rot: 2 verschiedene vollautomatische Mittelfristvorhersagen Diese Abbildung ist - das zeigen Vergleiche mit anderen Wetterelementen – so typisch, dass wir folgendes allgemeine Fazit ziehen können: • Im Mittelfristzeitraum sind Klimavorhersagen genauer, (d.h. rmse kleiner) als Persistenzvorhersagen, was übrigens nichts anderes bedeutet, als dass unser Wetter zwar eine gewisse Erhaltungsneigung besitzt, aber nach 2 bis 3 Tagen drängt es stärker zum Normalwert als zur Beibehaltung des jetzigen Zustands. • Zur Gütebeurteilung RV von Mittelfristvorhersagen muss deshalb der Vergleich mit der Klimastrategie gezogen werden. • rmse nimmt zu und RV nimmt ab bei größer werdender Zeitdistanz mit ziemlich einfacher Gesetzmäßigkeit, so dass wir den wichtigen Zeitpunkt t bestimmen können, wo die gegenwärtige, praktische Grenze der Vorhersagbarkeit mit rmse = rmseKlima bzw. RV = 0 liegt, hier zwischen 8. und 9. Folgetag . 9
3. Ergebnisse • Eine echte Leistung in der Vorhersage wichtiger Wetterelemente ist heutzutage in der Regel 1 Woche im voraus nachweisbar - und das unter schärfsten Prüfbedingungen, nämlich ortsbezogen und bei tageweiser Detaillierung. Mit anderen Worten: Die Fehler verringern sich, wenn statt eines Ortes ein Gebiet und statt Einzeltag die Summe oder der Durchschnitt mehrerer Tage (für den Kunden) relevant ist. • Durch (lineare) Ausgleichung und Extrapolation lässt sich der Zeitpunkt t bestimmen, bis zu dem Vorhersagen Sinn machen, d.h. genauer sind als (kostenlose) Alternativen (siehe folgende Abbildung). • Prognosefehler wachsen monoton mit zunehmender Vorhersagedistanz. Leider wird aber daraus nicht immer die richtige Konsequenz gezogen. Wenn zum Beispiel jemand wissen will, welches Wetter in 4 Tagen zu erwarten ist, dann sollte er nicht auf eine 7tägige Prognose, die vor 3 Tagen ausgesprochen wurde, zurückgreifen, sondern sich an der heutigen Prognose für den 4. Folgetag orientieren. Nur so lässt sich das Fehlerrisiko minimieren. Mit anderen Worten: So, wie eine Kurzfristvorhersage (z.B. für das morgige Wetter) auch mehrmals am Tage auf den neuesten Erkenntnisstand gebracht wird, so erfordert eine Mittelfristvorhersage (mindestens) eine tägliche Aktualisierung auch um den Preis einer 'subjektiven Verunsicherung', die dann sichtbar wird, wenn die Prognose für einen festen Zieltag mit kürzer werdender Distanz nicht immer dieselbe bleiben kann, sondern - scheinbar willkürlich - in gewissen Grenzen schwankt. Diese Differenzen sind unvermeidlich, spiegeln sie doch überwiegend die objektiven Schwierigkeiten jeder Prognose wider. Und ihnen kann auch der beste Meteorologe nicht dadurch entgehen, dass er 'mutig' an seiner gestern oder vorgestern ausgegebenen Vorhersage festhält, um den Kunden nicht 'unnötig' zu irritieren. In Wahrheit verhindert dieser 'Mut', dass der Kunde stets das Beste zu seiner heutigen(!) Entscheidungsfindung erhält. Wenn er nicht heute entscheiden muss, kann er ohnehin warten ... 10
Wie weit im voraus lässt sich heute vorhersagen? Zeitspanne der Vorhersagbarkeit DWD 2001 dd RR j/n PET fx>12 j/n MAX MIN SD NW0 ff 0 2 4 6 8 10 12 Tage im voraus (effektiv) dd, ff = Bodenwindrichtung und –geschwindigkeit MIN, MAX = tägliches Temperaturminimum, -maximum SD = tägliche Sonnenscheindauer, NW0 = Niederschlagswahrscheinlichkeit RR j/n = einfache, alternative Aussage: Niederschlag ja/nein fx>12 j/n = maximale Windspitze > 12 m/s ja/nein Es mag verwundern, dass die Vorhersagbarkeit der Windgeschwindigkeit so gering ausfällt, wo doch die Transformation des vergleichsweise gut vorherzusagenden Druckfeldes in eine Bodenwindgeschwindigkeit eher zu den leichtesten Übungen der Wettervorhersage gehört. Auch nicht, wie man denken könnte, die besondere Schwierigkeit, eine meteorologische Größe genau für einen Zeitpunkt vorherzusagen (hier: 12 UTC), ist schuld daran, sondern die geringe klimatologische Variabilität der täglichen Einzelwerte um den monatlichen Mittel- oder Erwartungswert. 11
Kürzestfristige Wettervorhersagen für Flughäfen Sie gehören zu den schwierigsten Herausforderungen der Wettervorhersage, auch wenn es in der Regel nur um Stunden und nicht um Tage geht; aber gefragt sind 'präzise' Punktvorhersagen z.B. für Berlin-Tegel – und nicht für das Land Brandenburg. Außerdem entscheiden, auch in Zeiten hervorragender AUTOPILOTEN, vor allem zwei schwierig vorherzusagende Wetterelemente über Start und Landung ... oder Schließen des Airports : die horizontale Sichtweite und die Höhe der flugentscheidenden Wolkenuntergrenze (Ceiling). Dabei spielt das Unter- bzw. Überschreiten bestimmter, international klar definierter Schwellenwerte die entscheidende Rolle. Sicht Prognosengüte HSS1 im Ceiling Winterhalbjahr 2000/01 für 17 deutsche Flughäfen in Abhängigkeit gefrierender Niederschlag vom Vorhersagezeitraum (Abszisse) Windböen und von vier verschiedenen meteorologischen Elementen. 70 Bei vorsichtiger Extrapolation der 60 erhaltenen Verifikationsergebnisse darf man das gegenwärtige Ende 50 der praktischen Vorhersagbarkeit Gütemaß HSS (%) dieser Größen bei 13 bis 18 40 Stunden im voraus vermuten, lediglich die Windböen, genauer: das Unter- oder Überschreiten der 30 stündlichen(!) Windspitzen von 12 bzw. 20 m/s, scheinen über 24 20 Stunden hinaus vorhersehbar zu sein. 10 0 1 4,5 8 Stunden im voraus 1 HSS = 0: keine Prognoseleistung, HSS = 100: perfekte Prognose 12
Zum Jahresgang von Vorhersagefehler und -güte Ein anderes interessantes Ergebnis der Verifikation meteorologischer Vorhersagen ist die Tatsache, dass die Vorhersagegenauigkeit, selbst im Durchschnitt, d.h. bei Ausgleich unterschiedlicher täglicher Wetterlagen, nicht immer dieselbe ist, sondern im Verlauf eines Kalenderjahres klar erkennbare Höhen und Tiefen aufweist. 2,1 DWD, SYN(14) 2,0 1/98 - 12/00 1,9 Vorhersagefehler rmse [K] 1,8 MAX 1,7 1,6 1,5 MIN 1,4 1,3 J F M A M J J A S O N D J Jahresgang des Fehlers rmse bei der kurzfristigen Vorhersage der morgigen Tiefst- und Höchsttemperatur (MIN, MAX). 14 bis 17 deutsche Orte, 1/98 – 12/00 = 3 Jahre Besonders prägnant fallen die besonderen Vorhersageprobleme von MAX im Frühjahr und von MIN im Hochwinter ins Auge. 13
66 Jahresgang der Güte RV 64 (im Vergleich mit der Erhaltungsneigung) kurzfristiger Vorhersagen mittl. RV(%) relativ Persistenz 62 der Temperatur, der 1997 - 2000 Wolkenbedeckung, des 60 Niederschlags und des Windes für 17 bis 14 Orte und 2 verschiedenen 58 Zeiträumen. Zunächst ist unschwer ein 56 Leistungsfortschritt für jeden Monat festzustellen. 54 1994 - 1996 52 50 1 2 3 4 5 6 7 8 9 10 11 12 1 Diese Abbildung zeigt aber außerdem, dass es in der Tat im Laufe eines Jahres ziemlich klare Zeitabschnitte gibt, wo bestimmte, vorherrschende Wetterlagen oder der 'schwierige' Übergang von der Winter- in die Sommerzirkulation (sogar kurzfristige!) Prognoseprobleme bereitet. Trends der Vorhersagequalität Der Deutsche Wetterdienst (DWD) verfügt über Qualitätskontrollen seiner Vorhersagen, die - je nach Wetterelement und Ort - 15 bis 30 Jahre zurückreichen. Da beim größten Teil dieser Ergebnisse die Verifikationsmethode nicht geändert wurde, ist er in der glücklichen Lage, verlässliche Aussagen über den Trend der Vorhersagequalität zu treffen. 14
Kurzfristvorhersage Die folgenden Abbildungen zeigen den Trend des Vorhersagefehlers rmse für 5 verschiedene Wetterelemente seit April 1984: dicke Kurve = Vorhersagemeteorologe (15UTC), dünne Kurve = automatische Vorhersage, die dem Meteorologen ca. 8 Stunden früher vorliegt. Jeder Kurvenpunkt repräsentiert ein übergreifendes 3-Quartalsmittel! 3,1 MIN 2,8 2,5 rmse (K) 2,2 1,9 1,6 1,3 I84 I85 I86 I87 I88 I89 I90 I91 I92 I93 I94 I95 I96 I97 I98 I99 I00 I01 2,8 MAX 2,5 rmse (K) 2,2 1,9 1,6 I84 I87 I90 I93 I96 I99 I02 IV84 II86 IV97 II89 IV90 II92 IV93 II95 IV96 II98 IV99 II01 III85 III88 III91 III94 III97 III00 15
3,1 Termintemperatur 2,8 2,5 rmse (K) 2,2 1,9 1,6 1,3 I84 I85 I86 I87 I88 I89 I90 I91 I92 I93 I94 I95 I96 I97 I98 I99 I00 I01 42 40 38 Bedeckung 36 rmse (%) 34 32 30 28 26 24 22 I84 I85 I86 I87 I88 I89 I90 I91 I92 I93 I94 I95 I96 I97 I98 I99 I00 I01 16
2,4 Windgeschwindigkeit 2,2 2,0 rmse (m/s) 1,8 1,6 1,4 I84 IV84 I87 IV87 I90 IV90 I93 IV93 I96 IV96 I99 IV99 III85 II86 III88 II89 III91 II92 III94 II95 III97 II98 III00 II01 Der Fehler rmse bei der DWD-Vorhersage täglicher Tiefst- und Höchsttemperaturen, Termintemperaturen, –Bedeckungsgrade mit Wolken und -Windgeschwindigkeiten für morgen. Stichprobe: April 1984 bis März 2002 Fazit: Selbst zeitlich ausgeglichene Mittelwerte des Vorhersagefehlers mehrerer Orte schwanken innerhalb gewisser Grenzen, nicht nur von Quartal zu Quartal, sondern auch von Jahr zu Jahr. Trotzdem erkennt man, auch ohne eine statistische Analyse, insgesamt einen positiven Trend des Fehlers rmse, d.h. er nimmt ab. Auch Perioden mit einer unerklärlichen Fehlerzunahme (Wit- terungsanomalien?) vermögen nicht, den allgemeinen Trend umzukehren, höchstens, ihn zu verlangsamen. 17
Von Potsdam liegt sogar eine über 30jährige Verifikationsreihe für mehrere meteorologische Elemente vor, von denen wir hier nur die für MIN und MAX, also die Vorhersage der täglichen Temperaturextreme, zeigen wollen. Mittlerer Fehler rmse(K) Potsdamer Vorhersagen der täglichen MIN- und MAX-Temperatur 3,0 RV in 30 Jahren: 2,5 MAX [K] 54% 2,0 MIN [K] 1,5 51% 1,0 1970 1975 1980 1985 1990 1995 2000 Jahr seit 1971 Der typische Fehler bei MAX um 1970 betrug 2.67K, 30 Jahre später 1.82K. Dies entspricht einer Reduktion der Fehlervarianz um 54%. Oder anders interpretiert: Betrug das Risiko eines >5K großen Fehlers vor 30 Jahren 6.1%, so sank es inzwischen auf 0.6%, d.h. statt 22 mal im Jahr, ist jetzt nur 2 mal im Jahr mit solch einem extremen Fehler zu rechnen! 18
60 extrapoliert 50 RV in 16 Jahren [%] 40 30 20 10 0 MIN dd ff T MAX B fx N.0 Reduktion der Fehlervarianz (%) im Zeitraum 1984 bis 2000 bei der kurzfristigen Vorhersage von Standard-Wetterelementen im DWD. Während die Genauigkeit in der Wind- und Temperaturvorhersage kräftig zulegen konnte, ist dies bei "Windspitzen" und "Niederschlag: JA/NEIN" noch nicht der Fall. Im DWD erreichter Stand der Güte der numerischen RR-Vorhersage voll-automatischen als Funktion von Vorhersagezeit Vorhersage 12stündiger und Intensität (mm/12 Std.) Niederschlagsmengen. 70 DWD(14), Jahr 2001 Ordinate: ein Gütemaß mit 0=keine, 100=perfekte Vorhersageleistung. 60 Intensität:grün>0, braun>0,5,blau>3, 50 Heidke Skill Score % pink>10mm/12 Stunden. 40 dicke Kurve= Globales Modell GME, dünne Kurve = 30 engermaschiges lokales Modell LM. 20 Wichtigstes Ergebnis: Selbst seltene 10 Starkniederschläge sind heutzutage im gesamten Kurzfristzeitraum (bis 3 Tage 0 im voraus) vorhersagbar! 0 24 48 im voraus Stunden 72 96 120 19
Mittelfristvorhersage Die Entwicklung der wissenschaftlichen 80 Vorhersageleistung RV bei der Vorhersage der 70 täglichen Maximumtemperatur für 60 Potsdam für den 2. bis 4.Folgetag RV% rel.Klimanormal (der 0.Tag ist der 50 Ausgabetag der Prognose). 40 Vor 30 Jahren war es z.B. noch nicht möglich, 30 über 72 Stunden hinaus zu sehen! 20 Spannend bleibt die noch ungeklärte Frage nach 10 der maximal möglichen Vorhersageleistung RV: liegt sie bei 90 oder doch 0 eher schon bei 70 bis 1971 1975 1980 1985 1990 1995 2000 80% ? Jahr Ein beeindruckender Fortschritt in einer historisch kurzen Zeitspanne! Fragt man nach den Gründen, so kommt nicht nur eine einzige Ursache in Frage. Auf mehreren, verschiedenen Gebieten von Wissenschaft und Technik wurden in jenen Jahrzehnten große Fortschritte erzielt: • Vor allem dank der meteorologischen Satellitentechnik gelingt eine immer vollständigere und genauere Kenntnis des "Anfangszustandes" (Ł numerische Analyse als Voraussetzung einer numerischen Prognose) der globalen meteorologischen Prozesse. • Die physikalische und mathematische Ausstattung der hydro-thermodynamischen Vorhersagemodelle wurde immer besser und effizienter. • Die Computerpower wächst nach wie vor exponentiell! • Als unverzichtbar in der täglichen Prognose realer, lokaler Wetterelemente und – ereignisse haben sich die ebenfalls computerisierten, statistischen Methoden und Verfahren des "post-processing" herausgestellt. 20
36 AFREG-MIX 33 Prognoseleistung RV% rel.Klima 30 Finalvorhersage 27 24 AFREG- 21 18 1993 1994 1995 1996 1997 1998 1999 2000 2001 Leistungstrend in der mittelfristigen Wettervorhersage von Temperatur, Wind, Sonnenschein und Niederschlag für 2 bis 7 Tage im voraus. (DWD, 4-6 Orte in Deutschland) Die "Jahreszahl" bezeichnet das jeweilige "Sommerhalbjahr", dazwischen das "Winterhalbjahr". Die mittlere, grüne Kurve und Trendgerade identifiziert die offizielle Final-Vorhersage, die untere, blaue eine automatische Vorhersage auf der Grundlage von Druckfeldvorhersagen allein des EZMW (Europäisches Zentrum für mittelfristige Wettervorhersage in Reading bei London). Die obersten, roten Kurven weisen auf Verbesserungspotentiale hin, die künftig (nur) bei konsequenter Nutzung der DWD- und EZMW-Vorhersagekarten (und einem geeigneten statistischen Interpretationsansatz) erzielt werden können! Mit anderen Worten: Das bisher notwendige Zusammenspiel von "Mensch" (=Vorhersagemeteorologe) und "Maschine" (=Ergebnisse der numerischen und statistischen Wettervorhersage) ist unter Druck geraten. Dem Experten fällt es immer schwerer, wesentliche "Veredlungsleistungen" gegenüber dem reinen "Maschinenprodukt" zu erbringen. Diese Tatsache offenbart sich aber nur dem Wetterdienst, der über zeitgemäße Verfahren eines nationalen "post-processings" und über eine leistungsfähige Routine-Verifikation verfügt! 21
10 Jahre praktischer Umgang mit dem Deterministischen Chaos Noch einmal zurück zur obigen roten Erfolgskurve von AFREG-MIX. Was verbirgt sich dahinter? Zunächst einmal eine 'einfache' Lösung eines 'ärgerlichen' praktischen Problems im meteorologischen Alltag – die mit zunehmendem Vorhersagezeitraum ebenfalls wachsenden Unterschiede in den Modellergebnissen verschiedener Zentren, wie DWD-Offenbach, MetOffice-Bracknell, EZMW-Reading, MeteoFrance-Toulouse, US-amerikanischer Wetterdienst,...). Die meisten 'Experten' waren über Jahrzehnte der Ansicht, es gehöre zur täglichen Aufgabe eines erfahrenen Meteorologen, das jeweils beste/bessere Modell auszuwählen und darauf seine Wettervorhersage zu gründen. Ein fataler Irrtum! Der zunächst 'abwegige' Gedanke, auch hier einfach den 'goldenen Mittelweg' zu wählen, also zu mitteln, erwies sich –dank starker Verifikationsargumente- nämlich als die Methode der Wahl! Nichts anderes stellt obiges AFREG-MIX im Falle zweier Prognosezentren, Offenbach und Reading, dar. Es konnte sogar nachgewiesen werden, dass sich dieser MIX-Effekt bei Verwendung zweier weiterer Angebote (Bracknell und Washington) verdoppelt. Leider standen im wesentlichen technische Probleme einer praktischen, zeitkritischen(!) Umsetzung bisher im Wege. Diese, im Meteorologischen Dienst der damaligen DDR bereits Ende der 1980er Jahre gewonnenen Erfahrungen erwiesen sich in der Folgezeit als eine erfolgreiche Reaktion auf die Herausforderung des sog. Deterministischen Chaos. Leider ist hier nicht der Platz, auf dieses interessante Stichwort von grundsätzlicher Bedeutung näher einzugehen (Ł Chaostheorie, dissipative Strukturen, komplexe Systeme,...), aber mit einer Erscheinungsform bzw. Konsequenz hat die Meteorologie täglich mehrfach zu tun – dem Divergieren prognostischer Lösungen wegen unmessbar kleiner Unterschiede (Fehler) in den Beobachtungsdaten bzw. dem daraus abgeleiteten Anfangsfeld. Seit 10 Jahren wurde (in Reading und Washington) aus dieser Not eine Tugend gemacht: Das globale Diagnose- und Prognosemodell läuft nicht nur einmal, sondern bis zu 50(!) mal mit jeweils bewusst veränderten Anfangsfeldern, deren Unterschiede 'unmerklich' und kleiner als die Messfehler sind. Statt einer, 'deterministischen' Lösung erhält man ein ganzes Ensemble von Lösungsmöglichkeiten. Mittlerweile wird mehr als die Hälfte der stetig wachsenden Computerpower für dieses Ensemble Prediction System (EPS) aufgewendet. 22
Aus der Vielzahl prognostizierter Wetterelemente im 4dimensionalen Raum wählen wir Europa und Umgebung, die Lufttemperatur im Niveau 850 hPa (in ca. 1,5km Höhe), die 2tägige Vorhersage vom 1.7. für den 3.7.2002 und das US- amerikanische EPS-Modell mit 10 Ensemblemitgliedern. Um nicht im 'Datenchaos' zu versinken, werden für diese Grafiken immer nur die 3 Isothermen –15, 0 und 15 °C dargestellt. Das nun sichtbar gemachte Möglichkeitsfeld nimmt dabei die Form von "Spaghettis" an (Ł "Spaghetti-Plot"). Versucht man, weitere 4 Tage in die Zukunft zu schauen, verschwimmen manche Strukturen im 'Chaos' (Ł 0°C- Isotherme im isländisch- grönländischen Raum), während die erwartete Lage der 15 °C- Isotherme über Süd- und Osteuropa vergleichsweise genau angegeben werden kann. Nun sind solche Prognosekarten, so schön sie auch anzuschauen sind, kein Selbstzweck, sondern in der Regel wird ein 'deterministischer' Input für Nachfolgemodelle benötigt, z.B. die wahrscheinlichste Temperatur in 850 hPa zur Ableitung der erwarteten Höchsttemperatur in Bodennähe. Diesem Erfordernis kommt nun zum Beispiel eine arithmetische Mittelung obigen 'probabilistischen' Feldes nahe, siehe folgende Abbildung: 23
Eine andere interessante Darstellungsform ergibt sich bei der Beschränkung auf nur einen Ort, z.B. Berlin; jetzt kann man dafür die gesamte Zeitreihe darstellen. Es ergibt sich dabei die typische Form einer Rauchfahne (plume), auch hier stellt das einfache arithmetische Mittel aus allen Möglichkeiten (dicke Kurve) den besten Schätzwert dar. 24
4. Nachwort • Zum Thema Langfristvorhersage, also Witterungsvorhersagen über 10 Tage hinaus, ist zu sagen, dass die Schwierigkeiten dieses Vorhersageproblems in der Vergangenheit , selbst von der WMO, eher unterschätzt wurden. Gegenwärtig arbeiten weltweit ein paar große Zentren an der Entwicklung und Verbesserung der Grundlagen. Testweise gibt es auch Monats- und Quartalsvorhersagen bezüglich erwarteter Temperatur- und Niederschlagsabweichungen vom Klimanormalwert. Jedoch ist die stabil, d.h. in einer hinreichend großen Stichprobe, nachweisbare Prognoseleistung für außertropische Gebiete eher noch dürftig zu nennen, und für ein Quartal im voraus fehlt sie fast völlig. • Das hängt damit zusammen, dass zwar mit dem El Nino-Phänomen ein sehr wichtiger Oszillator des Weltklimas aufgedeckt werden konnte, der zudem noch recht gut vorhersagbar zu sein scheint – allein: sein erkennbarer Einfluss auf die Witterung der gemäßigten Breiten ist eher marginal zu nennen. • Außerdem verschärft sich in der Langfristvorhersage ein auch in der Mittelfrist prinzipiell bekanntes Phänomen, dass nämlich die Prognosegüte sehr wahrscheinlich vom Zeitpunkt ihrer Erstellung abhängt, d.h. nicht jeder Augenblickszustand der globalen atmosphärischen Zirkulation erlaubt es dem Meteorologen, gleich weit und gleich sicher in die Zukunft zu schauen. An diesem ernsten Problem der 'Vorhersage der Vorhersagegüte' wird international seit etwa 10 Jahren im Rahmen des oben kurz erwähnten EPS angestrengt gearbeitet. Eines aber wird immer deutlicher: eine vergleichende Verifikationsarbeit ist notwendiger denn je, um zum Beispiel o zu wissen (und nicht nur, es zu behaupten!), ob das noch weitgehend ungelöste Problem der Langfristvorhersage mithilfe der international entwickelten und betriebenen Prognosemodelle schrittweise, aber mit Erfolg attackiert wird, o herauszubekommen, welche Prognoseaufgaben nunmehr doch besser vom "Automaten" erledigt werden können (oder auch nicht), um sicherzustellen, dass die Kunden wirklich das beste Produkt erhalten, o besonders interessierten oder sensiblen Anwendern das Restrisiko "falscher Vorhersagen" quantitativ mitzuteilen, 25
o gesicherte Aussagen über Fortschritt oder Stagnation, kurz: über den Leistungstrend in der praktischen Wettervorhersage zu treffen; denn die Gesamtheit aller wissenschaftlich-technischen Bemühungen in Forschung, Lehre und Dienst (und ihrer Finanzierung!) macht nur Sinn und lässt sich am Ende nur dann rechtfertigen, wenn die Qualität der Vorhersehbarkeit von lokalem Wetter, regionaler Witterung und des globalen Klimas weiter erhöht werden konnte. Wer mehr über den aktuellen Stand in der Wetter- und Klimavorhersage wissen möchte, dem sei die folgende Publikation empfohlen, bei der die Autoren vor allem an die interessierten Nicht-Fachleute gedacht haben, was aber nicht bedeutet, dass selbst gestandene Meteorologen nicht ebenfalls Gewinn ziehen könnten: "Wettervorhersage: Mensch und Computer – Daten und Modelle" von Konrad Balzer(Potsdam), Wolfgang Enke und Werner Wehry(Berlin) ISBN 3-540-64186-6 Springer-Verlag Berlin Heidelberg New York , 1998 26
Sie können auch lesen