Numerische Wettervorhersage

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 13. Mai 2016 um 12:29 Uhr durch W!B: (Diskussion | Beiträge) (→‎Einleitung: ..). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen
Numerische Wettervorhersage erzeugt mit GFS (Global Forecast System)
Numerische Wettervorhersage erzeugt mit NAM

Numerische Wettervorhersagen (Numerische Wetterprognose, NWP) sind rechnergestützte Wettervorhersagen. Aus dem Zustand der Atmosphäre zu einem gegebenen Anfangszeitpunkt wird durch numerische Lösung der relevanten Gleichungen (im Kern: Navier-Stokes-Gleichungen, thermische Zustandsgleichung idealer Gase, Erster Hauptsatz der Thermodynamik, Kontinuitätsgleichung) der Zustand zu späteren Zeiten berechnet. Diese Berechnungen umfassen teilweise mehr als 14 Tage und sind die Basis aller heutigen Wettervorhersagen.

Funktionsweise

In einem solchen numerischen Vorhersagemodell wird das Rechengebiet mit Gitterzellen und/oder durch eine spektrale Darstellung diskretisiert, so dass die relevanten physikalischen Größen, wie vor allem Temperatur, Luftdruck, Dichte, Windrichtung und Windgeschwindigkeit, im dreidimensionalen Raum und als Funktion der Zeit dargestellt werden können. Die physikalischen Beziehungen, die den Zustand der Atmosphäre und seine Veränderung beschreiben, werden als System partieller Differentialgleichungen modelliert. Dieses dynamische System wird mit Verfahren der Numerik, welche als Computerprogramme meist in Fortran implementiert sind, näherungsweise gelöst. Aufgrund des großen Aufwands werden hierfür häufig Supercomputer eingesetzt. Es wird grundsätzlich zwischen Globalmodellen (Maschenweite ca. 10-50 km), deren Rechengebiet den ganzen Globus umfasst und Lokal- oder Ausschnittsmodellen (kurz auch LAM für limited area model) unterschieden. Letztere werden meist mit höherer Auflösung (heute ca. 1-15 km Maschenweite) nur auf einem begrenzten Gebiet gerechnet. Um dann die Werte am Modellgebietsrand während der Vorhersagerechnung sinnvoll festzulegen, werden üblicherweise interpolierte Ergebnisse eines Globalmodells oder großflächigeren Ausschnittsmodells verwendet (so genanntes „Nesting“).

Parametrisierungen

Relevante Prozesse, die kleinräumiger als die Modellmaschenweite sind und nicht in dem oben erwähnten Gleichungssystem berücksichtigt sind, müssen parametrisiert werden. Die Parametrisierungen beschreiben den Effekt dieser Prozesse auf die Rechengrößen auf dem Modellgitter unter vereinfachenden Annahmen und sind fester Bestandteil des Modellcodes. Typische Parametrisierungen sind: Wolkenmikrophysik (Bildung und Veränderung von Wolken- und Niederschlagsteilchen), Strahlung, Turbulenz, Bodenmodell, Schemata für flache und hochreichende Konvektion.

Datenassimilation

Darüber hinaus kommt der Festlegung des Anfangszustandes der Modellatmosphäre eine wichtige Bedeutung für den Erfolg der Modellvorhersage zu. Dabei wird mit unterschiedlichen mathematischen Verfahren (variationelles Verfahren wie 3D-Var, 4D-Var, Optimal Interpolation, Nudging, Kalman-Filter) eine gewichtete Kombination aus Messwerten und älteren Modellvorhersagen auf das Modellgitter interpoliert (so genannte Datenassimilation). Gemessene Größen der Fernerkundungsgeräte (Radar, Lidar, Satelliten) müssen dazu in Modellvariablen transformiert werden und umgekehrt. Konventionelle Messungen der Temperatur, der Feuchte, des Drucks usw. von Wetterstationen, Wetterballons, Flugzeugen, Schiffen und Bojen müssen lediglich räumlich und zeitlich interpoliert werden. Ferner müssen Fehlmessungen ausgesondert und systematische Messfehler (bias) korrigiert werden.

Geschichte

Die Möglichkeit einer numerischen Wettervorhersage wurde zum ersten Mal 1904 von Vilhelm Bjerknes in einem Vortrag gefordert, ohne dass er einen konkreten Weg zeigen konnte. Lewis Fry Richardson berechnete während des Ersten Weltkriegs zum ersten Mal eine Wettervorhersage, und auch wenn das Ergebnis grotesk falsch war, konnte nach der Erfindung des Computers auf seinen Vorarbeiten aufgebaut werden. John von Neumann schlug dann 1946 vor, den Computer für diesen Zweck zu verwenden. Im März 1950 berechnete ENIAC zum ersten Mal eine Wettervorhersage aus tatsächlichen Wetterdaten. Durch die zunehmenden Computerressourcen und neue Erkenntnisse auf dem Gebiet der Meteorologie und Numerik konnte seither die Auflösung und Qualität der Modellvorhersagen immer weiter verbessert werden. Immer mehr Wetterdienste auch in Entwicklungs- und Schwellenländern betreiben heute eigene numerische Vorhersagen oder nutzen zumindest numerische Produkte.

Kleinräumige Prognose

Die von den Modellen errechneten Wetterprognosen sind für eine Vorhersage des Wetters „vor Ort“ aufgrund der limitierten Modellauflösung, der Unsicherheit in den Anfangsbedingungen und der nicht-linearen Entwicklungen in der Atmosphäre („Chaos“) oft ungenau. Die errechneten Werte werden daher üblicherweise von Meteorologen auf Plausibilität überprüft, mit Erfahrungswerten abgeglichen und in Vorhersagetexte und Wetterwarnungen transformiert.

Model Output Statistics (MOS) ist ein Ansatz zur automatisierten kleinräumigen Wetterprognose. Hierbei werden die von den Modellen gelieferten Daten in Relation zu statistischen Messwertreihen gesetzt, um eine möglichst genaue Vorhersage „vor Ort“ liefern zu können. Im Gegensatz dazu werden beim Direct Model Output (DMO) die gelieferten Daten lediglich für die gewünschten Orte interpoliert.

Ensembleprognose

Wegen der chaotischen Natur des Wetters kann in vielen Fällen eine leichte Änderung der Ausgangsdaten insbesondere bei mittel- und langfristigen Vorhersagen zu einer völligen Veränderung der Prognose führen (Schmetterlingseffekt). Daher werden neben dem so genannten Hauptlauf, bei dem die Rechner mit den tatsächlich gemessenen Werten gefüttert werden, weitere Läufe durchgeführt, bei denen mit leicht veränderten Daten und einer etwas gröberen Auflösung der Modell-Gitterpunkte gearbeitet wird. So soll die Prognoseunsicherheit abgeschätzt werden. Die Ergebnisse dieser Läufe werden in Ensembles verglichen. Sind die Ergebnisse für einen Zeitraum der Prognose ähnlich, so ist das ein Indiz dafür, dass die Vorhersage für diesen Zeitraum relativ sicher ist. Während in einigen Fällen die Großwetterlage somit über 10 Tage recht gut prognostizierbar ist, gibt es andere Fälle, bei denen bereits nach wenigen Tagen eine zufriedenstellende Vorhersage kaum möglich ist. Die Anfangsstörungen für die einzelnen Ensemblemitglieder werden mittels zufälliger (stochastischer) Störung, Störung der assimilierten Beobachtungen zur Berücksichtigung der Messfehler (Ensembledatenassimilation), Störung in Richtung größter Störempfindlichkeit mittels sogenannter singulärer Vektoren oder Reskalierung des Auseinanderlaufens früherer Vorhersagen (breeding) generiert. In jüngerer Zeit wird auch die Unsicherheit in den Parametrisierungen während der Modellintegration durch Störung der darin enthaltenen Rechengrößen berücksichtigt (stochastische Modellphysik). Globale Ensemblemodelle werden beispielsweise am EZMW, UK-Metoffice, NCEP in den USA und in Kanada erstellt. Ensembles mit hochaufgelösten Ausschnittsmodellen wie das COSMO-DE-EPS des Deutschen Wetterdienstes kommen erst seit wenigen Jahren zum Einsatz und sind noch Gegenstand intensiver Forschung.

Modelle

Es gibt eine Vielzahl von Modellen der verschiedenen Wetterdienste. Diese verwenden unterschiedliche numerische Methoden, Gitter und Parametrisierungen und können daher in ihrer Vorhersage erheblich voneinander abweichen. Die Modelle werden üblicherweise mindestens einmal täglich neu berechnet und starten zu den synoptischen Hauptterminen 0, 6, 12, 18 Uhr UTC.

Zu den bekanntesten Modellen gehört das globale Modell GFS (Global Forecast System, ehemals AVN) der US-amerikanischen NOAA. Es berechnet viermal täglich Vorhersagen. Die GFS-Daten sind frei erhältlich und werden daher besonders von kleinen Wetterdiensten genutzt.

GFS ist in drei Teil-Modelle aufgeteilt, von denen das detaillierteste eine Prognose für alle drei Stunden der nächsten 3,5 Tage liefert und eine Gitterauflösung von etwa 40 km hat. Das langfristige Teil-Modell reicht bis 16 Tage in die Zukunft, prognostiziert das Wetter allerdings nur für alle zwölf Stunden und hat eine geringere Auflösung.

Weitere bekannte Globalmodelle sind:

  • GME (Globalmodell Europa): seit 1999 globales Modell des Deutschen Wetterdienstes auf einem Ikosaeder-A-Gitter
  • ICON (icosahedral non-hydrostatic global circulation model): Neue Modellgeneration des Deutschen Wetterdienstes und des Max Planck-Institutes für Meteorologie (in Entwicklung) auf einem Ikosaeder-C-Gitter
  • UM (Unified Model) des britischen Wetterdienstes Met Office UKMO (kann sowohl global als auch als Ausschnittsmodell verwendet werden)
  • IFS (Integrated Forecast System): spektrales globales Modell des EZMW (Europäisches Zentrum für mittelfristige Wettervorhersage)
  • GEM: globales Modell des kanadischen Wetterdienstes
  • Arpège: spektrales Globalmodell des französischen Wetterdienstes Météo France mit variabler Auflösung innerhalb des Modellgebietes
  • GSM: Spektrales Globalmodell des japanischen Wetterdienstes
  • NOGAPS: globales Modell des US-amerikanischen Fleet Numerical Meteorology and Oceanography Centers

Ausschnittsmodelle (LAMs) sind z.B.:

  • MM5 Mesoscale Model 5; sehr verbreitet an Universitäten mittlerweile zunehmend durch WRF ersetzt
  • ETA-Modell Serbien, USA
  • WRF Weather Research and Forecasting Model USA (Code frei verfügbar)
  • COSMO-Modell (früher „Lokalmodell“ LM/LME/aLMo): Ausschnittsmodell des Deutschen Wetterdienstes und des COSMO-Konsortiums (u.a. auch Meteo Schweiz, Italien, Rußland, Rumänien, Griechenland)
  • ALADIN-ALARO-AROME: Spektrale Ausschnittswettervorhersagemodellfamilie von Météo-France, der ZAMG (Wien), des CHMI (Prag) und vieler weiterer europäischer Wetterdienste
  • HIRLAM: verbreitet in Skandinavien, den Niederlanden, Irland und Island (hydrostatisches Spektralmodell)

Abgrenzung zur Klimamodellierung

Klimamodelle haben prinzipiell denselben Aufbau wie Wettervorhersagemodelle (Diskretisierung auf einem Gitter bzw. im Spektralraum, numerische Lösung derselben physikalischen Gleichungen, Parametrisierungen). Es gibt ebenfalls Global- und Ausschnittsmodelle. Allerdings ist die Vorhersagezielsetzung (mittlerer Zustand der Atmosphäre über Jahrzehnte (Klima) versus möglichst exakter Zustand der Atmosphäre in den nächsten Stunden bis Tagen (Wetter)) unterschiedlich, was zu leichten Abweichungen in der Konzeption führt. In der Wettervorhersage kommt der Kenntnis des Ausgangszustands (Anfangswertproblem) mittels Datenassimilation eine bedeutende Rolle zu. Die Details einer individuellen Wettersituation verschwinden dagegen durch die zeitliche Mittelung in Klimamodellen. Diese benötigen hingegen eine möglichst genaue Kenntnis und Zukunftsprojektion der Änderung der äußeren Antriebe (Randwertproblem) wie Schwankungen in der Solarstrahlung, der Meerestemperatur (deshalb häufige Kopplung mit einem Ozeanmodell) oder der atmosphärischen Zusammensetzung (Aerosole, Treibhausgasemissionen aus natürlichen und künstlichen Quellen), der Bodenbeschaffenheit (Änderung der Vegetation durch Landwirtschaft mit Auswirkungen auf die Strahlung und den Wasserkreislauf) etc.. Auch in der Klimamodellierung ist die Ensembletechnik beliebt, wobei hier ein Schwerpunkt auf der Abschätzung der Unsicherheit der genannten äußeren Antriebe liegt (Szenarien), die durch das (unbekannte) zukünftige menschliche Verhalten (Bodennutzung, Emissionen) mitbestimmt sein kann. Darüber hinaus kommt der Umsetzung der physikalischen Erhaltungssätze im Modell (Massenerhaltung, Energieerhaltung) aufgrund der langen Berechnungszeiten eine größere Bedeutung zu. Führt die Näherungslösung der Gleichungen durch die Diskretisierung beispielsweise zu einer minimalen systematischen Änderung der Atmosphärenmasse, so ist dies auf einer Skala von wenigen Stunden (Wettermodell) oft kaum relevant, während sich der Effekt bei der Rechnung über Jahrhunderte (Klimamodell) dramatisch aufaddieren kann. Die langen Rechenzeiten verlangen auch oft Kompromisse bei der Auflösung der Klimamodelle (gröbere Maschenweite), was wiederum zu Unterschieden in den zu parametrisierenden Prozessen führen kann. Dennoch können einige numerische Modelle - z.B. ICON, COSMO und ALADIN - sowohl für die Wettervorhersage als auch Klimarechnungen verwendet werden.

Weblinks