Was ist das Skalenproblem?

Blick auf Innsbruck. Quer verläuft das Inntal, nach hinten hin ist das Wipptal zu erkennen. Hohe topographische Komplexität auf engem Raum. | Bild: Johannes Horak
Share if you care 🙂
RSS
Google+
https://www.timaios.org/2017/05/02/das-skalenproblem/
Twitter

Im letzten Beitrag haben wir uns mit der praktischen Seite der Vermessung von Gletschern beschäftigt. Will man nun verstehen, wie sich Gletscher entwickelt haben und wie sie sich in einem sich änderndem Klima weiter verhalten werden, muss man sich physikalischer Modelle bedienen. Allerdings brauchen diese Modelle dann wichtige Eingabedaten wie zum Beispiel Temperatur, Niederschlagsmenge, Windgeschwindigkeit und Luftfeuchtigkeit die unter anderen die Atmosphäre oberhalb des Gletschers charakterisieren. Warum helfen Messungen hier nur bedingt weiter? Wieso sind globale Klimamodelle nicht die beste Lösung? Und was ist eigentlich das Skalenproblem?

Das Problem mit Messungen

Eine erste Reaktion könnte sein zu fragen, weshalb man auf Gletschern die man gerne modellieren würde nicht einfach eine Wetterstation aufstellt um zu den Daten zu kommen. Das wird auch gemacht, ist aber nicht überall leicht durchführbar und ist außerdem teuer. Gletscher befinden sich meist in eher unzugänglichen Gegenden die schwer zu erreichen sind und lange Anreisewege erfordern. Die Wartung der Station und ein eventuelles regelmäßiges Überprüfen sind daher mit nicht zu vernachlässigendem Geld und/oder Zeitaufwand verbunden.

Eine Wetterstation auf einem Gletscher in den österreichischen Alpen

Eine Wetterstation auf einem Gletscher in den österreichischen Alpen

Eine weiteres Problem ergibt sich wenn Daten für ein zukünftiges Klima benötigt werden. Es liegt in der Natur der Sache, dass Wetterstationen nur über jenen Zeitraum Aufschluss geben können, in welchem sie Daten aufgezeichnet haben.

Zuletzt stellt sich noch die Frage, wie aussagekräftig die Messung an genau einer Stelle eines Gletschers denn ist, und hier zeigt sich, dass Größen wie der Niederschlag selbst auf kleinen Distanzen stark schwanken können.

Globale Klimamodelle

Nun könnte man sich globalen Klimamodellen oder auch „globale Zirkulationsmodelle“ genannt zuwenden. Diese sind die beste Näherung an den tatsächlichen Zustand der Atmosphäre die zur Zeit verfügbar sind. Ihr Betrieb erfordert ernorme Rechenleistungen und sie sind der Hauptgrund weshalb die großen Atmosphärenforschungszentren zumeist sehr starke Großcomputer besitzen, welche sich sogar unter den Top 100 der Welt befinden (zum Beispiel jener des europäischen ECMWF oder des amerikanischen NCAR). Im Fall des ECMWFs ist das IFS (integrated forcasting system) in Verwendung. Es löst die sogenannten Euler-Gleichungen welche die Strömung von Fluiden beschreiben.

Diese Modelle können entweder in die Zukunft blicken oder aber mit der Hilfe von Messungen einen dazu passenden vergangenen Zustand der Atmosphäre berechnen, letztere werden dabei als Reanalysen bezeichnet. Nachdem in Reanalysen der Zustand der Atmosphäre wegen der Messungen an verschiedenen Orten und Zeiten besser ermittelt werden kann (man hat quasi dadurch ein paar Einschränkungen die die Zahl der möglichen Zustände reduzieren), stellen diese eine der nähestmöglichen Annäherung an ihren tatsächlichen Zustand dar.

Im Fall des ECMWFs wird das derzeit* fortgeschrittenste verfügbare Reanalyseprodukt ERA-Interim genannt. Die frei verfügbaren Datensätze umfassen viele Dutzend Variablen für die Erdoberfläche oder bis zu beinahe 70km in die Atmosphäre reichend für den Zeitraum von 1979 bis heute in (zumeist) 6 Stunden Schritten.

Erstellt man aus diesen Daten eine Animation, wie zum Beispiel für die Wolkenbedeckung in bestimmer Höhe im Jänner 2017, sieht das aus wie unterhalb gezeigt.

* Tatsächlich soll dieses Jahr noch ERA5 online gehen welches höhere Auflösung und andere Verbesserungen bringt

Wolkenbedeckung

Wolkenbedeckung in einer bestimmten Schicht der Atmosphäre (45% bis 80% des Luftdrucks an der Oberfläche)

So gut diese Modelle global betrachtet auch sind, so haben sie doch den Nachteil verpassen zu können, was im Kleinen vor sich geht. Die Auflösung des Modells beträgt 0.75°, bzw. in Europa etwa 60 km. Das Inntal aber zum Beispiel durchmisst zwischen 200m und 9km von Norden nach Süden. Alles was sich auf Distanzen unter der Gitterauflösung abspielt muss daher auf andere Art und Weise erfasst werden – denn natürlich hat auch dies Auswirkungen auf die atmosphärischen Strömungen.

Dafür gibt es sogenannte physikalische Parametrisierungen. Dies sind zusätzliche physikalische Modelle die zum Beispiel die Wolkenbildung und Regenbildung innerhalb einer Gitterzelle  beschreiben, und den Einfluss den solche Prozesse auf die atmosphärischen Strömungen haben.

Um sich das besser vorstellen zu können lohnt sich ein Blick auf die folgende Graphik – links zeigt sie das Gelände um Innsbruck herum hoch aufgelöst, rechts wie es in ERA Interim abgebildet ist. Der Unterschied ist recht deutlich. Während links einzelne Täler und Berggipfel erkenntlich sind zeigt die Topographie mit gröberer Auflösung ein Plateau zwischen 1500 und 2000m Meereshöhe an. Daher sind die zuvor genannten Parametrisierungen immens wichtig.

Unterschiede im Detailgrad der Topographie um Innsbruck. Links: eine hohe Auflösung des Geländes, rechts: Die in globalen Klimamodellen verwendete Auflösung.

Unterschiede im Detailgrad des verwendeten Topographiemodells um Innsbruck. Links: hochaufgelöst mit ca. 60m (Daten aus der Shuttle Radar Topography Mission) rechts: Die in der globalen Reanalyse ERA Interim verwendete Auflösung von 0.75° (hier etwa 60km).

Während diese Parametrisierungen nun also im Mittel zu einem korrekterem Bild der großräumigeren atmosphärischen Strömungen führen, kann man im Umkehrschluss nicht unbedingt das lokale Wetter damit besser abbilden. Natürlich könnte man nun einfach die Auflösung der globalen Klimamodelle fein genug machen – allerdings wird dies durch die zusätzlich benötigte Rechenleistung schnell unpraktikabel.

Bei einer Verfeinerung der Auflösung von 60km auf 30km müssten die Eulergleichungen bei gleichbleibendem Volumen nun für bereits 8-mal so viele Gitterpunkte gelöst werden. Eine weitere Halbierung führt zu 64-mal so vielen Punkten wie in der Ausgangsauflösung. Um auf eine Auflösung von 1km zu kommen ist es sogar schon ein Faktor von $37\,768$!

Bedenkt man nun, dass ein Regentropfen einen Durchmesser im Milimeterbereich hat sieht man, dass die Rechenleistung die erforderlich wäre um das Modell fein genug zu machen um zB. die Formation und Bewegung einzelner Regentropfen erfassen zu können, bereits absurde Dimensionen annimmt – und dabei haben wir noch nicht einmal die zeitliche Auflösung verbessert.

Dieses Problem, diese Lücke zwischen lokaler (fein aufgelöster) Atmosphäre und großflächiger (grob aufgelöster) atmosphärischer Strömung ist es was als Skalenproblem bekannt ist. Das Problem die Lücke zwischen Grobskaligem und Feinskaligem zu schließen. Es tritt nicht nur bei der Gletschermodellierung auf, auch bei hydrologischen Fragestellungen wie der Hochwasservorhersage oder bei der Wettervorhersage stößt man darauf. Wie kann das Skalenproblem nun aber geschlossen werden?

Downscaling

Bereits 1986 hatte Hill eine richtungsweisende Idee. Was wäre, wenn man sich einen kleinen Teil des Globus herausgreift und diesen mit denselben Algorithmen wie jenen des globalen Modells berechnen ließe? Die Lösung für den Globus hätte man bereits, und wenn man nun an den Rändern der Ausschnittes diese als Randbedingung verwendet, so müsste man doch auch im Detail zu besseren Ergebnissen kommen.

Vereinfacht gesagt greift man einen Teilbereich für den man sich besonders interessiert heraus und berechnet diesen – in feinerer Auflösung – neu, in der folgenden Graphik um Beispiel jenen zwischen 46.8° und 47.7° Nord sowie 10.8° und 12° Ost.

Feinere Auflösung in einem Teilbereich

Feinere Auflösung in einem Teilbereich

All die Methoden welche dieses Ziel haben werden unter dem Begriff „Downscaling“ subsummiert und es gibt verschiedene Strategien dieses Ziel zu erreichen. Die ZAMG verwendet zum Beispiel ein regionales Vorhersagemodell namens ALARO-ALADIN welches eine zentral und osteuropäische Domäne in $4.8\,\text{km}$ Auflösung erfasst und in stündlicher Auflösung $72\,\text{h}$ in die Zukunft rechnet. Die Randbedingungen der globalen Simulation kommen auch hier vom IFS des ECMWF.

Aber auch statistische Methoden finden Verwendung um das Skalenproblem zu lösen, sowie eine ganze Menge Abstufungen zwischen Statistik und „voller“ physikalischer Modellierung.

Es gibt also Möglichkeiten das Skalenproblem zu lösen – alle mit ihren eigenen Vor- und Nachteilen. Das ist aber ein Thema für einen anderen Artikel 🙂

Weiterführende Literatur

  • Hill, G. (1968). Grid telescoping in numerical weather prediction. Journal of Applied Meteorology, 7(1):29-38.
  • Physikalische Parametrisierungen (link)
  • Regionale Wettervorhersage der ZAMG: Alaro-Aladin
Share if you care 🙂
RSS
Google+
https://www.timaios.org/2017/05/02/das-skalenproblem/
Twitter

1 Kommentar

  1. Pingback: Ein Forschungsaufenthalt in den USA - Timaios

Kommentar verfassen

close

Falls es Ihnen hier gefällt freue ich mich über eine Teilung :)

%d Bloggern gefällt das: