Bild nicht mehr verfügbar.

Das Wetter in den Alpen hängt von vielen Details ab. Theorien, die für das Flachland gelten, stimmen im Gebirge oft nicht.

Foto: AP / Christof Stache

Wien – Als ab den 1840er-Jahren Europa mit einem Netz an Telegrafenleitungen überzogen wurde, veränderte sich auch die Perspektive auf das Wetter. Der rasche Informationsaustausch erlaubte die Beobachtung zu koordinieren. 1865 erstellte die Zentralanstalt für Meteorologie und Geodynamik (ZAMG) die erste Wetterkarte Österreichs. Isolinien gaben bereits Druck und Temperatur an. Daten wurden selbst zu Kriegszeiten über Grenzen hinweg ausgetauscht, blickt ZAMG-Direktor Michael Staudinger auf die Geschichte seiner Institution zurück.

Wenn sich ab 31. August Wissenschafter in Innsbruck zur 33. Internationalen Konferenz für Alpine Meteorologie (ICAM) versammeln, wird auch das 150. Jubiläum dieser Pioniertat gefeiert. Im Vordergrund stehen aber die Herausforderungen der Gegenwart. War es einst die Telegrafie, die die Meteorologie auf eine neue Ebene hob, so sind es heute Großrechner, die die Atmosphäre immer genauer abbilden. Zunehmend kleinräumigere Wetterphänomene werden berücksichtigt.

Gerade in Bergregionen bringt ein engmaschigeres Netz Vorteile. "Eine ganze Reihe von Phänomenen wie Föhn, Talwind oder Überströmungseffekte kommt speziell im Gebirge vor. Messung und Modellierung sind hier schwieriger", erläutert Mathias Rotach, Leiter des Instituts für Atmosphären- und Kryosphärenwissenschaften der Universität Innsbruck und Mitveranstalter der Tagung. "Wenn ich in Innsbruck ein Niederschlagsradar verwende, ist die Nordkette im Weg. Die Störsignale des komplexen Geländes müssen aus den Messdaten gefiltert werden. Und hinter dem Bergkamm habe ich einen toten Winkel", gibt Rotach ein Beispiel.

Bockige Berge

Auch die Rechenmodelle zur Erstellung von Wetter- und Klimaprognosen haben mit den Alpen ihre Probleme. In grob aufgelösten Modellen fallen etwa lokale Gewitterherde durch das Raster. Solche Prozesse, die zu kleinräumig für die jeweilige Auflösung sind oder in den Modellgleichungen nicht berücksichtigt werden, müssen parametrisiert werden. Das bedeutet, dass bekannte Effekte in vereinfachter, semiempirischer Art Eingang in das Modell finden, ohne dass ihre zugrunde liegende Physik Teil der Gleichungen wird. Rotach: "Ich kann in den Modellen nicht jeden einzelnen Wassertropfen rechnen, sondern muss eine mittlere Feuchte und mittlere Temperatur verwenden." Verändern die Entwickler die räumliche Auflösung, müssen Parametrisierungen zu Strahlung, Konvektion oder Bodenbedeckung wiederum neu abgestimmt werden.

Ein Projekt von Rotach und Kollegen beschäftigt sich mit Strömungen in der Nähe der Erdoberfläche, die als sogenannte Turbulenz ebenfalls parametrisiert werden. "Wir haben erkannt, dass die Theorien, die für das Flachland gelten, im Gebirge oft nicht stimmen", so der Wissenschafter. Die "Innsbruck-Box", eine Beobachtungsstation, wurde eingerichtet, um die Strömungsprozesse in einer komplexen Topgrafie besser verstehen zu lernen. Sie sammelt Referenzdaten für ein parallel laufendes Rechenmodell, um damit gängige Theorien zu prüfen und zu verfeinern. Am Ende könnte eine bessere Parametrisierung der alpinen Turbulenz stehen.

Die Daten sollen auch helfen, die Folgen der Erderwärmung, die in den Alpen gravierender ausfallen könnte als in flachen Gebieten, besser abzuschätzen. Eine konkrete Auswirkung konnte Christoph Schär vom Institut für Atmosphäre und Klima der ETH Zürich mit Kollegen aufzeigen. Die Studie, die auf der ICAM vorgestellt wird, zeigt, dass es mit den höheren Temperaturen häufiger zu intensiven Wolkenbrüchen kommt. Die Modellrechnung geht von einem mittleren Temperaturanstieg von vier bis fünf Grad für den Alpenraum in den nächsten 100 Jahren aus. "Obwohl die Feuchte in der Luft zunimmt, nehmen Niederschläge geringer und mittlerer Intensität sowie die gesamten Niederschlagsmengen ab", erklärt Schär. "Die Spitzenintensitäten steigen hingegen um 30 Prozent."

Enormer Rechenbedarf

Im Rahmen der Studie, die im Fachjournal Geophysical Research Letters erschien, wurde ein Modell des Alpenraums für zehn Jahre durchgerechnet. Die Ergebnisse seien auch auf andere Gebirgsregionen übertragbar, so Schär. Basis der Studie ist ein Klimamodell, das den atmosphärischen Wasserzyklus mit einer Auflösung von 2,2 Kilometern abbildet. Damit werden auch kleinräumige Prozesse der sommerlichen Wetterküche erfasst. Die aktuelle Ausdehnung der Berechnungen auf ganz Europa sei mit enormem Rechenaufwand verbunden. Schon die Berechnungen der Starkregen-Studie erstreckten sich über einen Zeitraum von eineinhalb Jahren.

Auch die ZAMG in Wien arbeitet daran, die Punkteabstände in ihren Modellen sukzessive zu verkleinern. Regionale Vorhersagen, die beispielsweise bei akuter Lawinen- oder Überschwemmungsgefahr zum Einsatz kommen, werden bereits mit einem Punkteabstand von einem Kilometer gerechnet, erklärt ZAMG-Direktor Staudinger. "Damit sind noch keine einzelnen Bergspitzen abbildbar, die Gebirgsstöcke werden aber deutlich sichtbar."

In den nächsten Jahren soll der Sprung auf eine Auflösung von 300 Metern erfolgen, womit man auch den Schattenwurf in der Topografie besser erfassen könne. Und man will künftig verschiedene Rechenmodelle, vom kurzfristigen "Nowcasting" bis zum globalen Modell, das alle sechs bis zwölf Stunden neu gerechnet wird, nahtlos ineinander übergehen lassen. Prognosen und Rechenaufwand würden damit optimiert.

Zur Zeit der ersten Wetterkarten vor 150 Jahren musste sich die Gesellschaft erst an die Prognoseversuche gewöhnen. Es entstanden Debatten, ob man Gott damit ins Handwerk pfusche. Falsche Vorhersagen wurden das Ziel von Spott und Häme. Die Probleme haben sich verändert. Heute sind Wetterkarten komplexe mathematische Atmosphärenbeschreibungen, die von Großrechnern ausgewertet werden und bereits sehr lokale Wetterprozesse erfassen können. In einer Zeit, in der die Menschen das Klima der Erde verändern, wird man diese Fähigkeit noch gut gebrauchen können. (Alois Pumhösel, 27.8.2015)