zum Hauptinhalt
Sturm in Sicht. Das Satellitenbild zeigt den Orkan „Kyrill“ aus dem Jahr 2007. Mithilfe von aufwendigen Modellen versuchen Forscher, auch solche Extremereignisse frühzeitig zu erkennen.

© AFP

Klimaforschung: Das Spiel mit dem Wetter

Regnet’s oder scheint die Sonne? Mathematiker verbessern die Vorhersage mit Modellrechnungen. Ihre Methoden haben kurzfristige Prognosen schon erheblich verbessert. Verlässliche Aussagen für einen ganzen Sommer aber sind erst in 20 Jahren zu erwarten.

Wie wird der Juni? Kühl und „sehr niederschlagsreich“, glaubt der bayerische Wetterprophet Josef Jägerhuber. Trocken, vermutet dagegen der Internetwetteraugur Thomas Hitzler, und hält ab Tag zehn sommerliche Temperaturen über 18 Grad Celsius für wahrscheinlich. Mit mathematischen Wettermodellen arbeiten beide nicht. Kein Wunder, denn „jahreszeitliche Wettervorhersagen“, wie sie im Wissenschaftsjargon heißen, gehören zu den schwierigsten Teilgebieten in der ohnehin komplexen Meteorologie.

Doch warum eigentlich? Im Prinzip ist es ganz einfach mit dem Wetter: Das Wasser am Himmel kann sich nicht einfach in Luft auflösen, sondern allenfalls im Boden oder in Gewässern landen, und der Schwung, den die Luft- und Wassermoleküle haben, kann auch nicht einfach verschwinden, sondern wird wie bei einem Murmelspiel von einem Molekül zum nächsten weitergegeben. Die Erde dreht sich, die Sonne scheint, und wenn man nun noch ungefähr weiß, wie es im Moment am Himmel aussieht, dann sollte es doch kein Problem sein, Wind, Regen und Luftdruck für die nächsten Wochen vorherzusagen. Zumal die mathematische Beschreibung dieser Vorgänge im Prinzip schon lange bekannt ist. Bereits im 19. Jahrhundert haben Physiker, allen voran Ludwig Boltzmann (1844-1906), mathematische Gleichungen aufgestellt, die die Bewegung der Teilchen beschreiben, wenn Masse, Energie und Impuls erhalten bleiben. Und die sind, zumindest für Eingeweihte, durchaus noch überschaubar.

Der Teufel steckt im Detail. „Die saisonale Vorhersage ist eine Grauzone zwischen Wettervorhersage und Klimamodellierung“, sagt Rupert Klein, Klima- und Wettermathematiker an der Freien Universität Berlin. „Für solche Vorhersagen muss man in den Modellen beispielsweise die Bodenfeuchte und den Pflanzenwuchs berücksichtigen, weil sich mit diesen auch die Speicherung von Wasser verändert.“ Bei der kurz- oder mittelfristigen Vorhersage von ein paar Tagen genügt es, diese Größen unverändert zu lassen. Über längere Zeit hingegen spielen Veränderungen sehr wohl eine Rolle. Auch die Wechselwirkung der Atmosphäre mit Ozeanen und großen Gewässern wird über mehrere Wochen hinweg bedeutsam. „Umgekehrt können saisonale Modelle auch vereinfacht werden“, sagt der Forscher. „Welcher kleine Wirbel im Detail wie viel Regen wann in die Region bringt, ist für eine Vorhersage von einigen Monaten meist unbedeutend.“

Ein einheitliches Wettermodell für jede Art von Vorhersage gibt es also nicht. Wettermodelle werden auch aus diesem Grund modular konstruiert. Auf Modelle für Strömungen trockener Luft werden Modelle aufgesetzt, die weitere physikalische Prozesse beschreiben, inklusive Wolkenbildung und Kondensation. So entstehen komplexe Gesamtmodelle, deren mathematische Struktur kaum noch zu durchblicken ist.

Eine besondere Herausforderung sind dabei die „Feuchteprozesse“, denn Wolkenbildung und Niederschlag sind in weiten Teilen noch nicht verstanden. „Das ist wissenschaftlich das interessanteste Gebiet, da noch viele grundlegende Zusammenhänge zu klären sind“, sagt Klein. Zwar gebe es Theorien zur Wolkenbildung, doch seien die Forscher weit davon entfernt, die Entstehung von Wolken und Niederschlag mit der nötigen Genauigkeit in die üblichen Vorhersagemodelle einzubetten. „Das wird noch 20 Jahre dauern“, glaubt Klein.

Grundlage für Prognosen ist eine genaue Darstellung des aktuellen Wetters

Und es gibt noch mehr zu tun. Denn die klassischen Strömungsgleichungen, die auf der Erhaltung von Masse, Energie und Impuls basieren, sind zwar einfach zu formulieren, aber alles andere als einfach zu lösen. „Aus meiner Sicht ist die beste Vorgehensweise, diese grundlegenden Erhaltungssätze zu diskretisieren – also so zu zerlegen, dass der Computer sie nachvollziehen kann“, sagt Klein. Es gibt aber Alternativen: Man nimmt es bei den „Klassikern“ Impuls, Energie und Masse nicht ganz so genau, erlaubt dort kleine Abweichungen. Stattdessen achtet man darauf, dass die dadurch entstehenden Fehler – zum Beispiel bei den Luftwirbeln – möglichst klein bleiben.

„Der größte Fortschritt wurde aber wohl durch verbesserte Methoden der Datenassimilation erzielt“, sagt Klein. Darunter verstehen Forscher das „Einlesen“ von Beobachtungsdaten in ein Wettermodell. Ziel ist es dabei, möglichst realistische Anfangsbedingungen für eine Wettersimulation, also eine Darstellung des „heutigen Wetters“ zu erzeugen.

Nun sind die realen Beobachtungsstationen aber bei Weitem nicht so dicht aufgestellt, dass sie das Rechennetz einer Wettersimulation abdecken. Darum ist die Datenlage zu einem bestimmten Beobachtungszeitpunkt relativ dünn.

Der Trick besteht darin, nicht nur den aktuellen Zustand der Atmosphäre zu betrachten, sondern auch die Messwerte der letzten Tage zu berücksichtigen. Die Forscher starten dazu das Modell mit zunächst relativ grob geratenen Startdaten für den Anfang der Beobachtungsperiode. Dann simuliert man das Wetter von diesem vergangenen Zeitpunkt bis heute und passt die Startdaten immer wieder so an, bis das Modell just das Wetter am Bildschirm zeigt, das man beim Blick aus dem Fenster tatsächlich beobachtet. So ergibt sich ein heutiger Modellzustand, der auch für die nächsten paar Tage am besten funktioniert.

Das Verfahren lasse sich noch verfeinern, sagt Klein. Dazu nehmen die Wissenschaftler ein solches Modell, das einigermaßen gut die Realität abbildet, und „stören“ die Startdaten ein wenig. Dann lassen sie ihre Computer für den gestörten Startdatensatz das Wetter der Zukunft ausrechnen. Wissenschaftlich heißt das „Ensemble-Prognose“. Wenn die Ergebnisse dieser gestörten Simulationen nahe beieinander liegen, ist das ein deutlicher Hinweis darauf, dass das grundlegende Modell gut funktioniert. Das heißt wiederum, dass es eine hohe Wahrscheinlichkeit dafür gibt, dass das reale Wetter in Zukunft der Prognose im Computer ähnelt. „Jede dieser Rechnungen kostet aber Zeit und damit auch Geld“, sagt Klein. „Mathematiker haben deshalb Methoden entwickelt, mit denen die Störungen identifiziert werden, die in der Simulation den größten Effekt haben. Nur mit diesen wird dann weiter gerechnet.“

Wie sich das Wetter in den nächsten drei Tagen entwickeln wird, lässt sich mit solchen Verfahren mittlerweile relativ schnell und mit einer guten Trefferquote berechnen. Für ganze Jahreszeiten gilt das aber noch nicht, auch wenn einige Wetterdienste bereits solche Prognosen abgeben. Um festzustellen, ob diese stimmen oder nur Zufallstreffer sind, muss man beispielsweise mehrere Sommer zusammen betrachten. Tatsächlich waren die Prognosen über mehrere Jahre insgesamt etwas näher an der Realität, als man von einer rein zufällige Verteilung erwarten würde. Für eine bestimmte Jahreszeit ist die Unsicherheit der Prognose aber noch zu groß, als dass man danach beispielsweise sein Urlaubsziel aussuchen sollte. „Bis die mathematischen Modelle so gut sind, dass auch saisonale Vorhersagen zuverlässig sind, werden noch einige Jahre vergehen“, sagt Klein.

Bis dahin muss man an Wetterfrösche glauben, die das Wetter aus Bauernregeln und ihren Zipperlein vorhersagen. Oder einfach abwarten.

Terminhinweis: Am 23. Mai um 17 Uhr spricht Rupert Klein in seinem Vortrag „KliMathematik: Modelle, Daten und Strukturen“ über die Rolle der Mathematik bei der Klimaprognose. Diese „Simons Lecture“ ist eine von weltweit neun Vorlesungen und Teil des Internationalen Themenjahrs „Mathematics of Planet Earth 2013“. Ort: FU Berlin, Henry-Ford-Bau, Garystraße 35, 14159 Berlin.

Andreas Loos

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false