Schattenblick →INFOPOOL →NATURWISSENSCHAFTEN → KLIMA

FORSCHUNG/225: Wettervorhersagen - Wolken, Wind und Niederschlag (DFG)


forschung 1/2009 - Das Magazin der Deutschen Forschungsgemeinschaft

Wolken, Wind und Niederschlag

Von Andreas Hense


Wettervorhersagen sind ein komplexes Unterfangen. Neben immer präziseren Daten fließt auch viel Grundlagenforschung in die Prognosen ein. Die Meteorologen wollen dabei vor allem die Naturerscheinungen in der Atmosphäre noch besser verstehen.


Nicht nur wenn Orkane oder Tornados toben, Hochwasser Mensch und Land bedroht oder Hagel auf die Erde fällt, macht sie von sich reden, ja ist sie unerlässlich: die Wettervorhersage. Doch wenn in Zukunft die Zahl der Wetterextreme zunehmen sollte, können ihre Folgen dramatische, wenn nicht verheerende Ausmaße haben. Um so wichtiger ist, bereits jetzt verlässliche Verfahren zur Wetterprognose zu erstellen. Die Wettervorhersage ist von alltäglichem Interesse und Wert, schließlich ist das Wetter sprichwörtlich in aller Munde.

Aus meteorologischer Sicht ist es besonders schwierig, Niederschlagsvorhersagen zu treffen, denn sowohl die Niederschlags- als auch die Wolkenbildung gehören zu den kompliziertesten Naturprozessen in der Atmosphäre. Doch neue Forschungen enthüllen jetzt ein tieferes Verständnis der physikalischen Prozesse, die an der Niederschlagsbildung beteiligt sind - und weisen damit den Weg zu einer zuverlässigeren Wettervorhersage.

Das Bemühen um präzise Wettervorhersagen reicht weit zurück: Bereits 1904 beschrieb der Physiker und Meteorologe Vilhelm Bjerknes, später erster Direktor des Instituts für Physik der Atmosphäre der Universität Leipzig, die physikalischen Prinzipien der Wettervorhersage. Er versuchte, das Wetter mithilfe der physikalischen Erhaltungssätze für Masse, Energie und Impuls zu beschreiben und vorherzusagen. Dafür musste er die Atmosphäre am Boden und in der Höhe untersuchen und die Beobachtungen in ein mathematisches Modell einspeisen. 1922 versuchte der Mathematiker Lewis Fry Richardson dann erstmals, eine Wettervorhersage auf mathematisch-physikalischer Grundlage zu erstellen. Doch seine Ansätze und Ergebnisse lieferten eher unrealistische Ergebnisse.


Erst nach dem Zweiten Weltkrieg konnte das Problem der numerischen Wettervorhersage mit neuen Methoden angegangen werden, da jetzt mit dem Electronic Numerical Integrator and Computer (ENIAC), dem ersten elektronisch digitalen Rechner, die erforderliche Computertechnik zur Verfügung stand. 1948 sollte der ENIAC die erste erfolgreiche numerische Wettervorhersage über 24 Stunden errechnen. Vorhersagen über Größen wie Lufttemperatur in Bodennähe, Niederschlag oder Bedeckungsgrad zu treffen war allerdings nicht möglich. Erst ab Ende der 1950er-Jahre wurde das ursprüngliche Modell von Richardson wieder aufgegriffen, nun aber um die Erkenntnisse der numerischen Mathematik ergänzt. In Europa gipfelte diese Entwicklung 1975 in der Gründung des Europäischen Zentrums für Mittelfristige Wettervorhersage (EZMW) in Reading bei London, das die globale Wettervorhersage bis an den theoretisch möglichen Zeithorizont von ein bis zwei Wochen heranbringen sollte.

In den darauffolgenden Jahrzehnten wurden infolge der wachsenden Rechnerkapazitäten neue numerische Modelle entwickelt. Auch eine verbesserte Beobachtung des Wetters führte zu Fortschritten in der Wettervorhersage. Ein klassisches Beispiel dafür sind die Satellitendaten, die seit Ende der 1970er-Jahre vor allem für die Tropen wichtige Informationen über Wind und Temperatur liefern. Den größten Aufschwung aber brachte die Einbindung neuer Messdaten in die numerischen Wettervorhersagemodelle. Deren Aufarbeitung vor der eigentlichen Wettervorhersage ist inzwischen so aufwendig geworden, dass die Berechnungen für die Wettervorhersage selbst nur noch einen Bruchteil der Rechenzeiten erfordert.

Die Wettervorhersage birgt gegenüber anderen Wissenschaftszweigen einen großen Vorteil: Ihre Berechnungen können unmittelbar an der Wetterrealität überprüft werden. Schon 1950 wurde der Erfolg der Voraussagen objektiv kontrolliert, indem sie mit den Beobachtungen des nächsten Tages verglichen wurden. In den letzten Jahrzehnten verbesserten sich die Vorhersagen erheblich: Heute sind sie für den Druck in 5,5 Kilometer Höhe für einen Zeitraum von acht bis zehn Tagen so präzise wie die 24-Stunden-Vorhersagen vor 40 Jahren. Noch in den 1950er-Jahren gab es zwischen den Gitterpunkten des Rechennetzes über der Nordhemisphäre einen Abstand von rund 250 Kilometern mit etwa drei bis fünf Schichten zwischen Boden und einer Höhe von etwa 15 Kilometern. Heute dagegen wird ein globales Wettervorhersagemodell verwendet, bei dem der Abstand zwischen den Gitterpunkten 25-40 Kilometer beträgt und sich etwa 60-100 Schichten zwischen Boden und 50 Kilometer Höhe befinden.

Zur Vorhersage präziser Wetterinformationen, insbesondere bei hoch aktiven "Wettersystemen" (wie den sommerlichen Gewittern oder den Winterstürmen), werden Modelle verwendet, die detailliert einen kleinen Ausschnitt der Erdoberfläche beschreiben. So betreibt der Deutsche Wetterdienst (DWD) in Offenbach am Main mehrmals täglich ein Wettervorhersagemodell, das Deutschland mit einem Netz von Punkten erfasst, die einen horizontalen Abstand von etwa 2,8 Kilometern in 60 Schichten zwischen Boden und 20 Kilometer Höhe haben.


Für die Meteorologen ist vor allem eines problematisch: präzise Vorhersagen für die Niederschläge zu treffen. Sowohl die Niederschlags- als auch die Wolkenbildung zählen zu den komplexesten und hinsichtlich vieler Details unverstandenen Naturprozessen in der Atmosphäre. Unterschiedliche Faktoren wie Wasserdampfmoleküle und Wassertropfen beeinflussen diesen Vorgang ebenso wie Aufwindgebiete in einzelnen Wolken oder Tiefdruckgebiete. Während die Qualität der Vorhersagen für Wind und Temperatur durch die Entwicklung neuer meteorologischer Vorhersageverfahren und Beobachtungssysteme ständig verbessert werden konnte, sind Niederschlagsvorhersagen noch immer von schwankender Zuverlässigkeit. So wiesen sie noch im Jahr 2000 die gleichen Mängel auf wie Mitte der 1980er-Jahre.

Vor diesem Hintergrund entstand im Jahre 2001 eine gemeinsame Initiative von deutschen meteorologischen Universitätsinstituten, Großforschungszentren und des Deutschen Wetterdienstes (DWD) mit dem Ziel, die quantitative Niederschlagsvorhersage mit wissenschaftlichen Mitteln voranzubringen.


Doch was kann von einer quantitativen Niederschlagsvorhersage erwartet werden? Sie soll vorweg folgende Informationen liefern: Wann, wo und in welchem Ausmaß treten Niederschläge auf? Mit welcher Wahrscheinlichkeit und in welcher Form werden sie erwartet? Dabei zeigt die Erfahrung der Wetterforscher, dass neben der Wolken- und Niederschlagsbildung auch die Wasserzufuhr von der Erdoberfläche in die Atmosphäre Probleme bei der Niederschlagsvorhersage bereitet. Das gilt vor allem für den Wasserdampf in der Atmosphäre.

Die wissenschaftlichen Arbeiten innerhalb des Schwerpunktprogramms "Quantitative Niederschlagsvorhersage" konzentrieren sich deshalb darauf, diese Fehler durch Einsatz moderner Beobachtungsmethoden deutlich zu verringern. Dabei sind die in der Wettervorhersage bisher nicht genutzten Datenquellen hilfreich: Die Niederschlagsmessnetze der Wasserwirtschaftverbände zum Beispiel, das Wetterradar oder das sogenannte Laser-Fernerkundungsverfahren.

Im Sommer 2007 wurde hierfür das COPS-Projekt ("Convective and Orographically induced Precipitation Study") in Südwestdeutschland und im Elsass gestartet und durchgeführt. Das COPS-Experiment war von Anfang an international ausgerichtet; an ihm beteiligten sich insgesamt über 300 Wissenschaftlerinnen und Wissenschaftler aus zehn Ländern. Gemeinsam verfolgten sie das Ziel, alle für Niederschläge relevanten Prozesse systematisch mit Forschungsflugzeugen und verdichteten Standardmessnetzen an fünf sogenannten Supersites zu erfassen. Dazu wurden durch unterschiedliche Fernerkundungsverfahren parallele Messungen durchgeführt, was eine breite und hoch differenzierte Datengrundlage entstehen ließ. Die Forscherinnen und Forscher trieben zudem die Entwicklung innovativer numerischer Verfahren zur Wettervorhersage voran, um die Zufallselemente der Dynamik in der Atmosphäre stärker berücksichtigen und erfassen zu können.

Für die theoretischen Wissenschaftlerinnen und Wissenschaftler verbleiben umfangreiche Herausforderungen: die Messungen des COPS-Projektes auszuwerten und die Qualität der neuen Niederschlagsvorhersagen an der Realität zu prüfen. Schließlich sollen die Studien der Grundlagenforschung in die praktische Anwendung des Deutschen Wetterdienstes (DWD) überführt werden, damit es in Zukunft möglich sein wird, die Qualität der Wettervorhersagen weiter zu verbessern.


Prof. Dr. Andreas Hense ist Leiter der Arbeitsgruppe Klimadynamik am Meteorologischen Institut der Universität Bonn.

Adresse:
Meteorologisches Institut der Universität Bonn
Auf dem Hügel 20, 53121 Bonn

Die Studien werden von der Deutschen Forschungsgemeinschaft im Rahmen des Schwerpunktprogramms "Quantitative Niederschlagsvorhersage" gefördert.

www.meteo.uni-bonn.de/projekte/SPPmeteo
www.cops2007.de


*


Quelle:
forschung 1/2009 - Das Magazin der Deutschen Forschungsgemeinschaft, S. 13-17
mit freundlicher Genehmigung des Autors
Herausgeber: Deutsche Forschungsgemeinschaft (DFG)
Bereich Presse- und Öffentlichkeitsarbeit
Kennedyallee 40, 53175 Bonn
Telefon: 0228/885-1, Fax: 0228/885-21 80
E-Mail: postmaster@dfg.de
Internet: www.dfg.de

"forschung" erscheint vierteljährlich.
Jahresbezugspreis 2007: 59,92 Euro (print),
66,64 Euro (online), 70,06 Euro für (print und online)
jeweils inklusive Versandkosten.


veröffentlicht im Schattenblick zum 19. Mai 2009