Schattenblick → INFOPOOL → NATURWISSENSCHAFTEN → KLIMA


FORSCHUNG/394: ... und jetzt zum Klima von morgen (MaxPlanckForschung)


MaxPlanckForschung - Das Wissenschaftsmagazin der Max-Planck-Gesellschaft 1/2015

Klimawandel
... und jetzt zum Klima von morgen

Von Ute Kehse


Wie wird das Klima in zehn oder 15 Jahren aussehen? Auf diese Frage haben Forscher bisher keine befriedigende Antwort - vor allem, weil zufällige Veränderungen in diesen mittelfristigen Zeiträumen eine große Rolle spielen. Eine natürliche Schwankung ist wahrscheinlich auch die Ursache dafür, dass die Temperaturen seit 15 Jahren kaum ansteigen. Jochem Marotzke vom Max-Planck-Institut für Meteorologie in Hamburg und Kollegen in ganz Deutschland arbeiten intensiv an einem System, das zuverlässige Prognosen für die kommenden Jahre liefert.


Die Idee zu dem Forschungsthema, das ihn bis heute stark beschäftigt, kam Jochem Marotzke im Herbst 2005. Kurz zuvor hatte der Hurrikan Katrina New Orleans verwüstet. Bei einer Veranstaltung in Hamburg stellte Marotzke die Resultate der Klimasimulationen vor, die das Max-Planck-Institut für Meteorologie für den Vierten Sachstandsbericht des Weltklimarates IPCC angefertigt hatte.

Normalerweise ist das kein Thema für ein großes Publikum - doch diesmal war der Saal brechend voll. "Es gab plötzlich ein irres Interesse an allen Themen rund um den Klimawandel", erinnert sich Marotzke. Nachdem er berichtet hatte, wie das Klima am Ende des 21. Jahrhunderts den Simulationen zufolge aussehen wird, erhob sich ein Herr im Publikum und fragte: "Sie erzählen uns viel über den Klimawandel im Jahr 2100, aber nichts über das Jahr 2015. Warum denn nicht? Das wäre doch für uns viel nützlicher!"

Jochem Marotzke, der bereits damals Direktor am Hamburger Max-Planck-Institut war, wurde von dieser Frage auf dem falschen Fuß erwischt: "Ich habe gedacht: Der Mann hat völlig recht, warum machen wir das eigentlich nicht?" Die Antwort, die er schließlich gab, war für ihn selbst und wahrscheinlich auch für seine Zuhörer etwas unbefriedigend: "Weil Vorhersagen über zehn Jahre schwieriger sind als solche über 100 Jahre." Eigentlich meinte er: Wir können es noch nicht.

Diese Erfahrung lieferte Marotzke den ersten Anstoß, sich mit Prognosen für mittelfristige Klimaänderungen zu befassen. Ein weiterer Anlass war ein Phänomen, das gegen Ende des vergangenen Jahrzehnts sichtbar wurde und die Klimaforscher bis heute beschäftigt: das sogenannte Temperaturplateau. Die globale Erwärmung, die in den 1980er- und 1990er-Jahren in vollem Gange war, legt seit Anfang des Jahrtausends anscheinend eine Pause ein. Die Temperaturen stagnieren ungefähr seit 1998, wenn auch auf hohem Niveau.

Mittelfristige Prognosen für Politik und Wirtschaft

"Unweigerlich kam die Frage an die Klimaforschung: Warum steigen die Temperaturen nicht weiterhin so rasant wie in den 1980er- und 1990er-Jahren?", sagt Marotzke. Er und seine Kollegen konnten keine befriedigende Antwort geben - denn praktisch alle Klimamodelle sagten für die Jahre von 2000 bis 2015 einen weiteren Anstieg der Temperaturen vorher.

Heute, knapp zehn Jahre später, ist die Wissenschaft in Bezug auf dekadische Klimaprognosen ein gutes Stück vorangekommen. Von 2011 bis Mitte 2015 finanzierte das Bundesforschungsministerium das Projekt MiKlip (Mittelfristige Klimaprognosen), das Jochem Marotzke initiiert hat und als Koordinator leitet. Inzwischen ist der Antrag für die zweite Phase gestellt. 22 deutsche Forschungsinstitutionen arbeiten dabei eng zusammen, um verlässlichere Informationen über die Klimaänderungen in den nächsten Jahren zu gewinnen.

Letztlich wollen die Forscher ein globales Vorhersagemodell entwickeln, das von Anwendern wie dem Deutschen Wetterdienst genutzt werden kann und ähnlich funktioniert wie die Wettervorhersage. Derzeit existiert ein Prototyp dieses Modells.

"Politiker und die Wirtschaft brauchen mittelfristige Prognosen, um sich besser auf Veränderungen vorbereiten zu können", meint Marotzke. Vorhersagen über eine Dekade seien dabei mitunter wichtiger als solche über ein Jahrhundert. "Wenn man weiß, dass etwas in zehn Jahren passiert, wird man sich eher darum kümmern als um etwas, das sich erst in 20 oder 30 Jahren ereignet."

Noch stecken solche Vorhersagen allerdings in den Kinderschuhen. "Es liegt eine Menge Arbeit vor uns", sagt der Hamburger Max-Planck-Forscher. Mittelfristige Klimaprognosen leiden unter einer grundsätzlichen Schwierigkeit: dem Chaos im Klimasystem. Denn ebenso wie das Wetter ist auch das Klima (als Mittelwert des Wetters) natürlichen Schwankungen unterworfen, die mehr oder weniger zufällig auftreten. So ist etwa kein Sommer wie der andere - der eine kühl und verregnet, der nächste tropisch feuchtwarm, der übernächste heiß und trocken.

Diese mehr oder weniger zufälligen Schwankungen bezeichnen Klimaforscher als spontane oder auch interne Variabilität. Aufgrund solcher Schwankungen kann die globale Durchschnittstemperatur von einem Jahr zum anderen durchaus um 0,2 oder 0,3 Grad Celsius variieren. Für die Forscher sind diese Schwankungen ein "Rauschen" - eine Art Störsignal, welches das eigentliche Signal der globalen Erwärmung überlagert.

Für langfristige Klimaprognosen, also über einen Zeitraum von 100 Jahren, spielt das Rauschen keine große Rolle: "Wir erwarten, dass die Temperaturen bis zum Jahr 2100 um zwei oder drei Grad ansteigen", erläutert Marotzke. "Diese Änderung ist viel größer als die interne Variabilität. Man kann diese also vernachlässigen."

Betrachtet man jedoch einen Zeitraum von zehn Jahren, dann liegt die erwartete Erwärmung in derselben Größenordnung wie die natürliche Schwankung - bei etwa 0,2 Grad Celsius. "In diesem Fall kann ich das Rauschen nicht vergessen", sagt der Klimaforscher. Um Prognosen über eine Dekade zu treffen, müssen er und seine Kollegen also nicht nur die globale Erwärmung modellieren, sondern auch die zufälligen Änderungen. Marotzke drückt es so aus: "Das Rauschen wird zu meinem Signal."

Mittelfristige Klimaprognosen funktionieren im Prinzip ganz ähnlich wie eine gewöhnliche Wettervorhersage: Sie beruhen darauf, dass ein Anfangszustand möglichst genau bestimmt wird: "Man steckt das heutige Klima rein, lässt das Modell rechnen und kann damit einige Jahre in die Zukunft blicken", sagt Marotzke. So wollen die Forscher das Chaos zumindest für einige Zeit in den Griff bekommen - schließlich ist es "deterministisch", gehorcht also physikalischen Gesetzen, die sich mit Gleichungen beschreiben lassen.

Dass dies funktionieren kann, belegt die Wettervorhersage. Deren Qualität hat sich dank besserer Beobachtungen und schnellerer Rechner in den vergangenen Jahrzehnten immer weiter gesteigert. Heute kann man das Wetter für fünf Tage so zuverlässig vorhersagen, wie es 1990 für drei Tage möglich war. Vollständig lässt sich der Zufall aber nicht zähmen. "Wir wissen auch: Weiter als zwei Wochen können Wetterprognosen nicht in die Zukunft schauen, dann verliert die Atmosphäre ihr Gedächtnis", so Jochem Marotzke.

Die Modelle werden anhand alter Daten getestet

Die Atmosphäre ist daher nicht der einzige Teil des Klimasystems, auf den man bauen muss, um mittelfristige Vorhersagen zu treffen. Zusätzlich brauchen die Forscher Informationen über die Ozeane. Denn es ist vor allem der Zustand der Meere, der das Klima in den nächsten paar Jahren bestimmt. Das heißt: Dekadische Vorhersagen sind im Prinzip Vorhersagen über das Ozeanwetter.

Innerhalb des MiKlip-Teams arbeiten Forscher aus ganz Deutschland an unterschiedlichen Aufgaben. In einem Modul werden etwa Methoden entwickelt, um den Anfangszustand für eine Vorhersage möglichst genau zu bestimmen. In einem anderen werden die Klimaprozesse untersucht, die für mittelfristige Vorhersagen eine Rolle spielen. Jochem Marotzke leitet das Modul "Synthese", in dem Wissenschaftler die globalen Vorhersagen erstellen und weiterentwickeln.

Grundlage der mittelfristigen Klimaprognosen ist das aktuelle Erdsystemmodell MPI-ESM des Max-Planck-Instituts für Meteorologie - also das gleiche Klimamodell, mit dem Max-Planck-Forscher auch die langfristigen Vorhersagen für die Berichte des Weltklimarates IPCC erstellen.

"Es ist wichtig und nützlich, dass wir ein Modell für alles verwenden. So sind unsere Ergebnisse mit denen anderer Gruppen vergleichbar, und wir können gegenseitig von Verbesserungen profitieren", betont Marotzke. Mittlerweile hat das MiKlip-Team drei Modellgenerationen entwickelt, deren Vorhersagekraft sich immer weiter verbessert hat. Die Qualität ihrer Vorhersagen testen die Forscher mit Daten aus der Vergangenheit. Sie geben also etwa den Anfangszustand von 1980 in ihr Modell ein und schauen, ob die errechneten Klimaschwankungen bis 1990 den Beobachtungen entsprechen.

Bei der ersten Modellgeneration waren diese retrospektiven Vorhersagen zum Beispiel für die Tropen eher schlecht, mittlerweile klappt das aber besser. Im Nordatlantik waren die Prognosen von Anfang an zutreffender. Mit der jetzigen Modellversion können sie unter anderem die Durchschnittstemperatur für die nächsten fünf Sommer in Europa oder das Auftreten von Stürmen in mittleren Breiten mit einer gewissen Genauigkeit vorhersagen. "Das ist zwar als konkrete Vorhersage noch arg bescheiden", sagt Marotzke, "aber es ist der erste Nachweis dafür, dass wir bestimmte Klimagrößen in diesen Zeiträumen überhaupt mit einer gewissen Güte prognostizieren können."

Keine systematischen Fehler in den Klimamodellen

Das Hauptproblem bei den dekadischen Vorhersagen sieht der Ozeanograf in der Feinheit der Modelle: Das Netz aus Datenpunkten, das die Forscher bei ihren Klimasimulationen gleichsam über den Ozean legen, ist derzeit noch zu grob. Manche Vorgänge laufen in den simulierten Ozeanen daher anders ab als in der Realität. Manchmal friert im Modell die Labradorsee komplett zu (was sie in Wirklichkeit nicht tut!), mal biegt der Golfstrom an der falschen Stelle von der amerikanischen Küste ab. Abhilfe soll der neue Großrechner am Deutschen Klimarechenzentrum schaffen, der im Juni in Betrieb geht.

Eine Frage, die Jochem Marotzke und seine Kollegen mit dem MiKlip-Modell derzeit noch nicht beantworten können, ist die nach der Ursache des rätselhaften Temperaturplateaus seit Anfang des Jahrtausends. "Ich würde gern sagen: Das hat im Zustand von 1997 schon dringesteckt - ähnlich wie man etwa ein Tief im Nordatlantik als Ursache für den Regen zwei Tage später identifizieren kann", sagt er. "Aber diese Hoffnung hat sich bisher nicht erfüllt."

Der Forscher ist das vertrackte Problem daher auf andere Weise angegangen. Zusammen mit seinem Kollegen Piers Forster, Professor an der University of Leeds, untersuchte er, ob ein systematischer Fehler in den Klimamodellen steckt, sodass sie allesamt einen größeren Temperaturanstieg berechnen, als in der Realität beobachtet wird. Das Ergebnis, das die beiden Ende Januar 2015 in der Zeitschrift NATURE vorstellten: Das Temperaturplateau ist höchstwahrscheinlich auf die interne Variabilität des Klimasystems zurückzuführen. Mit anderen Worten: Aufgrund einer zufälligen natürlichen Schwankung hat sich die Erdatmosphäre nicht weiter erwärmt.

In ihrer Studie verglichen Marotzke und Forster Beobachtungen und Modelldaten nicht nur für den Zeitraum des Temperaturplateaus von 1998 bis 2012, sondern für alle 15-Jahre-Zeiträume mit einem Anfangsjahr zwischen 1900 und 1998. So konnten sie feststellen, ob die Modelle in all diesen Zeiträumen wärmere Durchschnittstemperaturen ausrechnen als beobachtet. Wie sich zeigte, lag das Gros der Simulationen jedoch mal über, mal unter den Beobachtungswerten. Einen systematischen Fehler schließen die Forscher daher aus.

In einem zweiten Schritt versuchten sie, den Einfluss von drei Faktoren zu trennen, welche die Diskrepanz zwischen modellierten und beobachteten Temperaturen bewirken könnten. Eine Möglichkeit wäre, dass der Antrieb des Klimawandels in den Modellen falsch wiedergegeben ist - also die Menge an Strahlungsenergie, die durch den Anstieg der CO2-Konzentration in der Atmosphäre zusätzlich im Klimasystem bleibt oder durch Luftverschmutzung in den Weltraum zurückgestrahlt wird. Die Werte, die verschiedene Modelle für diese Größe berechnen, schwanken erheblich.

Eine weitere Möglichkeit besteht darin, dass die Modelle überschätzen, wie empfindlich das Klima auf den CO2-Anstieg reagiert. Manche Modelle nehmen an, dass die globale Durchschnittstemperatur nur um zwei Grad Celsius steigt, wenn sich der CO2-Wert verdoppelt. Andere gehen davon aus, dass es um mehr als 4,5 Grad wärmer wird.

Zufällige Schwankungen bremsen die Erwärmung

Die dritte Möglichkeit, die Marotzke und Forster in Betracht zogen: Die Kluft zwischen Simulation und Realität liegt nicht an Fehlern in den Modellen, sondern beruht auf einer zufälligen Schwankung im Klimasystem.

Ihrer Analyse zufolge spricht nun viel für diese dritte Variante. Marotzke hat auch einen Verdacht, welche Zufälle in den vergangenen Jahren zusammenkamen, um die globale Erwärmung scheinbar zum Stillstand zu bringen. "Ich glaube inzwischen, dass es sich um ein Extremereignis handelt, das naturgemäß schwer zu modellieren ist", sagt er.

Zum einen nahmen die Passatwinde im Pazifik seit den 1990er-Jahren so stark zu wie noch nie seit Beginn der Messungen, wie eine Studie von Matthew England von der University of New South Wales und Kollegen 2014 zeigte. Dadurch gelangte im Stillen Ozean kühles Tiefenwasser an die Meeresoberfläche, warmes Wasser verschwand dagegen in der Tiefe - der Pazifik nahm also wahrscheinlich besonders viel Wärme auf.

Eine zweite ungewöhnliche Entwicklung war eine Serie extrem kalter Winter in Eurasien. Dazu kamen zwei äußere Faktoren: Die Sonne versank von 2006 bis 2010 in einem außergewöhnlich ausgeprägten Aktivitätsminimum, und einige Vulkanausbrüche bliesen Aerosole in die Luft, welche die Sonnenstrahlung reduzierten. "Alles, was man sich vorstellen kann, kam zusammen", sagt Jochem Marotzke.

Das Temperaturplateau kann also keineswegs als Beleg dafür herhalten, dass es gar keinen menschengemachten Klimawandel gibt, wie manche Kritiker mutmaßen. Denn auch wenn die Temperaturen auf der Erdoberfläche seit Beginn des Jahrtausends kaum noch angestiegen sind, hat der Klimawandel keineswegs eine Pause eingelegt. Andere Klimaveränderungen setzten sich unvermindert fort. So stieg etwa der Meeresspiegel weiterhin an, und das Eis von Gletschern und Polkappen schmolz eher noch schneller als zuvor. Die überschüssige Energie, die durch die weiterhin steigenden CO2-Konzentrationen nach wie vor ins Klimasystem gepumpt wurde, ist in den Ozeanen gelandet.

Rückkopplungen bestimmen die langfristige Erwärmung

Ein weiteres Ergebnis der Studie war für Marotzke selbst höchst überraschend. In einer zweiten Berechnung verglichen er und Piers Forster beobachtete und modellierte Trends der globalen Durchschnittstemperatur über verschiedene, jeweils 62 Jahre lange Zeiträume zwischen 1900 und 2012. Auch hierbei versuchten sie, die Hauptursache für die unterschiedlichen Modellergebnisse zu finden.

Dabei zeigte sich, dass die interne Variabilität bei diesen längeren Zeiträumen anders als bei den 15-Jahre-Intervallen nicht mehr die Hauptrolle spielt. Stattdessen wirkten sich vor allem die unterschiedlich berechneten Werte für den Strahlungsantrieb auf das Ergebnis der Modelle aus. Die Klimasensitivität (also die Größe, die angibt, wie stark sich die Erdoberfläche bei einer Verdoppelung der CO2-Konzentration erwärmt) war dagegen auch für die längeren Trends nicht von Bedeutung - obwohl sich dieser Wert zwischen verschiedenen Modellen teils um mehr als den Faktor zwei unterscheidet.

"Zunächst habe ich das selbst nicht glauben können", bekennt Marotzke. Denn auf lange Sicht hängt es entscheidend von der Klimasensitivität ab, wie stark sich die Erde letztlich erwärmen wird. Doch wie die Studie zeigt, spielte es bei der Erwärmung der vergangenen 100 Jahre wohl noch keine Rolle, wie empfindlich das Klimasystem letztlich auf den CO2-Anstieg reagiert. "Wenn wir fragen: Wie wichtig ist die Klimasensitivität, um die Temperaturen im 20. Jahrhundert modellieren zu können?, lautet die Antwort: Nicht sehr", sagt Marotzke.

Die Klimasensitivität wird durch verschiedene Rückkopplungen zwischen der Erwärmung und dem Klimasystem bestimmt. Wenn es wärmer wird, kommen unterschiedliche Prozesse in Gang, die die Erwärmung verstärken: Es sammelt sich mehr Wasserdampf in der Atmosphäre, der ein Treibhausgas ist; die Erdoberfläche wird dunkler und absorbiert mehr Wärme; und vermutlich wird es weniger Wolken geben, die Sonnenlicht ins All zurückwerfen. Diese Rückkopplungen sind für die langfristige Erwärmung extrem wichtig, aber bisher waren sie es offenbar nicht.

Das Temperaturplateau wird demnächst enden

Mit ihrer Analyse entkräften die Autoren mithin den Vorwurf, Klimamodelle reagierten zu empfindlich auf eine Erhöhung der Kohlendioxidkonzentration - und hätten deswegen den Temperaturanstieg der vergangenen 15 Jahre überschätzt. Denn wenn dies so wäre, müssten diejenigen Modelle, die von einer höheren Empfindlichkeit ausgehen, einen größeren Temperaturanstieg liefern als die anderen. Das ist aber nicht der Fall.

Dieses überraschende Ergebnis wurde nach Erscheinen der Studie in einem Blog massiv angezweifelt. Jochem Marotzke und Piers Forster wurden schwerer methodischer Fehler bezichtigt - sie hätten ihr Ergebnis mithilfe eines Zirkelschlusses erlangt, und es sei daher schlicht unbrauchbar. Wegen der komplexen fachlichen Argumente herrschte auch in der Fachwelt eine Zeitlang Verwirrung. "Innerhalb von ein paar Tagen kamen Anfragen von NATURE und vom IPCC, ob an den Vorwürfen etwas dran sei", berichtet Marotzke.

Er und Piers Forster konnten daher nicht einfach zur Tagesordnung übergehen und die Kritik ignorieren. Sie antworteten in einem anderen Blog und legten ausführlich dar, weshalb ihre Arbeit schlüssig und ihr Ansatz gerechtfertigt sind. "Das hat die Kollegen überzeugt. Nach ein paar Tagen hat sich der Sturm dann wieder gelegt", sagt Jochem Marotzke.

Das Temperaturplateau indessen, davon sind die meisten Klimaforscher überzeugt, wird irgendwann in den nächsten Jahren enden. Wahrscheinlich wird die Erwärmung der Erdoberfläche demnächst also wieder schneller voranschreiten. Spätestens wenn die Passatwinde wieder schwächer über den Pazifik blasen, ist die Verschnaufpause vorbei.

*

AUF DEN PUNKT GEBRACHT
  • Erst seit wenigen Jahren beschäftigen sich die Wissenschaftler mit mittelfristigen Klimaprognosen. So etwa läuft seit 2011 das vom Bundesforschungsministerium finanzierte Projekt MiKlip.
  • Das Chaos im Klimasystem erschwert die Prognosen. Doch es gehorcht physikalischen Gesetzen, die sich mit Gleichungen beschreiben lassen - ähnlich wie bei der Wettervorhersage.
  • Mit einem Modell lassen sich unter anderem die Durchschnittstemperatur für die nächsten fünf Sommer in Europa oder das Auftreten von Stürmen in mittleren Breiten mit einer gewissen Genauigkeit prognostizieren.
  • Die globale Erwärmung legt seit Anfang des Jahrtausends anscheinend eine Pause ein. Die Klimamodelle liefern bisher keine Erklärung dafür. Jochem Marotzke und Piers Forster vermuten, dass sich die Erdatmosphäre aufgrund einer zufälligen natürlichen Schwankung vorerst nicht weiter erwärmt hat.

*

GLOSSAR

Erdsystemmodell MPI-ESM: Das Arbeitspferd des Hamburger Max-Planck-Instituts für Meteorologie wurde fünf Jahre lang entwickelt und verbessert. Es folgt dem ECHAM5/MPIOM-Klimamodell nach und ist als wesentliche Neuerung mit einem Kohlenstoffkreislauf gekoppelt, mit dem sich auch die Rückkopplungen zwischen Klimawandel und Kohlenstoffhaushalt der Erde untersuchen lassen.

Golfstrom: Der Golfstrom ist eine rasch fließende Meeresströmung im Atlantik. Er gehört zu einem weltweiten maritimen Strömungssystem, dem globalen Förderband. In Richtung Europa wird der Golfstrom zum Nordatlantikstrom. Er ist Teil der westlichen Randströmung und beeinflusst das Klima in Nordeuropa.


Bildunterschriften der im Schattenblick nicht veröffentlichten Abbildungen der Originalpublikation:

Abb. S. 68-69:
Die Erde hat sich zu Beginn des 21. Jahrhunderts deutlich langsamer erwärmt, als Klimamodelle vorhersagten. Trotzdem ist die Eismenge in der Antarktis zwischen 2003 und 2013 insgesamt weiter geschrumpft (rot - Abnahme des Eises; blau - Zunahme).

Abb. S. 70:
Der Klimawandel macht nur Pause: Bis zum Jahr 2090 dürfte sich die Erde vor allem an den Polen deutlich erwärmen, wie Forscher des Max-Planck-Instituts für Meteorologie mit dieser Simulation zeigen. An dieser Prognose ändert sich auch nicht viel, nur weil Klimamodelle das derzeitige Temperaturplateau nicht vorhergesagt haben.

Abb. S. 71:
Grafik: 15-Jahre-Trends der Oberflächentemperatur
Grafik: Anteil an Temperaturveränderungen aus deterministischen Prozessen
Grafik: Anteil an Temperaturveränderungen aus der spontanen Variabilität

Klimafaktor Zufall: Der obere Graph zeigt für jedes Jahr seit 1900, wie sich die globale Durchschnittstemperatur in den jeweils folgenden 15 Jahren entwickelt hat. Die rote Kurve gibt das Mittel aus 75 Simulationen wieder, die schwarze die beobachteten Temperaturen mit Fehlerbalken. Im mittleren Graphen ist an der geringen Bandbreite der Werte zu erkennen, dass deterministische Prozesse wie etwa atmosphärischer Rückkopplungen nur kleine Unterschiede in den Trends verursachen. Der untere Graph zeigt die breite Streuung der Trends, die auf zufällige Schwankungen im Klimasystem zurückzuführen ist. Damit lässt sich auch die beobachtete Erwärmungspause in den zurückliegenden Jahren erklären.

Abb. S. 72-73:
Der Lake Powell in der Nähe von Las Vegas, der mit seinen vielen Windungen und Seitenarmen an einen Fluss erinnert, hatte seit dem Jahr 2000 mehrmals sehr wenig Wasser. Mittelfristige Klimaprognosen könnten helfen, sich auf solche Ereignisse der Erderwärmung einzustellen.

Abb. S. 73:
Jochem Marotzke möchte die Klimamodelle so verfeinern, dass sie auch für die Zeiträume von zehn bis 20 Jahren zuverlässige Vorhersagen treffen.

Abb. S. 74:
Eine Momentaufnahme: Neben der Atmosphäre beeinflussen Ozeane das Klima besonders stark. Eine große Rolle spielen dabei Meeresströmungen wie etwa der Golfstrom, der hier an den hellblauen bis gelben Farben vor der amerikanischen Küste zu erkennen ist. Um gute Prognosen abzugeben, legen Klimaforscher ein möglichst engmaschiges Netz aus Datenpunkten über den Ozean und machen so auch die feinen Verwirbelungen der Strömungen sichtbar.


Das Heft mit Bildern kann als PDF-Datei heruntergeladen werden unter:
http://www.mpg.de/9221352/MPF_2015_1.pdf

*

Quelle:
MaxPlanckForschung - Das Wissenschaftmagazin der Max-Planck-Gesellschaft
Ausgabe 1/2015, Seite 68-75
Herausgeber: Wissenschafts- und Unternehmenskommunikation der
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Redaktionsanschrift: Hofgartenstraße 8, 80539 München
Telefon: 089/2108-1719 / -1276, Fax: 089/2108-1405
E-Mail: mpf@gv.mpg.de
Das Heft als PDF: www.mpg.de/mpforschung
 
Das Heft erscheint in deutscher und englischer Sprache
(MaxPlanckResearch) jeweils mit vier Ausgaben pro Jahr.
Der Bezug des Wissenschaftsmagazins ist kostenlos.


veröffentlicht im Schattenblick zum 21. Oktober 2015

Zur Tagesausgabe / Zum Seitenanfang