Herausforderung Klimawandel Baden-Württemberg

PArK Bonn

 

Bayesian Model Averaging von regionalen Klimavorhersagen

Zielsetzung

Die Mehrzahl der bislang veröffentlichten Klimaprognosen bezieht sich auf die zweite Hälfte des 21. Jahrhunderts. Dies wird damit begründet, dass erst nach etwa 2050 deutliche Auswirkungen und Unterschiede zwischen den verschiedenen globalen Emissionsszenarien sichtbar werden. Andererseits zeichnet sich der einsetzende Klimawandel bereits sowohl in meteorologischen Beobachtungen (z.B. Jonas et al., 2005, Wulfmeyer und Henning-Müller, 2006) direkt als auch in seinen Folgen (z.B. Landwirtschaft, Obstbau, Phänologie, Fauna) ab und es ist eine zeitliche Variation der Trends sowie eine Tendenz zur Beschleunigung seit Ende des letzten Jahrhunderts zu beobachten (Jonas et al., 2005). In dem hier beschriebenen Projekt soll eine Methode zur Abschätzung der Klimaentwicklung während der nächsten Dekaden (2010 bis 2030) unter Verwendung mehrerer komplementärer Methoden und Datenquellen (probabilistisch-dynamische und statistische Downscaling-Verfahren, globale und regionale Modelle) entwickelt und angewandt werden, um die wahrscheinlichste Entwicklung einschließlich der Unsicherheiten zu ermitteln. Die Quantifizierung der Unsicherheiten stellt einen wesentlichen Aspekt für die Absicherung der Prognosen dar, welcher auf der regionalen Skala bislang eher beiläufig untersucht wurde. Da bei den hier geplanten Arbeiten in großen Teilen Neuland betreten wird, sollen sie zunächst anhand von mittleren Klimavariablen wie Bodendruck, 2m-Temperatur, 2m-Feuchte sowie anhand von Maßzahlen für den vertikalen Temperaturaufbau (Konvektionsindizes, z.B. die konvektiv verfügbare potentielle Energie, CAPE) durchgeführt werden. Es sollen folgende Fragen beantwortet werden:

o Mit welcher Gewichtung eines regionalen Ensembles von Klimasimulationen lassen sich die beobachteten Klimavariationen der letzten Jahrzehnte zeitlich konsistent beschreiben?

o Welche regionale Klimaentwicklung wird sich mit der optimalen Gewichtung in Zukunft am wahrscheinlichsten einstellen?

o Mit welcher Unsicherheit ist diese Prognose behaftet?

o Welche Prognosen für das regionale Klima der nächsten Dekaden erhält man, wenn statt regionaler Klimasimulationen empirisch/statistische Zusammenhänge oder nur globale Simulationen verwendet werden?Wie vergleichen sich die Ergebnisse der Methoden?

Für die Punkte 1bis 3 sollen die in Min und Hense (2006) und Min et al. (2007) beschriebenen Verfahren zur Anwendung kommen, welche es ermöglichen, aus einem Ensemble von Simulationen (das nach bisheriger Planung auch die validierten REMO-Simulationen des UBA sowie die CLM Konsortialläufe enthalten soll) das beste Mitglied zu identifizieren bzw. die optimale Gewichtungen verschiedener Mitglieder zu bestimmen. Ein wichtiger Aspekt dieser Verfahren ist das datenadaptive Lernen, welches weiter unten beschrieben ist. Diese Methodik erlaubt es, künftige Prognosen an die reale Entwicklung anzupassen; sie liefert somit die bestmöglich an die Realität angepasste Prognose. In Punkt 4 sollen neben diesen probabilistisch-dynamischen Verfahren in Anwendung auf die globalen Modelle alternativ auch statistische Verfahren (WETTREG, Enke et al., 2005) herangezogen und deren Sensitivität bezüglich Methodik und Eingangsdaten untersucht werden. Solche Sensitivitätsbetrachtungen in Kombination mit der Zusammenschau dieser beiden alternativen Prognoseverfahren ermöglichen eine fundierte Abschätzung der Unsicherheit regionaler Klimaprognosen für die nächsten Dekaden. Die Zusammenschau aller drei Ansätze liefert dann auch eine Art "Superensemble" der regionalen Klimaänderungen, das das gegenwärtige Wissen zur regionalen Klimaänderungen in Deutschland bzw. Baden-Württemberg in sich konsistent zusammenfasst.

Probabilistisch-dynamische Analyse

Es wird ein für regionale Klimaprognosen neuer Weg beschritten: die quantitative Abschätzung von regionalen Klimaänderungen und ihrer Unsicherheiten erfolgt durch die probabilistisch-dynamischen Analyse von Modellen und Beobachtungen mit Hilfe von Wahrscheinlichkeitsdichten (probability density functions, PDF’s). Es werden somit nicht mehr z.B. Temperaturwerte angegeben, sondern die Eintrittswahrscheinlichkeit für einen gegebenen Temperaturwert. Ebenso kann z.B. in Form von Karten angegeben werden, mit welcher Wahrscheinlichkeit eine gegebene Temperaturänderung eintritt. Dazu werden die vorhandenen Klimasimulationen globaler und regionaler Natur mit einem Verfahren der Bayesischen Statistik (Bayesian model averaging, BMA, Hoeting et al., 1999) gekoppelt, das bereits für regionale Wettervorhersagen und für global gemittelte bodennahe Lufttemperaturen zum Einsatz gekommen ist. Das Ergebnis der Kombination ist eine Vorhersage von PDF’s bestimmter Zielgrößen wie z.B. die bodennahe Lufttemperatur. Der entscheidenden Punkt der Bayesischen Statistik ist dabei die Berücksichtigung der Beobachtungen, die effektiv dazu dienen, die vorliegenden Modellsimulationen zu gewichten und somit zu kalibrieren.

Da man nicht davon ausgehen kann, dass die Gewichte statisch und universell sind, wird das BMA-Verfahren wie folgt modifiziert. Zunächst wird für einen Initialzeitraum von 5 bis 10 Jahren eine erste Schätzung der Gewichte bestimmt. Mit diesen Gewichten wird der folgende Zeitraum von 5 Jahren vorhergesagt, außerdem liegen die entsprechenden Ensemblesimulationen sowie die Beobachtungen für diesen Zeitraum vor. Damit können nun die BMA Vorhersagen des vorausgehenden Zeitraums, die dynamischen Ensemblevorhersagen und ggf auch die statistischen Regionalisierungen WETTREG der Arbeitsgruppe Potsdam einer neuen BMA Gewichtungsrechnung unterzogen werden, so dass in diese neuen Gewichte die Information des vorhergehenden Zeitraums einfließt - kalibriert natürlich an den Beobachtungen. Dann kann das Verfahren für den nächsten Zeitraum iteriert werden, so dass die Gewichte auf Zeitskalen von etwa 5 Jahren und mehr langsam variieren und sich an die Beobachtungsgegebenheit adjustieren können (datenadaptives Bayesisches Lernen, forecast assimilation).

Mit den gefunden Gewichten wird die optimale Prognose für den Prognosezeitraum 2010 bis 2030 einschließlich ihrer Unsicherheit erstellt. Diese Ergebnisse werden dann statistisch, z.B. bez. Trends, ausgewertet. In Anbetracht der Neuheit der Verfahren wird, wie bereits erwähnt, der Schwerpunkt auf die Größen Bodendruck, Temperatur, Feuchte und evtl. Konvektionsindizes wie der CAPE gelegt, Extremverteilungen sollen hier noch nicht betrachtet werden. Um den Nutzen der regionalen Klimamodelle explizit zu evaluieren und die wegen der begrenzten Rechnerressourcen notwendigen Einschränkungen bei der regionalen Klimamodellierung einschätzen zu können, wird das probabilistisch-dynamische Analyseverfahren zusätzlich auf die globalen Simulationen und regionale Beobachtungen der bodennahen Lufttemperatur und der Druckmuster des zwanzigsten Jahrhunderts alleine angewandt. Zu Verfügung stehen hier ca. 50 Simulationen des Zeitraums 1880-2000 des 4. IPCC-Berichts 4AR-IPCC von etwa 20 verschiedenen globalen Klimamodellen. Durch den Vergleich mit den Ergebnissen, die unter Verwendung der regionalen Klimamodelle CLM und REMO entstehen, und durch Vergleich des Gesamtzeitraums mit dem Zeitfenster 1960 bzw. 1980 - 2000, in dem die regionalen Modelle die Simulationen erzeugen, kann der zusätzliche Informationsgewinn durch regionale Modelle und der Effekt der zeitliche Begrenzung auf die Zielgrößen quantifiziert werden.

Ansprechpartner: Prof. Dr. Andreas Hense, Meteorologisches Institut der Universität Bonn