Refine
Year of publication
Document Type
- Article (13)
- Working Paper (6)
- Report (4)
- Part of a Book (3)
- Other (2)
- Conference Proceeding (1)
- Part of Periodical (1)
Has Fulltext
- yes (30)
Is part of the Bibliography
- no (30)
Keywords
- Klimaänderung (4)
- Deutschland (3)
- Geschichte 1900-2000 (2)
- Hessen (2)
- Klima (2)
- Klimawandel (2)
- (anthropogene) Klimabeeinflussung (1)
- Climate change (1)
- Europa (1)
- Extremereignis (1)
Institute
- Geowissenschaften (30)
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
In Ergänzung zu einem vorangegangenen Projekt (Schönwiese et al., 2005) ist in der vorliegenden Studie eine weitere extremwertstatistische Untersuchung durchgeführt worden. Dazu wurden auf der Basis von täglichen Klimadaten aus Hessen und Umgebung (49°N bis 52°N, 7°O bis 11°O), und zwar der Temperatur von 53 Stationen und des Niederschlages von 84 Stationen, Schwellen extremer Werte definiert, um die Anzahl der Über- bzw. Unterschreitungen dieser Schwellen auf signifikante Trends hin zu untersuchen. Bei der Temperatur findet sich dabei eine systematische Zunahme von Hitzetagen (Maximumtemperatur über 30 °C) im August, wohingegen im Juli fast keine, und im Juni nur vereinzelt signifikante Zunahmen von Hitzetagen gefunden wurden. Hierbei zeigt sich, wie auch bei anderen Temperatur-Schwellen eine Abnahme der Signifikanz mit zunehmender Schwellenhöhe, was durch selteneres Auftreten besonders extremer Ereignisse verursacht wird. Im Winter und Frühjahr hat entsprechend die Anzahl der Frost- bzw. Eistage (Minimum- bzw. Maximumtemperatur unter 0 °C) signifikant abgenommen. Besonders ausgeprägt ist dies für die Frosttage im Frühling der Fall. Beim Niederschlag hat im Sommer, wiederum vor allem im August, die Anzahl von Trockentagen zugenommen. Extrem hohe Niederschlagssummen sind dagegen in dieser Jahreszeit seltener geworden, in den anderen Jahreszeiten jedoch häufiger. Vor allem der März zeichnet sich durch verbreitet hochsignifikante Zunahmen von Tagen mit Starkniederschlägen aus. Die Erhaltungsneigung von besonders warmen bzw. kalten Witterungen hat sich in den meisten Monaten nicht signifikant verändert. Es ist jedoch eine Neigung zu kürzeren relativ einheitlichen Witterungsabschnitten im Februar und März, sowie zu längeren im Oktober und November zu beobachten. Diese Ergebnisse sind jedoch vermutlich nicht sehr robust, da sich bei einer Verkürzung des Zeitfensters der Autokorrelationsfunktion die Signifikanzen teilweise (vor allem im April) deutlich verändern. Bei den Trends der Zahl der Trockenperioden erkennt man im Sommer einen positiven Trend; sie nehmen somit zu. Dies gilt sowohl für die 7-tägigen als auch für die 11-tägigen Trockenperioden. Die übrigen Jahreszeiten zeigen bei den 7-tägigen Trockenperioden nur schwache oder negative Trends. Bei den 11-tägigen Trockenperioden gilt dies nur für das Frühjahr und den Herbst, im Winter sind die Trends im Norden überwiegend positiv, im Süden negativ. Betrachtet man die Länge der längsten Trockenperioden, so nimmt diese im Sommer zu, im Frühjahr und im Gesamtjahr jedoch ab. Im Herbst ist das Bild uneinheitlich; dies kann aber auch daran liegen, dass lange sommerliche Trockenperioden in den Herbst hineinreichen und dann dort gezählt werden. Ein weiterer Aspekt ist die Analyse der Anzahl und Länge bestimmter Witterungsabschnitte (Clusteranalyse), die durch relativ hohe oder tiefe Temperatur bzw. relativ wenig bzw. viel Niederschlag definiert sind. So können beispielsweise Tage mit weniger als 1 mm Niederschlag als Trockencluster bezeichnet werden. Dabei erkennt man im Sommer einen Trend zu mehr Trockenclustern,in Übereinstimmung mit den oben genannten Ergebnissen, in den übrigen Jahreszeiten und im Gesamtjahr jedoch einen Trend zu weniger Trockenclustern. Innerhalb des Sommers ist dieser Trend im August am stärksten, in den übrigen Jahreszeiten im März, Oktober und Dezember. Bei den Clustern von Feuchteereignissen, das heißt Tagen mit relativ viel Niederschlag, ist das Bild umgekehrt. Im Sommer nimmt deren Zahl ab, ansonsten nimmt sie zu. Die stärksten Trends sind dabei wiederum im August (Abnahme) bzw. im März, Oktober und Dezember (jeweils Zunahme) zu erkennen. Alle diese Trends werden im der Regel umso schwächer, je höher die Schranke der Niederschlagsmenge gewählt wird. Bei den Temperaturdaten sind die Trends von Frost- und Eistagen nur im November überwiegend positiv, in allen Wintermonaten (Dezember, Januar und Februar) jedoch fast ausschließlich negativ. Darin spiegelt sich somit der Trend zu höheren Temperaturen wider. Bei den Wärmeclustern ändern sich die Trends mit der Höhe der Schranke. Bei der Schranke von 25°C zeigen der Juli, insbesondere aber der August positive Trends. Bei der 30°C-Schranke bleibt der Augusttrend positiv, der Julitrend wird dagegen negativ. Bei der Schranke von 35°C werden die Augusttrends dann deutlich geringer, während die Julitrends, wenn auch schwächer ausgeprägt, negativ bleiben. Die Trends im Juni sind dagegen insgesamt schwach. Betrachtet man die Signifikanz der Trends, so sind insbesondere die Trends bei hohen Schranken weniger signifikant. Dies gilt für die hohen Niederschlagschranken (20mm, 30mm, 95%-Perzentil, 99%-Perzentil) ebenso wie für die hohen Temperaturschranken (30°C, 35°C). Weiterhin ist die Signifikanz dann niedrig, wenn die Zahl der Cluster im betrachteten Zeitraum klein ist. In Monaten und Jahreszeiten, in denen nur wenige Cluster auftreten, ist der Trend der Zahl der Cluster meist nicht signifikant. Insgesamt zeigen beim Niederschlag die untere Schranke von 1mm sowie die oberen Schranken von 10mm und 90% die signifikantesten Trends. Bei den Temperaturdaten ist das bei den Frosttagen generell, bei den Eistagen im Januar und Februar sowie bei den sommerlichen Clustern mit einer Tagesmaximumtemperatur von über 25°C der Fall (mit zum Teil über 95% bzw. 99% Signifikanz).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Vor dem Hintergrund des globalen Klimawandels und der Diskussion menschlicher Einflussnahme („anthropogener Treibhauseffekt“) ist anhand von Beobachtungsdaten der bodennahen Lufttemperatur und des Niederschlags untersucht worden, welche Strukturen die Klimaveränderungen in Hessen erkennen lassen. Dabei umfasst das betrachtete Gebiet den Bereich 49°- 52° Nord / 7°-11° Ost und schließt somit auch Teilgebiete der angrenzenden Bundesländer mit ein. Zeitlich lag der Schwerpunkt der Betrachtung auf dem Intervall 1951-2000, da aus dieser Zeit bei weitem die meisten Daten verfügbar sind (Temperatur 53, Niederschlag 674 Stationen). Darüber hinaus wurden aber auch Untersuchungen für die Zeit 1901 bis 2000 bzw. 2003 sowie für 30-jährige Subintervalle durchgeführt. Die Analysemethodik umfasst die Berechnung linearer Trends, einschließlich ihrer räumlichen Strukturen (Trendkarten), Aufdeckung von Fluktuationen (spektrale Varianzanalyse), Extremwertanalysen und die Diskussion natürlicher bzw. anthropogener Einflussfaktoren (Signalanalyse mittels multipler schrittweiser Regression). Die aus Tages-, Monats-, jahreszeitlichen und jährlichen Daten gewonnenen Ergebnisse sind überaus vielfältig und heterogen. Für das Flächenmittel Hessen ergibt sich 1951-2000 insgesamt (Jahresdaten) ein Temperaturanstieg von 0,9 °C mit dem Schwerpunkt im Winter (1,6 °C) und der geringsten Erwärmung im Herbst (0,2 °C). 1901-2003 liegen an den erfassten Stationen die jährlichen Erwärmungen bei 0,7 bis 1,8 °C; 30-jährig treten zum Teil auch Abkühlungen auf, insbesondere wenn die regional-jahreszeitlichen bzw. monatlichen Strukturen erfasst werden. Diese Strukturen sind beim Niederschlag noch weit ausgeprägter. Im Flächenmittel Hessen beträgt 1951-2000 der jährliche Niederschlagsanstieg 8,5 %, mit Maxima im Herbst (25 %) und Winter (22 %; Frühling 20%), während im Sommer ein Rückgang um 18 % eingetreten ist (mit Schwerpunkten im Juni und insbesondere August). Bei den Fluktuationen dominieren mittlere Perioden von ca. 2,2, 3,3, 5,5 und 7,5-8 Jahren, beim Niederschlag auch ca. 4,5 Jahre. Der Sonnenfleckenzyklus spiegelt sich in den analysierten Klimadaten nicht wider. Zusammen mit den Extremwerten sorgen diese Fluktuationen für zeitliche Instabilitäten der Klimatrends, insbesondere wenn relativ kurze (z.B. 30-jährige) Zeitabschnitte betrachtet werden. Die wiederum sehr vielfältigen und unterschiedlichen Ergebnisse der Extremwertanalyse spiegeln bei der Temperatur weitgehend die Trends wider, da sich die Streuung der Daten kaum verändert hat: d.h. Zunahme der Überschreitungswahrscheinlichkeit extrem warmer Ereignisse (insbesondere Frühling, überwiegend auch Sommer und Winter, am wenigsten im Herbst) und Abnahme der Unterschreitungswahrscheinlichkeit extrem kalter Ereignisse (dies im Winter bei den Tagesdaten jedoch sehr uneinheitlich). Beim Niederschlag sind die Abnahme extrem feuchter Monate im Sommer und die Zunahme extrem feuchter Tage im Herbst und Winter am auffälligsten. Langfristig folgen daraus ganz markante Änderungen der Jährlichkeiten. So ist beispielsweise 1901-2001 in Alsfeld die Jährlichkeit eines extrem feuchten Winters von 100 auf 5,6 Jahre zurückgegangen, die entsprechende Jährlichkeit eines extrem feuchten Sommers in Bad Camberg dagegen fast bis zur Unmöglichkeit angestiegen. Bei der Ursachendiskussion lässt sich in den Temperaturdaten ein deutlicher anthropogener Einfluss („Treibhauseffekt“) ausfindig machen. Abschließend wird diskutiert, inwieweit es sinnvoll ist, die beobachteten Trends, im Vergleich mit Modellprojektionen, in die Zukunft zu extrapolieren.
Vorwort: Klima ist vor allem deswegen nicht nur von wissenschaftlichem, sondern auch von öffentlichem Interesse, weil es veränderlich ist und weil solche Änderungen gravierende ökologische sowie sozioökonomische Folgen haben können. Im Detail weisen Klimaänderungen allerdings komplizierte zeitliche und räumliche Strukturen auf, deren Erfassung und Interpretation alles andere als einfach ist. Bei den zeitlichen Strukturen stehen mit Recht vor allem relativ langfristige Trends sowie Extremereignisse im Blickpunkt, erstere, weil sie den systematischen Klimawandel zum Ausdruck bringen und letztere wegen ihrer besonders brisanten Auswirkungen. Mit beiden Aspekten hat sich unsere Arbeitsgruppe immer wieder eingehend befasst. Hinsichtlich der Extremereignisse bzw. Extremwertstatistik sei beispielsweise auf die Institutsberichte Nr. 1, 2 und 5 sowie die dort angegebene Literatur hingewiesen. Hier geht es wieder einmal um Klimatrends und dabei ganz besonders um die räumlichen Trendstrukturen. Der relativ langfristige und somit systematische Klimawandel läuft nämlich regional sehr unterschiedlich ab, was am besten in Trendkarten zum Ausdruck kommt. Solche regionalen, zum Teil sehr kleinräumigen Besonderheiten sind insbesondere beim Niederschlag sehr ausgeprägt. Zudem sind die räumlichen Trendstrukturen auch jahreszeitlich/monatlich sehr unterschiedlich. In unserer Arbeitsgruppe hat sich Herr Dr. Jörg Rapp im Rahmen seiner Diplom- und insbesondere Doktorarbeit intensiv mit diesem Problem beschäftigt, was zur Publikation des „Atlas der Niederschlags- und Temperaturtrends in Deutschland 1891-1990“ (Rapp und Schönwiese, 2. Aufl. 1996) sowie des „Climate Trend Atlas of Europe – Based on Observations 1891-1990“ (Schönwiese und Rapp, 1997) geführt hat. Die große Beachtung dieser Arbeiten ließ es schon lange als notwendig erscheinen, eine Aktualisierung vorzunehmen. Dies ist zunächst für den Klima-Trendatlas Deutschland geschehen, der nun für das Zeitintervall 1901-2000 vorliegt (Institutsbericht Nr. 4, 2005). Hier wird nun auch eine entsprechende Aktualisierung für Europa vorgelegt, und zwar auf der Grundlage der Berechnungen, die Reinhard Janoschitz in seiner Diplomarbeit durchgeführt hat. Dabei besteht eine enge Querverbindung zum Projekt VASClimO (Variability Analysis of Surface Climate Observations), das dankenswerterweise vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen von DEKLIM (Deutsches Klimaforschungsprogramm) gefördert worden ist (siehe Institutsbericht Nr. 6, in den vorab schon einige wenige Europa-Klima-Trendkarten einbezogen worden sind). Mit der Publikation des hier vorliegenden „Klima-Trendatlas Europa 1901-2000“ werden in insgesamt 261 Karten (davon 17 Karten in Farbdarstellung in den Text integriert) wieder umfangreiche Informationen zum Klimawandel in Europa vorgelegt. Sie beruhen vorwiegend auf linearen Trendanalysen hinsichtlich der bodennahen Lufttemperatur und des Niederschlags für die Zeit 1901-2000 sowie für die Subintervalle 1951-2000, 1961-1990 und 1971-2000, jeweils aufgrund der jährlichen, jahreszeitlichen und monatlichen Beobachtungsdaten. Die Signifikanz der Trends ist im (schwarz/weiß wiedergegebenen) Kartenteil durch Rasterung markiert. Da sich die Analyse eng an die oben zitierte Arbeit von Schönwiese und Rapp (1997) anlehnt, wo ausführliche textliche Erläuterungen zu finden sind (ebenso in Rapp, 2000) wurde hier der Textteil sehr knapp gehalten.