550 Geowissenschaften
Refine
Year of publication
Document Type
- Article (888)
- Doctoral Thesis (194)
- Contribution to a Periodical (32)
- Book (26)
- Working Paper (22)
- Part of Periodical (20)
- Conference Proceeding (18)
- Part of a Book (9)
- Diploma Thesis (8)
- diplomthesis (7)
- Other (5)
- Report (5)
- Master's Thesis (4)
- Review (4)
- Periodical (3)
- Bachelor Thesis (2)
- Habilitation (2)
- Preprint (2)
Language
Keywords
- climate change (11)
- Climate change (7)
- Klima (7)
- Klimaänderung (7)
- Modellierung (7)
- COSMO-CLM (6)
- Klimawandel (6)
- precipitation (6)
- Atmospheric chemistry (5)
- Deutschland (5)
Institute
- Geowissenschaften (775)
- Geowissenschaften / Geographie (135)
- Biodiversität und Klima Forschungszentrum (BiK-F) (61)
- Geographie (61)
- Senckenbergische Naturforschende Gesellschaft (54)
- Präsidium (44)
- Extern (28)
- Biowissenschaften (22)
- Institut für Ökologie, Evolution und Diversität (8)
- Physik (8)
The present work was devised to address the systematic analysis of samples from a range of Roman non-ferrous metal artefacts from different archaeological contexts and sites in the Roman provinces of Germania Superior. One of the focal points of this study is the provenancing of different lead objects from five important Roman settlements between 15 BC and the beginning of fourth century AD. For this purpose, measurements were made on lead and copper ore samples from the Siegerland, Eifel, Hunsrück and Lahn-Dill area in Germany and supplemented with data from the literature to create a data bank of lead isotope ratios of European deposits. Compositional analysis of lead objects by Electron Microprobe analysis showed that Romans were able to purify lead from ore up to 99%. Multi-Collector Inductively Coupled Plasma Mass-Spectrometry was used to determine the source of lead, which played an important role in nearly all aspects of Roman life. Lead isotope ratios were measured for ore samples from German deposits from the eastern side of the Rhine (Siegerland, Lahn-Dill, Ems) and the western side of the Rhine (Eifel, Hunsrück), which contained enough ore reserves to answer the increasing local demand and are believed to have been mined during the Roman period. This data together with those from Mediterranean ore deposits from the literature was used to establish a data bank. The Mediterranean ore deposits range from Cambrian (high 207Pb/206Pb) to tertiary (lower 207Pb/206Pb) values. In particular, the Cypriot deposits are younger, while the Spanish deposits fall either with the younger Sardic ores or close to the older Cypriot ores. The lead isotope ratios of most German ore deposits fall in between the 208Pb/206Pb vs. 207Pb/206Pb ratios of Sardinia and Cyprus, where the lead isotope signature of ore deposits from France and Britain are also found. Over 240 lead objects were measured from Wallendorf (second century BC to first century AD) Dangstetten (15-8 BC), Waldgirmes (AD 1-10), Mainz (AD 1-300), Martberg (first to fourth centuries AD) & Trier (third to fourth centuries AD). Comparing the lead isotope ratios of lead objects and those from German ores shows that the source of over 85 percent of objects are Eifel ore deposits, but the Roman’s had also imported lead from the Southern Massif Central and from Great Britain. A further topic of this work was the systematic study of the variation of copper isotope ratios in different copper minerals and the mechanisms, which controls copper isotope fractionation in ores deposits. For this purpose, copper isotope analyses were made by Multi-Collector Inductively Coupled Plasma Mass-Spectrometry from a series of hydrothermal copper sulphides and their alteration products. Copper and lead isotope ratios were measured in coexisting phases of chalcopyrite and malachite and also coexisting malachite and azurite. No significant fractionation was observed in malachite-azurite phases, but in chalcopyrite-malachite coexisting phases, malachite always shows a positive fractionation to heavier isotope values. Zhu et al. and Larson et al. showed that isotopic variations in copper principally reflect mass fractionation in response to low temperature processes rather than source heterogeneity. The low temperature ore formation processes are mostly represented by weathering of primary sulphide ores to produce secondary carbonate phases and therefore are usually observed on the surface of ore deposits, which were probably removed during the early Bronze Age. Using this concept, copper isotope ratios were measured in some Early Bronze Age copper alloys and Roman copper alloys. However, no large copper isotope fractionation has been observed. Lead and copper isotope ratios were measured on samples from the Kupferschiefer. Two profiles were investigated; 1) Sangerhausen, which was not directly influenced by the oxidizing brines of Rote Fäule and 2) Oberkatz, where both Rote Fäule-controlled and structure-controlled mineralization were observed. Results from maturation studies of organic matter suggest the maximum temperature affecting the Kupferschiefer did not exceed 130°C. delta-65-Cu ranges between -0.78-+0.58‰, shows a positive correlation with copper concentration. Maximum temperature in the Kupferschiefer profile from Oberkatz is supposed to be around 150°C. delta-65Cu in this profile ranges between -0.71-+0.68‰. The pattern of copper isotope fractionation and copper concentration is same as the for profile of Sangerhausen. Origina lead isotope ratios are strongly overprinted by high concentrations of uranium in bottom of both profiles causing more radiogenic lead.
In Ostkreta tritt innerhalb der Phyllit-Quarzit-Serie ein in vier Einheiten untergliederbares präalpidisches Altkristallin auf. Das basale Kalavros-Kristallin (KCC) wurde während der permischen (Monazitalter) Barrow-Metamorphose (Staurolith-Zone) überprägt. Unter amphibolitfaziellen Metamorphosebedingungen bildeten sich liegende Isoklinalfalten sowie eine mylonitische Foliation. Die Verteilung der -c-Achsen von Quarzen belegt non-koaxiale Deformation durch Rhomben<a>- und Prismen<a>Gleitung, die sich in einer hochtemperierten Grenzflächenwanderung (GBM) äußerte. Zudem wuchsen vierphasige Granate, in denen die äußerste Zone auf einen nochmaligen Druckanstieg hindeutet. Die Granate wurden wiederum von Muskoviten, die aus einer Deformation mit Top-E- bis Top-NE-Scherung resultierten, überwachsen. Das überlagernde Myrsini-Kristallin (MCC) besteht aus Glimmerschiefern, Gneisen, Quarziten und Marmoren. Die Liefergebiete der Paragesteine (Zirkonaltersspektrum eines Paragneises) weisen Einflüsse der amazonischen- (2,8 Ga), eburnischen- (1,9 Ga), kibaran/sunsasischen- (0,9 - 1,1 Ga) und panafrikanischen- (0,9 - 0,5 Ga) Orogenese auf. Im Mittelkambrium intrudierten Granite in die sedimentären/kristallinen Gesteine (514 ±14 Ma zrn & 507 ±189 Ma mnz). Während des Unterkarbons (Monazitalter) fand eine Barrow-Metamorphose (Staurolith-Zone) mit non-koaxialer Top-N-Scherung statt. Hierbei bildeten sich geschlossene, liegende Falten sowie eine mylonitische Foliation. Die Quarz-c-Achsen belegen non-koaxiale Rhomben<a>- bis Prismen<a>Gleitung, die sich in Subkornrotations-Rekristallisation (SGR) und hochtemperierter Korngrenzwanderungs-Rekristallisation (GBM) äußerte. Im Gegensatz zu den Granaten des KCC bildeten sich nur dreiphasige Granate. Während des retrograden variszischen Deformationspfades entstanden Top-NE-Scherzonen. Der bis in die Unterkreide anhaltende Aufstieg der Gesteine wird von Zirkon-Spaltspurenaltern (150 ±14 Ma) dokumentiert. Das hangende Chamezí-Kristallin (CCC) besteht aus Gneisen und Glimmerschiefern. Auch hier intrudierten im Mittelkambrium (S-Typ-)Granite (511 ±16 Ma zrn & 521 ±28 Ma mnz). Relikte einer prävariszischen Orogenese stellen die Granatkerne und Margarite in den Glimmerschiefern dar. Das Alter der Barrow-Metamorphose (Granat-Zone) mit Top-N-Scherung konnte mangels geeigneter Minerale nicht bestimmt werden. Die Verteilung der Quarz-c-Achsen resultiert aus einer non-koaxialen Deformation bei der überwiegend Basis<a>- und Rhomben<a>Gleitung mit Subkornrotations-Rekristallisation (SGR) auftrat. Es bildete sich eine protomylonitische Foliation sowie liegende offene N-S Falten, die anschließend mehrphasig überprägt wurden. Für einen langsamen Aufstieg der Gesteine sprechen die semiduktilen Top-NE-Scherzonen und jurassischen Zirkon-Spaltspurenalter (158 ±16 Ma). Eine unbekannte Position innerhalb des Altkristallins nimmt das Vaí-Kristallin (VCC) ein. Während der Trias intrudierten hier granitoide Gesteine (223 ±11Ma zrn). Eine spätere amphibolitfazielle Überprägung zeigt Top-NW-Scherung. Der schnelle Aufstieg der Gesteine wird durch jurassische Zirkon-Spaltspurenalter dokumentiert (184 ±11 Ma). Die Kristallingerölle der hangenden skythischen Metakalkkonglomerate können auf Grund der permischen bis triassischen Metamorphose der kretischen Altkristalline, der triassischen Intrusion der Granite des Vaí-Kristallins sowie den jurassischen Zirkon-Spaltspurenaltern nicht aus der unterlagernden Altkristallin-Einheit stammen. Der Kontakt zwischen dem Altkristallin und dem Metakalkkonglomerat ist somit das Ergebnis der alpidischen Orogenese. Auch die Zirkone, Monazite und Rutile wurden von der Niedertemperatur/Hochdruck-Metamorphose der alpidischen Orogenese beeinflusst. Vor allem die Zirkone des Chamezí-Orthogneises zeigen einen Pb- und vermutlich auch einen U-Verlust sowie einen Austausch von radiogenem Pb durch rezentes Pb. Dieser niedergradige Fluidtransport äußerte sich zudem in einem Lösen der Zirkone sowie einer zerstörten Zirkonstruktur. Gleichzeitig fand ein Einbau von Ca2+, Mn2+ und Mg2+ statt, der von den Ca-reichen Fluiden, die auf Grund der Karbonat-reichen Deckenstapel auftraten, forciert wurde. Keinen Einfluss auf den Blei-Verlust der Zirkone zeigt dagegen die amphibolit- bis grünschieferfazielle präalpidische Überprägung. Auf Grund der Altersspektren der Zirkone sowie der tektonischen Transportrichtungen werden die Kristallinkomplexe als Fragmente von Gondwana interpretiert. Im Rahmen der spät-panafrikanischen Metamorphose und Deformation erfolgte der Aufstieg der Plutonite, an die sich eine Riftingphase anschließt, während der sich die Fragmente abspalteten. Im Karbon bis Perm kollidierten unter Top-N-Kinematik das MCC, CCC und KCC mit Gondwana. In der Trias erfolgte letztlich der Aufstieg der Plutonite des VCC und dessen anschließende Überprägung. Die Heraushebung der Gesteine erfolgte im Jura.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
This is a short movie about the research project No. 297 41 132 of the German Federal Environmental Agency. It is comissioned by the German Ministry for the Environment, Nature Conservation and Nuclear Safety and the German Federal Environmental Agency, Division II 6.2.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Chlorine monoxide (ClO) plays a key role in stratospheric ozone loss processes at midlatitudes. We present two balloonborne in situ measurements of ClO conducted in northern hemisphere midlatitudes during the period of the maximum of total inorganic chlorine loading in the atmosphere. Both ClO measurements were conducted on board the TRIPLE balloon payload, launched in November 1996 in Le´on, Spain, and in May 1999 in Aire sur l’Adour, France. For both flights a ClO daylight and night time vertical profile could be derived over an altitude range of approximately 15–31 km. ClO mixing ratios are compared to model simulations performed with the photochemical box model version of the Chemical Lagrangian Model of the Stratosphere (CLaMS). Simulations along 24-h backward trajectories were performed to study the diurnal variation of ClO in the midlatitude lower stratosphere. Model simulations for the flight launched in Aire sur l’Adour 1999 show a good agreement with the ClO measurements. For the flight launched in Le´on 1996, a similar good agreement is found, except at around ~ 650 K potential temperature (~26km altitude). However, a tendency is found that for solar zenith angles greater than 86°–87° the simulated ClO mixing ratios substantially overestimate measured ClO by approximately a factor of 2.5 or more for both flights. Therefore we conclude that no indication can be deduced from the presented ClO measurements that substantial uncertainties exist in midlatitude chlorine chemistry of the stratosphere. An exception is the situation at solar zenith angles greater than 86°–87° where model simulations substantial overestimate ClO observations.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Wenn sich beim Klimagipfel in Den Haag [genauer bei der nun schon 6. Vertragstaatenkonferenz zur Klimaschutzkonvention der Vereinten Nationen] nun wieder die Delegationen aus fast allen Staaten der Welt treffen, um über Klimaschutzmaßnahmen zu beraten, dann schwingt auch immer die Frage mit: Sind solche Maßnahmen wirklich notwendig? Sollen wir nicht einfach warten, bis wir mehr, ja vielleicht alles wissen? ...
Die Zunahme der Konzentration von CO2 und anderen "Treibhausgasen" in der Atmosphäre ist unzweifelhaft, und ebenso unzweifelhaft reagiert das Klima darauf. Christian-Dietrich Schönwiese, Professor für Meteorologische Umweltforschung und Klimatologie an der Universität Frankfurt am Main, sieht dringenden politischen Handlungsbedarf und plädiert gleichzeitig dafür, die Debatte rund um den Klimaschutz zu versachlichen.
Die öffentliche Klimadebatte scheint sich zu verselbständigen. Abgehoben von den Erkenntnissen der Fachwissenschaftler reden die einen von der "Klimakatastrophe", die uns demnächst mit voller Wucht treffen wird, wenn wir nicht sofort alles ganz anders machen; Panik ist ihnen das rechte Mittel, Aufmerksamkeit zu erregen. Die anderen sehen im "Klimaschwindel" einen Vorwand für Forschungsgelder und zusätzliche Steuerbelastung der Wirtschaft; ihre Strategie ist Verwirrung und Verharmlosung. Mit der Fixierung auf solche Extrempositionen werden wir den Herausforderungen der Zukunft sicherlich nicht gerecht. Höchste Zeit für eine Versachlichung und für einen klärenden Beitrag zum Verwirrspiel "Klima".
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Groundwater recharge is the major limiting factor for the sustainable use of groundwater. To support water management in a globalized world, it is necessary to estimate, in a spatially resolved way, global-scale groundwater recharge. In this report, improved model estimates of diffuse groundwater recharge at the global-scale, with a spatial resolution of 0.5° by 0.5°, are presented. They are based on calculations of the global hydrological model WGHM (WaterGAP Global Hydrology Model) which, for semi-arid and arid areas of the globe, was tuned against independent point estimates of diffuse groundwater recharge. This has led to a decrease of estimated groundwater recharge under semi-arid and arid conditions as compared to the model results before tuning, and the new estimates are more similar to country level data on groundwater recharge. Using the improved model, the impact of climate change on groundwater recharge was simulated, applying two greenhouse gas emissions scenarios as interpreted by two different climate models.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
This paper provides global terrestrial surface balances of nitrogen (N) at a resolution of 0.5 by 0.5 degree for the years 1961, 1995 and 2050 as simulated by the model WaterGAP-N. The terms livestock N excretion (Nanm), synthetic N fertilizer (Nfert), atmospheric N deposition (Ndep) and biological N fixation (Nfix) are considered as input while N export by plant uptake (Nexp) and ammonia volatilization (Nvol) are taken into account as output terms. The different terms in the balance are compared to results of other global models and uncertainties are described. Total global surface N surplus increased from 161 Tg N yr-1 in 1961 to 230 Tg N yr-1 in 1995. Using assumptions for the scenario A1B of the Special Report on Emission Scenarios (SRES) of the International Panel on Climate Change (IPCC) as quantified by the IMAGE model, total global surface N surplus is estimated to be 229 Tg N yr-1 in 2050. However, the implementation of these scenario assumptions leads to negative surface balances in many agricultural areas on the globe, which indicates that the assumptions about N fertilizer use and crop production changes are not consistent. Recommendations are made on how to change the assumptions about N fertilizer use to receive a more consistent scenario, which would lead to higher N surpluses in 2050 as compared to 1995.
The Land and Water Development Division of the Food and Agriculture Organization of the United Nations and the Johann Wolfgang Goethe University, Frankfurt am Main, Germany, are cooperating in the development of a global irrigation-mapping facility. This report describes an update of the Digital Global Map of Irrigated Areas for the continent of Asia. For this update, an inventory of subnational irrigation statistics for the continent was compiled. The reference year for the statistics is 2000. Adding up the irrigated areas per country as documented in the report gives a total of 188.5 million ha for the entire continent. The total number of subnational units used in the inventory is 4 428. In order to distribute the irrigation statistics per subnational unit, digital spatial data layers and printed maps were used. Irrigation maps were derived from project reports, irrigation subsector studies, and books related to irrigation and drainage. These maps were digitized and compared with satellite images of many regions. In areas without spatial information on irrigated areas, additional information was used to locate areas where irrigation is likely, such as land-cover and land-use maps that indicate agricultural areas or areas with crops that are usually grown under irrigation. Contents 1. Working Report I: Generation of a map of administrative units compatible with statistics used to update the Digital Global Map of Irrigated Areas in Asia 2. Working Report II: The inventory of subnational irrigation statistics for the Asian part of the Digital Global Map of Irrigated Areas 3. Working Report III: Geospatial information used to locate irrigated areas within the subnational units in the Asian part of the Digital Global Map of Irrigated Areas 4. Working Report IV: Update of the Digital Global Map of Irrigated Areas in Asia, Results Maps
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Beiträge zur spät- und postglazialen Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben
(2005)
Die spät- und postglaziale Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben ist durch einen mehrmaligen Wandel der fluvialen Geomorphodynamik gekennzeichnet. Im Rahmen dieser Studie waren unterschiedliche Entwicklungsphasen der Landschaft mit Hilfe verschiedener Methoden (14C-AMS, IR-OSL, Pollen- und Schwermineralanalysen) erstmals präziser zu datieren. Ab dem Spätglazial entwickelte der nördliche Oberrhein drei Mäandergenerationen. Die Entstehung der Älteren Mäandergeneration setzte vor dem Spät-Allerød ein und dauerte bis in das Atlantikum an, ehe im späten Atlantikum ein flußdynamischer Umbruch die Bildung der Mittleren Mäandergeneration einleitete. Damit begann eine Phase mit vorwiegend toniger Auensedimentation („Schwarze Tone“). Es ist nicht auszuschließen, daß dieses Geschehen teilweise durch die Effekte neolithischer Landnutzung beeinflußt war. Auch der Umbruch zur Jüngsten Mäandergeneration im Übergang vom Subboreal zum Subatlantikum war sicherlich nicht rein klimatisch gesteuert. Wahrscheinlich ist das nun wieder stärker furkativ geprägte Fließmuster und die einhergehende Vergröberung der Auenfazies auf die Überlagerung von natürlichen Abläufen mit anthropogenen Beeinflussungen zurückzuführen. Dafür spricht, daß die Landschaft während der Eisen- und der Römerzeit weitgehend entwaldet war. Die parallel dazu durchgeführten Untersuchungen am spätglazialen Bergstraßen-Neckar erlauben die zeitliche Trennung eines älteren Mäanderkurses, der in der Jüngeren Dryas verlandete, von einem jungdryaszeitlichen Verlauf. In der Paläorinne dieses jüngsten Laufes setzte im frühen Präboreal das Wachstum von Niedermootorfen ein. Das dokumentiert, daß der Bergstraßen-Neckar spätestens im beginnenden Holozän vollständig deaktiviert war. Die Abschnürung des Bergstraßenlaufes erfolgte vermutlich im Anschluß an die letzte würmzeitliche Flugsandphase, die nach schwermineralogischen und tephrostratigraphischen Befunden im Untersuchungsgebiet in die Jüngere Dryas zu stellen ist. Dabei wurde das auf der Oberen Niederterrasse existierende, endpleni- bis frühspätglaziale, zwischenzeitlich vom Bergstraßen-Neckar teilweise fluvial umgelagerte, ältere Dünenrelief überweht, während auf der Unteren Niederterrasse lokale Dünenvorkommen entstanden. Möglicherweise dauerte die Flugsandbildung örtlich bis in das früheste Präboreal an, bevor in den späteren Zeiten des Holozän ein anthropogen induziertes Aufleben der Flugsandaktivität zu beobachten ist.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.