550 Geowissenschaften
Refine
Year of publication
Document Type
- Article (902)
- Doctoral Thesis (194)
- Contribution to a Periodical (32)
- Book (26)
- Working Paper (22)
- Part of Periodical (21)
- Conference Proceeding (18)
- Part of a Book (9)
- Diploma Thesis (8)
- diplomthesis (7)
Language
Has Fulltext
- yes (1263) (remove)
Keywords
- climate change (11)
- Klima (8)
- Climate change (7)
- Klimaänderung (7)
- Modellierung (7)
- COSMO-CLM (6)
- Klimawandel (6)
- Palaeoclimate (6)
- precipitation (6)
- Atmospheric chemistry (5)
Institute
- Geowissenschaften (776)
- Geowissenschaften / Geographie (144)
- Biodiversität und Klima Forschungszentrum (BiK-F) (62)
- Geographie (59)
- Senckenbergische Naturforschende Gesellschaft (56)
- Präsidium (44)
- Extern (28)
- Biowissenschaften (22)
- Institut für Ökologie, Evolution und Diversität (10)
- Physik (8)
Ca-Silikate als natürliche Einschlüsse in Diamanten sind so extrem selten und bislang wenig untersucht, daß der Weg, sie synthetisch herzustellen, um entsprechende Analysen durchführen zu können, gerechtfertigt wird. Um die Veränderungen über einen großen Druckbereich bis zu Bedingungen, die dem Unteren Erdmantel entsprechen, durchführen zu können, wurde ein neues Hochdrucklabor mit einer Multi-Anvil-Presse aufgebaut. In dieses Labor sind viele Erfahrungen aus eigenen Experimenten und aus anderen Arbeitsgruppen eingeflossen, sodaß eine leistungsfähige Hochdruckanlage zur Verfügung steht. Kernstück dieses Hochdrucksystems ist der innere Hochdruckaufbau, wobei nicht ein bereits etablierter Hochdruckaufbau kopiert, sondern - durch das Integrieren der Vorzüge von unterschiedlichen Systemen - ein eigenständiger Hochdruckaufbau entwickelt wurde. Das System ist für weitere Ausbaumöglichkeiten vorbereitet, sodaß z. B. großvolumige Kapseln zusammen mit den Ceramcast-Oktaedern bis 80 kbar eingesetzt werden können, bzw. der maximale Druckbereich mit einem 10/4 mm Aufbau bis über 200 kbar ausgeweitet werden kann. Die Untersuchung der Reaktionskinetik an den Ca-Silikatphasen stellt eine besondere Herausforderung dar. Aus vorangegangenen Experimenten und Untersuchungen ist die "nicht Quenchbarkeit" von Ca-Perovskit und die Amorphisierung von Ca-Walstromit bekannt, sodaß sich die Untersuchungen mittels der herkömmlichen Hochdruckmethoden für diese Fragestellung als nachteilig erweisen. Dank der Zusammenarbeit mit dem "Material Science Laboratory" am Synchrotron in Daresbury bot sich die Möglichkeit, in situ Hochdruckexperimente an den Ca-Silikatphasen durchzuführen. Es stand nur eine begrenzte Entwicklungszeit zur Verfügung, um die neuartige "fine-to-fine" Geometrie zu entwickeln und zu erproben. Mit diesem Hochdruckaufbau ist es gelungen, in situ Hochdruckexperimente bei bis zu 150 kbar und 1400°C durchzuführen und dabei Ca-Perovskit zu kristallisieren. Mit den kleineren 10mm MgO-Oktaedern und 5 bzw. 4 mm Truncation an den Wolframcarbid-Würfeln sind sogar bei gleicher Geometrie noch höhere Drücke realisierbar. Die Beobachtungen an den durchgeführten Experimente ermöglicht eine Aussage zur Reaktionskinetik der Phasenumwandlung bei Ca-Silikaten. Die Disproportionsreaktion von Ca-Perovskit zu den zwei Phasen Larnit und Si-Titanit läuft sehr rasch ab, wo hingegen die Rekombinationsreaktion dieser beiden Phasen zu Ca-Walstromit kinetisch gehemmt und innerhalb von Stunden keine Umwandlung beobachtet werden konnte. Darüber hinaus bestätigen die eigenen Experimente ein Einsetzen der Amorphisierung von Ca-Perovskit bei Drücken unterhalb von 10 kbar. Eine Amorphisierung von Ca-Walstromit wurde auch nach vollständiger Druckentlastung nicht beobachtet. Werden die Beobachtungen der kinetischen Experimente der Phasenumwandlung an Ca-Silikaten auf die natürlichen Bedingungen bei der Diamantentstehung und deren Aufstiegspfad übertragen, spricht dies für ein Modell des raschen Aufstiegs aus dem Unteren Mantel bzw. der Übergangszone und einem Steckenbleiben im Oberen Mantel bei moderaten Drücken. Der Weg an die Erdoberfläche findet dann zu einem späteren Zeitpunkt ebenfalls mit schnellen Aufstiegsgeschwindigkeiten statt. Die Ergebnisse der Löslichkeits-Hochdruckexperimente von Kalium und Phosphor bestätigen die Beobachtungen, die an den natürlichen Ca-Silikateinschlüssen gemacht wurden. In dem Zweiphasenfeld, in dem Larnit zusammen mit Si-Titanit koexsistiert, hebt sich vor allem die sehr hohe Löslichkeit von Kalium und Phosphor hervor. Zwar wurde bereits in den natürlichen Einschlüssen ein auffallend hoher Gehalt dieser Elemente beobacht, die Experimente zur maximalen Löslichkeit zeigen jedoch, daß sich weitaus höhere Gehalte im Larnit lösen können. Für diese Phase trifft die gekoppelte Substitution von Kalium und Phosphor gegen Calcium und Silicium im Verhältnis 1 : 1 zu. Interessant ist zudem die offenbare Druckhabhängigkeit der Löslichkeit in Larnit. Für eine geobarometrische Anwendung dieses Druckeffekts ist das Stabilitätsfeld mit nur 20 kbar relativ schmal, so daß der Druckgradient gering ist. Die Titanit-Struktur erweist sich im Gegensatz dazu als nicht kompatibel für diese Elemente. In Si-Titanit werden nur extrem geringe Gehalte an Kalium und Phosphor eingebaut. In den natürlichen Einschlüssen wurden gleichermaßen geringe Gehalte nachgewiesen. Damit kann vom Erreichen der maximalen Löslichkeit in den natürlichen Proben ausgegangen werden. Als potentieller Träger von Kalium und Phosphor in der Übergangszone ist die Phase Larnit. Sie kann sehr hohe Gehalte dieser Elemente aufnehmen, mit steigendem Druck nimmt die Löslichkeit jedoch ab. Direkte Messungen der Löslichkeit an Ca-Perovskit liegen bislang nicht vor. Die Experimente an der unteren Stabilitätsgrenze zeigen sehr geringe Gehalte an Kalium und Phosphor. Eine Substitution in dieser sehr dichten Struktur findet nicht statt. Die geringe Löslichkeit in Ca-Perovskit entspricht nicht dem erwarteten Ergebnis. Diese Phase galt bislang als möglicher Träger von Kalium und Phosphor im Unteren Mantel. Wenn davon ausgegangen wird, daß Einschlüsse, in denen Larnit und Si-Titanit nachgewiesen werden, möglicherweise ehemals Ca-Perovskit gewesen sind und damit eine Herkunft aus dem Unteren Mantel haben, so sprechen die hohen Gehalte an Kalium und Phosphor in Larnit gegen diese Annahme. Ein Einschluß, der als Ca-Perovskit im Unteren Mantel kristallisiert ist, kann nicht die großen Mengen an Kalium und Phosphor einbauen, wie sie dann im Larnit als direkte Umwandlungsphase nachgewiesen werden. Möglicherweise sind Einschlüsse, die hohe Gehalte an Kalium und Phosphor zeigen, in dem Zweiphasenstabilitätsfeld Larnit/Si-Titanit kristallisiert, und ein Hinweis darauf, daß sie kein Disproportionsprodukt aus vormaligem Ca-Perovskit sind. Bislang ungeklärt bleibt die Frage, ob mit höherem Druck die Löslichkeit von Kalium und Phosphor in Ca-Perovskit zunimmt. Wenn eine Druckabhängigkeit der Löslichkeit vorliegt, würde dies dafür sprechen, daß die Diamanten mit Ca-Perovskit-Einschlüssen aus dem Unteren Mantel stammen und nicht aus der Übergangszone. Die Annahme der Herkunft dieser speziellen Diamantparagenese aus dem Unteren Mantel wird auch durch das Auftreten von Ferro-Periklas und Stichovit zusammen mit Ca-Perovskit im gleichen Diamantkristall bekräftigt. Zukünftige Experimente bei höheren Drücken könnten die Frage klären, ob bei einer Druckerhöhung eine Zunahme der Löslichkeit in Ca-Perovskit beobachtet wird. Eine beachtliche Zunahme der Löslichkeit mit dem Druck würde das Modell der Herkunft der Ca-Silikateinschlüsse aus dem Unteren Mantel stützen. Die Löslichkeit von Kalium und Phosphor in Ca-Walstromit zeigt sowohl in den natürlichen Einschlüssen als auch in den Experimenten mittlere Gehalte dieser Elemente an. Abweichend von den Beobachtungen in den Einschlüssen ist jedoch der erhöhte Kaliumgehalt, der nicht den erwarteten stöchiometrischen Austausch von 1 : 1 wiedergibt. Untersuchungen an natürlichen Ca-Walstromit als Einschlüsse in Diamanten werden zukünftig von besonderem Interesse sein, da diese Einschlüsse entsprechend häufiger auftreten und als Probenmaterial vorliegen. Weitere Experimente im Ca-Walstromit-Stabilitätsfeld mit unterschiedlichen Gehalten an Spurenelementen und entsprechenden Strukturuntersuchungen können die Frage der Stabilität bzw. der Amorphisierung klären. Ein unmittelbares Amorphisieren von Ca-Walstromit nach der Druckentlastung wird nicht beobachtet und auch die energiereiche Strahlung der Mikrosonde bzw. des Synchrotrons hat keine Amorphisierung zur Folge. Beim Bestrahlen mit der sehr energiereichen Strahlung bei den TEM-Untersuchungen zeigt sich jedoch, daß Ca-Walstromit nicht sehr stabil ist und innerhalb weniger Minuten amorphisiert. Die TEM-Untersuchungen weisen auf mögliche Polymorphe von Ca-Walstromit hin. Wenn sich unterschiedliche Polymorphe nachweisen lassen, ist von abweichenden Löslichkeiten und unter Umständen anderen Einbaumechanismen in den Phasen auszugehen.
One possible approach to study systematically the influence of the deformation regime on the geometry of geological structures like folds and boudins is analogue modelling. For a complete understanding of the resulting structures, consideration of the third dimension is required. This PhD study deals with scaled analogue modelling under constriction and plane-strain conditions to improve our knowledge of folding and boudinage of lower crustal rocks in space and time. Plasticine is an appropriate analogue material for rocks in the lower crust. Therefore, this material was used for the experiments. The macroscopic behaviour of most types of plasticine is quite similar to rocks undergoing strain-rate softening and strain hardening regardless of the different microscopic aspects of deformation. Therefore, if one is aware that the stress exponent and viscosity increase with increasing strain, the original plasticine types used with stress exponents ranging from 5.8 to 8.0 are adequate for modelling geologic structures. The same holds for plasticine/oil mixtures. Thus, plasticine and plasticine/oil mixtures can be used to model the viscous flow of different rock types in the lower crust. If climb-accommodated dislocation creep and associated steady-state flow is assumed for the natural rocks, the plasticine/oil mixtures should be used, which flow under steady-state conditions. Three different experimental studies of plane-strain coaxial deformation of stiff layers, with viscosity η2 and stress exponent n2, embedded in a weak matrix, with viscosity η1 and stress exponent n1, have been carried out. The undeformed samples (matrix plus layer) were cubes with an edge length of 12 cm. All experimental runs have been carried out at T = 25 ± 1°C and varying strain rates ė, ranging from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1, until a finite longitudinal strain of 30% – 40% was achieved. The first experimental study improved the understanding about the evolution of folds and boudins when the layer is oriented perpendicular to the Y-axis of the finite strain ellipsoid. The rock analogues used were Beck’s green plasticine (matrix) and Beck’s black plasticine (competent layer), both of which are strain-rate softening modelling materials with stress exponent n = ca. 8. The effective viscosity η of the matrix plasticine was changed by adding different amounts of oil to the original plasticine. At a strain rate ė of 10 high -3 s high -1 and a finite strain e of 10%, the effective viscosity of the matrix ranges from 1.2 x 10 high 6 to 7.2 x 10 high 6 Pa s. The effective viscosity of the competent layer has been determined as 4.2 x 10 high 7 Pa s. If the viscosity ratio is large (> ca. 20) and the initial thickness of the competent layer is small, both folds and boudins develop simultaneously. Although the growth rate of the folds seems to be higher than the growth rate of the boudins, the wavelength of both structures is approximately the same as is suggested by analytical solutions. A further unexpected, but characteristic, aspect of the deformed competent layer is a significant increase in thickness, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. In the second experimental study, the impact of varying strain rates on growing folds and boudins under plane strain have been investigated. The strain rates used range from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1. The stiff layer and matrix consist of non-linear viscous Kolb grey and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials with power law exponents (n) and apparent viscosities (η) ranging from 6.5 to 7.9 and 8.5 x 10 high 6 to 7.2 x 10 high 6 Pa s, respectively. The effective viscosity (η) of the matrix plasticine was partly modified by adding oil to the original plasticine. At the strain rates used in the experiments the viscosity ratio between layer and matrix ranges between 3 and 10. Different runs have been carried out where the layer was oriented perpendicular to the principal strain axes (X>Y>Z). The results suggest a considerable influence of the strain rate on the geometry of the deformed stiff layer including its thickness. This holds for every type of layer orientation (S ┴ X, S ┴ Y, S ┴ Z). If the stiff layer is oriented perpendicular to the short axis Z of the finite strain ellipsoid, the number of the resulting boudins and the thickness of the stiff layer increase, whereas the length of boudins decreases with increasing strain rate. If the stiff layer is oriented perpendicular to the long axis, X, of the finite strain ellipsoid, enlargement of the strain rate results in increasing wavelength of folds, whereas the number of folds and the degree of thickening of the stiff layer decreased. If the stiff layer is oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid enlargement of the strain rate results in a decreasing number of boudins and folds associated with increasing wavelengths of both structures. The wavelength of folds is approximately half of the boudins wavelength. This is true for the case where folds and boudins develop simultaneously (S ┴ Y) and for cases where both structures develop independently (folds at S ┴ X and boudins at S ┴ Z). In the third experimental study, scaled analogue experiments have been carried out to demonstrate the growth of plane-strain folds and boudins through space and time. Previous 3D-studies are based only on finite deformation structures. Their results can therefore not be used to prove if both structures grew simultaneously or in sequence. Plane strain acted on a single stiff layer that was embedded in a weak matrix, with the layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. Two different experimental runs have been carried out using computer tomography (CT) to analyse the results. The first run was carried out without interruption. During the second run, the deformation was stopped in each case at longitudinal strain increments of 10%. Every experiment was carried out at a temperature T of 25°C and a strain rate, ė, of ca. 4 x 10 high -3 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 18.6 between the non-linear viscous layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine with 150 ml oil kg high -1). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 1.2 x 10 high 6 Pa s and 10.5. These new data that result from incremental analogue modelling corroborate previous suggestions that folds and boudins are coeval structures in cases of plane-strain coaxial deformation with the stiff layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. They will be of interest for all workers who are dealing with plane-strain boudins and folds, where the fold axes are parallel to the major axis (X) of the finite strain ellipsoid. As has been demonstrated by the first experimental study, coeval folding and boudinage under plane strain, with S ┴ Y, are associated with a significant increase in the thickness of the competent layer. The latter phenomenon does not occur in other cases of simultaneous folding and boudinage, such as bulk pure constriction. To study the impact of layer thickness on the geometry of folds and boudins under pure constriction, we carried out additional experiments using different types of plasticine for a stiff layer and a weaker matrix to model folding and boudinaging under pure constriction, with the initially planar layer oriented parallel to the Xaxis of the finite strain ellipsoid. The stiff layer and matrix consist of non-linear viscous Kolb brown and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials. Six runs have been carried out using thicknesses of the stiff layer of 1, 2, 4, 6, 8 and 10 ± 0.2 mm. All experimental runs were carried out at a temperature T of 30 ± 2°C and a strain rate, ė, of ca. 1.1 x 10 high -4 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 3.1 between the stiff layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 7.2 x 10 high 6 Pa s and 7.9. Our results suggest a considerable influence of the initial thickness of the stiff layer on the geometry of the deformed stiff layer. There is no evidence for folding in XY=XZ-sections if the initial thickness of the competent layer is larger than ca. 8 mm. If the initial thickness of the competent layer is set at ca. 10 ± 0.2 mm, both folds and boudins develop simultaneously. However, the growth rate of the boudins seems to be higher than the growth rate of the folds. A further expected, but characteristic, aspect of the deformed competent layer is no change in thickness of the competent layer, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. The model results are important for the analysis and interpretation of deformation structures in rheologically stratified rocks undergoing dislocation creep under bulk constriction. Tectonic settings where constrictional folds and boudins may develop simultaneously are stems of salt diapirs, subduction zones or thermal plumes. To make (paleo) viscosimetric statements possible, the rheological data of the different plasticine types were related to the geometrical data. When comparing the normalized dominant wavelength Wd obtained from the deformed layer of the models with the theoretical dominant wavelength (Ld) calculated using the Smith equation (1977, 1979), the latter probably also holds when folding and boudinage develop simultaneously (S ┴ Y) and when boudins develop independently (S ┴ Z), but can obviously not be applied at very low viscosity ratios as is indicated by the low-strain-rate experiments.
Die Revolutionen des Meeres
(1843)
The present work was devised to address the systematic analysis of samples from a range of Roman non-ferrous metal artefacts from different archaeological contexts and sites in the Roman provinces of Germania Superior. One of the focal points of this study is the provenancing of different lead objects from five important Roman settlements between 15 BC and the beginning of fourth century AD. For this purpose, measurements were made on lead and copper ore samples from the Siegerland, Eifel, Hunsrück and Lahn-Dill area in Germany and supplemented with data from the literature to create a data bank of lead isotope ratios of European deposits. Compositional analysis of lead objects by Electron Microprobe analysis showed that Romans were able to purify lead from ore up to 99%. Multi-Collector Inductively Coupled Plasma Mass-Spectrometry was used to determine the source of lead, which played an important role in nearly all aspects of Roman life. Lead isotope ratios were measured for ore samples from German deposits from the eastern side of the Rhine (Siegerland, Lahn-Dill, Ems) and the western side of the Rhine (Eifel, Hunsrück), which contained enough ore reserves to answer the increasing local demand and are believed to have been mined during the Roman period. This data together with those from Mediterranean ore deposits from the literature was used to establish a data bank. The Mediterranean ore deposits range from Cambrian (high 207Pb/206Pb) to tertiary (lower 207Pb/206Pb) values. In particular, the Cypriot deposits are younger, while the Spanish deposits fall either with the younger Sardic ores or close to the older Cypriot ores. The lead isotope ratios of most German ore deposits fall in between the 208Pb/206Pb vs. 207Pb/206Pb ratios of Sardinia and Cyprus, where the lead isotope signature of ore deposits from France and Britain are also found. Over 240 lead objects were measured from Wallendorf (second century BC to first century AD) Dangstetten (15-8 BC), Waldgirmes (AD 1-10), Mainz (AD 1-300), Martberg (first to fourth centuries AD) & Trier (third to fourth centuries AD). Comparing the lead isotope ratios of lead objects and those from German ores shows that the source of over 85 percent of objects are Eifel ore deposits, but the Roman’s had also imported lead from the Southern Massif Central and from Great Britain. A further topic of this work was the systematic study of the variation of copper isotope ratios in different copper minerals and the mechanisms, which controls copper isotope fractionation in ores deposits. For this purpose, copper isotope analyses were made by Multi-Collector Inductively Coupled Plasma Mass-Spectrometry from a series of hydrothermal copper sulphides and their alteration products. Copper and lead isotope ratios were measured in coexisting phases of chalcopyrite and malachite and also coexisting malachite and azurite. No significant fractionation was observed in malachite-azurite phases, but in chalcopyrite-malachite coexisting phases, malachite always shows a positive fractionation to heavier isotope values. Zhu et al. and Larson et al. showed that isotopic variations in copper principally reflect mass fractionation in response to low temperature processes rather than source heterogeneity. The low temperature ore formation processes are mostly represented by weathering of primary sulphide ores to produce secondary carbonate phases and therefore are usually observed on the surface of ore deposits, which were probably removed during the early Bronze Age. Using this concept, copper isotope ratios were measured in some Early Bronze Age copper alloys and Roman copper alloys. However, no large copper isotope fractionation has been observed. Lead and copper isotope ratios were measured on samples from the Kupferschiefer. Two profiles were investigated; 1) Sangerhausen, which was not directly influenced by the oxidizing brines of Rote Fäule and 2) Oberkatz, where both Rote Fäule-controlled and structure-controlled mineralization were observed. Results from maturation studies of organic matter suggest the maximum temperature affecting the Kupferschiefer did not exceed 130°C. delta-65-Cu ranges between -0.78-+0.58‰, shows a positive correlation with copper concentration. Maximum temperature in the Kupferschiefer profile from Oberkatz is supposed to be around 150°C. delta-65Cu in this profile ranges between -0.71-+0.68‰. The pattern of copper isotope fractionation and copper concentration is same as the for profile of Sangerhausen. Origina lead isotope ratios are strongly overprinted by high concentrations of uranium in bottom of both profiles causing more radiogenic lead.
In Ostkreta tritt innerhalb der Phyllit-Quarzit-Serie ein in vier Einheiten untergliederbares präalpidisches Altkristallin auf. Das basale Kalavros-Kristallin (KCC) wurde während der permischen (Monazitalter) Barrow-Metamorphose (Staurolith-Zone) überprägt. Unter amphibolitfaziellen Metamorphosebedingungen bildeten sich liegende Isoklinalfalten sowie eine mylonitische Foliation. Die Verteilung der -c-Achsen von Quarzen belegt non-koaxiale Deformation durch Rhomben<a>- und Prismen<a>Gleitung, die sich in einer hochtemperierten Grenzflächenwanderung (GBM) äußerte. Zudem wuchsen vierphasige Granate, in denen die äußerste Zone auf einen nochmaligen Druckanstieg hindeutet. Die Granate wurden wiederum von Muskoviten, die aus einer Deformation mit Top-E- bis Top-NE-Scherung resultierten, überwachsen. Das überlagernde Myrsini-Kristallin (MCC) besteht aus Glimmerschiefern, Gneisen, Quarziten und Marmoren. Die Liefergebiete der Paragesteine (Zirkonaltersspektrum eines Paragneises) weisen Einflüsse der amazonischen- (2,8 Ga), eburnischen- (1,9 Ga), kibaran/sunsasischen- (0,9 - 1,1 Ga) und panafrikanischen- (0,9 - 0,5 Ga) Orogenese auf. Im Mittelkambrium intrudierten Granite in die sedimentären/kristallinen Gesteine (514 ±14 Ma zrn & 507 ±189 Ma mnz). Während des Unterkarbons (Monazitalter) fand eine Barrow-Metamorphose (Staurolith-Zone) mit non-koaxialer Top-N-Scherung statt. Hierbei bildeten sich geschlossene, liegende Falten sowie eine mylonitische Foliation. Die Quarz-c-Achsen belegen non-koaxiale Rhomben<a>- bis Prismen<a>Gleitung, die sich in Subkornrotations-Rekristallisation (SGR) und hochtemperierter Korngrenzwanderungs-Rekristallisation (GBM) äußerte. Im Gegensatz zu den Granaten des KCC bildeten sich nur dreiphasige Granate. Während des retrograden variszischen Deformationspfades entstanden Top-NE-Scherzonen. Der bis in die Unterkreide anhaltende Aufstieg der Gesteine wird von Zirkon-Spaltspurenaltern (150 ±14 Ma) dokumentiert. Das hangende Chamezí-Kristallin (CCC) besteht aus Gneisen und Glimmerschiefern. Auch hier intrudierten im Mittelkambrium (S-Typ-)Granite (511 ±16 Ma zrn & 521 ±28 Ma mnz). Relikte einer prävariszischen Orogenese stellen die Granatkerne und Margarite in den Glimmerschiefern dar. Das Alter der Barrow-Metamorphose (Granat-Zone) mit Top-N-Scherung konnte mangels geeigneter Minerale nicht bestimmt werden. Die Verteilung der Quarz-c-Achsen resultiert aus einer non-koaxialen Deformation bei der überwiegend Basis<a>- und Rhomben<a>Gleitung mit Subkornrotations-Rekristallisation (SGR) auftrat. Es bildete sich eine protomylonitische Foliation sowie liegende offene N-S Falten, die anschließend mehrphasig überprägt wurden. Für einen langsamen Aufstieg der Gesteine sprechen die semiduktilen Top-NE-Scherzonen und jurassischen Zirkon-Spaltspurenalter (158 ±16 Ma). Eine unbekannte Position innerhalb des Altkristallins nimmt das Vaí-Kristallin (VCC) ein. Während der Trias intrudierten hier granitoide Gesteine (223 ±11Ma zrn). Eine spätere amphibolitfazielle Überprägung zeigt Top-NW-Scherung. Der schnelle Aufstieg der Gesteine wird durch jurassische Zirkon-Spaltspurenalter dokumentiert (184 ±11 Ma). Die Kristallingerölle der hangenden skythischen Metakalkkonglomerate können auf Grund der permischen bis triassischen Metamorphose der kretischen Altkristalline, der triassischen Intrusion der Granite des Vaí-Kristallins sowie den jurassischen Zirkon-Spaltspurenaltern nicht aus der unterlagernden Altkristallin-Einheit stammen. Der Kontakt zwischen dem Altkristallin und dem Metakalkkonglomerat ist somit das Ergebnis der alpidischen Orogenese. Auch die Zirkone, Monazite und Rutile wurden von der Niedertemperatur/Hochdruck-Metamorphose der alpidischen Orogenese beeinflusst. Vor allem die Zirkone des Chamezí-Orthogneises zeigen einen Pb- und vermutlich auch einen U-Verlust sowie einen Austausch von radiogenem Pb durch rezentes Pb. Dieser niedergradige Fluidtransport äußerte sich zudem in einem Lösen der Zirkone sowie einer zerstörten Zirkonstruktur. Gleichzeitig fand ein Einbau von Ca2+, Mn2+ und Mg2+ statt, der von den Ca-reichen Fluiden, die auf Grund der Karbonat-reichen Deckenstapel auftraten, forciert wurde. Keinen Einfluss auf den Blei-Verlust der Zirkone zeigt dagegen die amphibolit- bis grünschieferfazielle präalpidische Überprägung. Auf Grund der Altersspektren der Zirkone sowie der tektonischen Transportrichtungen werden die Kristallinkomplexe als Fragmente von Gondwana interpretiert. Im Rahmen der spät-panafrikanischen Metamorphose und Deformation erfolgte der Aufstieg der Plutonite, an die sich eine Riftingphase anschließt, während der sich die Fragmente abspalteten. Im Karbon bis Perm kollidierten unter Top-N-Kinematik das MCC, CCC und KCC mit Gondwana. In der Trias erfolgte letztlich der Aufstieg der Plutonite des VCC und dessen anschließende Überprägung. Die Heraushebung der Gesteine erfolgte im Jura.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
This is a short movie about the research project No. 297 41 132 of the German Federal Environmental Agency. It is comissioned by the German Ministry for the Environment, Nature Conservation and Nuclear Safety and the German Federal Environmental Agency, Division II 6.2.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Chlorine monoxide (ClO) plays a key role in stratospheric ozone loss processes at midlatitudes. We present two balloonborne in situ measurements of ClO conducted in northern hemisphere midlatitudes during the period of the maximum of total inorganic chlorine loading in the atmosphere. Both ClO measurements were conducted on board the TRIPLE balloon payload, launched in November 1996 in Le´on, Spain, and in May 1999 in Aire sur l’Adour, France. For both flights a ClO daylight and night time vertical profile could be derived over an altitude range of approximately 15–31 km. ClO mixing ratios are compared to model simulations performed with the photochemical box model version of the Chemical Lagrangian Model of the Stratosphere (CLaMS). Simulations along 24-h backward trajectories were performed to study the diurnal variation of ClO in the midlatitude lower stratosphere. Model simulations for the flight launched in Aire sur l’Adour 1999 show a good agreement with the ClO measurements. For the flight launched in Le´on 1996, a similar good agreement is found, except at around ~ 650 K potential temperature (~26km altitude). However, a tendency is found that for solar zenith angles greater than 86°–87° the simulated ClO mixing ratios substantially overestimate measured ClO by approximately a factor of 2.5 or more for both flights. Therefore we conclude that no indication can be deduced from the presented ClO measurements that substantial uncertainties exist in midlatitude chlorine chemistry of the stratosphere. An exception is the situation at solar zenith angles greater than 86°–87° where model simulations substantial overestimate ClO observations.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Wenn sich beim Klimagipfel in Den Haag [genauer bei der nun schon 6. Vertragstaatenkonferenz zur Klimaschutzkonvention der Vereinten Nationen] nun wieder die Delegationen aus fast allen Staaten der Welt treffen, um über Klimaschutzmaßnahmen zu beraten, dann schwingt auch immer die Frage mit: Sind solche Maßnahmen wirklich notwendig? Sollen wir nicht einfach warten, bis wir mehr, ja vielleicht alles wissen? ...
Die Zunahme der Konzentration von CO2 und anderen "Treibhausgasen" in der Atmosphäre ist unzweifelhaft, und ebenso unzweifelhaft reagiert das Klima darauf. Christian-Dietrich Schönwiese, Professor für Meteorologische Umweltforschung und Klimatologie an der Universität Frankfurt am Main, sieht dringenden politischen Handlungsbedarf und plädiert gleichzeitig dafür, die Debatte rund um den Klimaschutz zu versachlichen.
Die öffentliche Klimadebatte scheint sich zu verselbständigen. Abgehoben von den Erkenntnissen der Fachwissenschaftler reden die einen von der "Klimakatastrophe", die uns demnächst mit voller Wucht treffen wird, wenn wir nicht sofort alles ganz anders machen; Panik ist ihnen das rechte Mittel, Aufmerksamkeit zu erregen. Die anderen sehen im "Klimaschwindel" einen Vorwand für Forschungsgelder und zusätzliche Steuerbelastung der Wirtschaft; ihre Strategie ist Verwirrung und Verharmlosung. Mit der Fixierung auf solche Extrempositionen werden wir den Herausforderungen der Zukunft sicherlich nicht gerecht. Höchste Zeit für eine Versachlichung und für einen klärenden Beitrag zum Verwirrspiel "Klima".
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Groundwater recharge is the major limiting factor for the sustainable use of groundwater. To support water management in a globalized world, it is necessary to estimate, in a spatially resolved way, global-scale groundwater recharge. In this report, improved model estimates of diffuse groundwater recharge at the global-scale, with a spatial resolution of 0.5° by 0.5°, are presented. They are based on calculations of the global hydrological model WGHM (WaterGAP Global Hydrology Model) which, for semi-arid and arid areas of the globe, was tuned against independent point estimates of diffuse groundwater recharge. This has led to a decrease of estimated groundwater recharge under semi-arid and arid conditions as compared to the model results before tuning, and the new estimates are more similar to country level data on groundwater recharge. Using the improved model, the impact of climate change on groundwater recharge was simulated, applying two greenhouse gas emissions scenarios as interpreted by two different climate models.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
This paper provides global terrestrial surface balances of nitrogen (N) at a resolution of 0.5 by 0.5 degree for the years 1961, 1995 and 2050 as simulated by the model WaterGAP-N. The terms livestock N excretion (Nanm), synthetic N fertilizer (Nfert), atmospheric N deposition (Ndep) and biological N fixation (Nfix) are considered as input while N export by plant uptake (Nexp) and ammonia volatilization (Nvol) are taken into account as output terms. The different terms in the balance are compared to results of other global models and uncertainties are described. Total global surface N surplus increased from 161 Tg N yr-1 in 1961 to 230 Tg N yr-1 in 1995. Using assumptions for the scenario A1B of the Special Report on Emission Scenarios (SRES) of the International Panel on Climate Change (IPCC) as quantified by the IMAGE model, total global surface N surplus is estimated to be 229 Tg N yr-1 in 2050. However, the implementation of these scenario assumptions leads to negative surface balances in many agricultural areas on the globe, which indicates that the assumptions about N fertilizer use and crop production changes are not consistent. Recommendations are made on how to change the assumptions about N fertilizer use to receive a more consistent scenario, which would lead to higher N surpluses in 2050 as compared to 1995.
The Land and Water Development Division of the Food and Agriculture Organization of the United Nations and the Johann Wolfgang Goethe University, Frankfurt am Main, Germany, are cooperating in the development of a global irrigation-mapping facility. This report describes an update of the Digital Global Map of Irrigated Areas for the continent of Asia. For this update, an inventory of subnational irrigation statistics for the continent was compiled. The reference year for the statistics is 2000. Adding up the irrigated areas per country as documented in the report gives a total of 188.5 million ha for the entire continent. The total number of subnational units used in the inventory is 4 428. In order to distribute the irrigation statistics per subnational unit, digital spatial data layers and printed maps were used. Irrigation maps were derived from project reports, irrigation subsector studies, and books related to irrigation and drainage. These maps were digitized and compared with satellite images of many regions. In areas without spatial information on irrigated areas, additional information was used to locate areas where irrigation is likely, such as land-cover and land-use maps that indicate agricultural areas or areas with crops that are usually grown under irrigation. Contents 1. Working Report I: Generation of a map of administrative units compatible with statistics used to update the Digital Global Map of Irrigated Areas in Asia 2. Working Report II: The inventory of subnational irrigation statistics for the Asian part of the Digital Global Map of Irrigated Areas 3. Working Report III: Geospatial information used to locate irrigated areas within the subnational units in the Asian part of the Digital Global Map of Irrigated Areas 4. Working Report IV: Update of the Digital Global Map of Irrigated Areas in Asia, Results Maps
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Beiträge zur spät- und postglazialen Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben
(2005)
Die spät- und postglaziale Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben ist durch einen mehrmaligen Wandel der fluvialen Geomorphodynamik gekennzeichnet. Im Rahmen dieser Studie waren unterschiedliche Entwicklungsphasen der Landschaft mit Hilfe verschiedener Methoden (14C-AMS, IR-OSL, Pollen- und Schwermineralanalysen) erstmals präziser zu datieren. Ab dem Spätglazial entwickelte der nördliche Oberrhein drei Mäandergenerationen. Die Entstehung der Älteren Mäandergeneration setzte vor dem Spät-Allerød ein und dauerte bis in das Atlantikum an, ehe im späten Atlantikum ein flußdynamischer Umbruch die Bildung der Mittleren Mäandergeneration einleitete. Damit begann eine Phase mit vorwiegend toniger Auensedimentation („Schwarze Tone“). Es ist nicht auszuschließen, daß dieses Geschehen teilweise durch die Effekte neolithischer Landnutzung beeinflußt war. Auch der Umbruch zur Jüngsten Mäandergeneration im Übergang vom Subboreal zum Subatlantikum war sicherlich nicht rein klimatisch gesteuert. Wahrscheinlich ist das nun wieder stärker furkativ geprägte Fließmuster und die einhergehende Vergröberung der Auenfazies auf die Überlagerung von natürlichen Abläufen mit anthropogenen Beeinflussungen zurückzuführen. Dafür spricht, daß die Landschaft während der Eisen- und der Römerzeit weitgehend entwaldet war. Die parallel dazu durchgeführten Untersuchungen am spätglazialen Bergstraßen-Neckar erlauben die zeitliche Trennung eines älteren Mäanderkurses, der in der Jüngeren Dryas verlandete, von einem jungdryaszeitlichen Verlauf. In der Paläorinne dieses jüngsten Laufes setzte im frühen Präboreal das Wachstum von Niedermootorfen ein. Das dokumentiert, daß der Bergstraßen-Neckar spätestens im beginnenden Holozän vollständig deaktiviert war. Die Abschnürung des Bergstraßenlaufes erfolgte vermutlich im Anschluß an die letzte würmzeitliche Flugsandphase, die nach schwermineralogischen und tephrostratigraphischen Befunden im Untersuchungsgebiet in die Jüngere Dryas zu stellen ist. Dabei wurde das auf der Oberen Niederterrasse existierende, endpleni- bis frühspätglaziale, zwischenzeitlich vom Bergstraßen-Neckar teilweise fluvial umgelagerte, ältere Dünenrelief überweht, während auf der Unteren Niederterrasse lokale Dünenvorkommen entstanden. Möglicherweise dauerte die Flugsandbildung örtlich bis in das früheste Präboreal an, bevor in den späteren Zeiten des Holozän ein anthropogen induziertes Aufleben der Flugsandaktivität zu beobachten ist.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Wand- und Gratentwicklung seit dem Spätglazial : ein Beitrag zur Landschaftgeschichte in Graubünden
(2004)
Das Hochgebirge als erdgeschichtlich junge Reliefform ist eine Zone geomorphologisch höchster Aktivität, deren Landschaftshaushalt vom Umsatz großer Materialmengen gekennzeichnet ist. Der überaus vielschichtige Bau der Alpen und ihre quartäre Formgebung durch ausgedehnte Vergletscherung hinterließen nach dem Weichen des Eises ein vielfach übersteiltes und zergliedertes Relief. Bergstürze, Sackungen, Rutschungen, Schlipfe und Murgänge haben das Landschaftsbild weitergeprägt, seitdem das stabilisierende Widerlager der Eisströme fehlt. Je nach geologischer Situation wohnt dem Prozeß eine mehr oder minder große zeitliche Verzögerung zwischen der Disposition der Bewegungsmasse und dem tatsächlichen Ereignis inne. Diese Erkenntnis gelangte in jüngerer Zeit zu mehr Aufmerksamkeit, als neue Untersuchungen die generell spätglazial angenommene Initiation vieler großer Massenbewegungen in Frage stellten und bekannte Bergstürze wie z. B. Köfels, Tschirgant oder Flims mit großer Sicherheit ins Holozän rückten (HAAS & POSCHINGER 1997: 1 sowie HAAS 2000: frdl. mdl. Mitt.). Viele bisher gängige Gedanken zur Vorbereitung, Auslösung und zum Bewegungsverhalten großer Massenbewegungen im Hochgebirge müssen vor diesem Hintergund überdacht werden. Alpine Wand- und Gratentwicklung seit dem Spätglazial hängt damit eng zusammen. Um die heutigen Formen und ihre Entstehung zu erklären, müssen die beteiligten Prozesse und Agentien mit einem breitgefächerten und dem Forschungsgegenstand angepaßten methodischen Instrumentarium synoptisch untersucht werden. Um die Entwicklung einer freien Felswand zu rekonstruieren, muß ihre Gliederung in Flächen, Vorsprünge, Simse, Steinschlagrinnen, Zähne und Pfeiler untersucht werden, weiterhin die korrelaten Schuttkörper an ihrem Wandfuß und deren eventuelle spätglaziale Überformung. Wandfußnahe Schuttkörper sind Zeugen der Formung freier Felswände und Spiegelbilder ihrer Struktur und Entwicklung. Daher kann man sie in Typen unterschiedlicher Genese einteilen, die charakteristische Eigenschaften besitzen und deren Bildung an bestimmte Verhältnisse in den sie nährenden Wand- oder Gratabschnitten gebunden ist. Dies ermöglicht eine sehr präzise Einschätzung von Materialbewegungen in den oberen Schichten und Aussagen über Verlauf und besondere Aktivitätsphasen der Verwitterungsleistung im Nährgebiet. Die bisher unterschiedenen Genotypen sind in Tab. 3 zusammengestellt. Ein Zusammenhang zwischen Exposition und Ausbildung bestimmter Genotypen konnte nicht festgestellt werden. Die tektonische und petrographische Gliederung der Wand bestimmt die Einzugsbereiche der Schuttkörper. Entlang der Klüfte bilden sich Steinschlagrinnen aus, deren Einzugsgebiete durch Grate getrennt sind. Stellenweise kommt es durch ebene Flächen zur Überschneidung von Einzugsbereichen oder zu Materialabgängen direkt wandabwärts, ohne bestimmte Kanalisierung. Wandfußnahe Schuttkörper altern durch Setzungsbewegungen, Frostsprengung in situ und Feinmaterialverspülung. Hohlräume zwischen Schuttstücken werden verfüllt, und der Anteil an Porenraum sinkt. Dadurch werden Schuttkörper weniger gut drainiert und sind anfälliger für Erosion durch abfließendes Niederschlags- oder Schmelzwasser. Typische Reifeerscheinungen sind Runsen, die am Wandfuß tief eingeschnitten beginnen und hangabwärts in eine Schuttlobe umschlagen. Sie entstehen unter den Traufpunkten ausgeprägter Steinschlagrinnen. Mit einem gewissen Abstand vom Ursprung solcher Rinnen ist eine wulstartige Ablagerung oberhalb von beiden Rinnenschultern zu beobachten. Diese entsteht durch überbordende Massen, die das Fassungsvermögen einer solchen Rinne übersteigen. Durch den erhöhten Querschnitt des Abflußprofils beim Ausborden einer solchen “Mure“ verringert sich in den Randbereichen die Transportfähigkeit, es kommt zur Ablagerung. Bewuchs kennzeichnet Oberflächen und Wandabschnitte, die in relativer (jedoch flüchtiger) Formungsruhe verharren. Schuttkörper wachsen nicht durch stetige flächige Überdeckung mit einem neuen Kegelmantel, sondern durch die Bildung von streifig langezogenen Schuttloben, die sich in Rutschungsbewegungen bis zum Auslauf des Kegels fortpflanzen können und bestimmten Fördergebieten des Steinschlages streng zugeordnet werden können. Daher weisen ihre Oberflächen kein einheitliches Alter auf. Die Stabilität von Oberflächenmaterial auf Schuttkörpern ist eine Funktion nicht der durchschnittlichen Korngröße, sondern der Rauhigkeit des Materials, die wiederum unter anderem von der Korngröße beeinflußt wird. Schuttkörper sind a priori flüchtige Erscheinungen von ständigem Wandel, Aufbau und Abtrag; jedoch im Kern festliegend, im Mantel in Ruhe und Setzung begriffen und in ihrer Oberfläche nur in Streifen aktiv, dort aber zum Teil erheblich. Man kann für einzelne Körper wohl eine generelle Tendenz festlegen, muß aber immer kleinräumig mit starken Schwankungen rechnen, die jedoch ungeachtet ihrer heutigen Ausprägung Gesamtbild und Gesamttendenz eines Körpers nicht in Frage stellen. Die genetische Unterscheidung von Schutthalde und Schuttkörper macht sich also an der Art der Förderung (durch die Beschaffenheit der Transportwege in der Wand) und der Speisung (durch die Beschaffenheit der Austragsstelle aus der Wand) fest: Traufkante oder Traufpunkt. Dem entsprechend wird Haldenschutt flächig gefördert und linear gespeist, Kegelschutt aber linear gefördert und punktuell gespeist. Daraus resultieren abweichende Eigenschaften beider Formengruppen, die sich bei freier Entwicklung (i.e. Übereinstimmung von Genotyp und Phänotyp), durch andere Einflüsse differenziert, in unterschiedlichen Erscheinungsformen niederschlagen. Meßprofile auf ausgewählten Schuttkörpern unter der Südwand der Sulzfluh lieferten Daten zum Bewegungsverhalten des Oberflächenschuttes. Die Ergebnisse führten zu einer hochauflösenden Unterteilung der Oberflächen in Aktivitätsstreifen von einigen Dezimetern bis wenigen Metern Breite und mehreren Dekametern bis Hektometern Länge. An solchen hochmobilen Schuttfahnen können heute die Ursachen und Abläufe beobachtet werden, die am Wachsen der Schuttkörper bis zu ihrer heutigen Form mitwirkten. Steinschlagrinnen müssen nach ihrer Fähigkeit beurteilt werden, abgehenden Steinschlag zu bündeln und einem Traufpunkt zuzuführen. Ihre Wertigkeit als Maß dieser Fähigkeit ist abhängig von der Tiefe einer solchen Förderrinne und ihrem Gefälle und kann durch den horizontalen Abstand von Rinnenboden zu Rinnenschulter definiert werden. In Kombination mit der genetischen Typisierung korrelater Schuttkörper läßt sich so die Struktur einer beliebigen Wand schnell und präzise erfassen. In der Zusammenschau mit den Moränen der örtlichen Wandfußgletscher sind umfassende Rückschlüsse auf die spät- und postglaziale Formungsgeschichte der betreffenden Felswände möglich. Moränen, Schuttkörper und Wand müssen also stets gemeinsam betrachtet werden. Die Formenentwicklung zwischen Gipfel und unterstem Rand der wandfußnahen Schuttkörper sind in einer in beiden Richtungen ableitbaren Prozesskette kausal miteinander verknüpft. Neben einer intensiven Zerschneidung exponierter Wandflächen in Steinschlagrinnen und Vorsprünge sind auch Reste alter, glatter Wandoberflächen aus dem ausgehenden Hochglazial erhalten, deren lange Expositionsdauer durch stellenweise tief eingeschnittene Karren belegt wird. Ihre über weite Strecken felsgruppenübergreifende Parallelisierung ist eine wichtige Methode der Rekonstruktion spät- und postglazialer Gratformung. Im Bereich Drusentor konnten im Zusammenhang mit der Moränensituation verschiedene Aktivitätsphasen der Gratzerlegung mit zum Teil erheblichen Kubaturen bewegter Felsmasse unterschieden und zeitlich eingegrenzt werden. Durch Rutschungen und Felsstürze zerfiel der Grat entlang der Schwächelinien von Blattverschiebungen, den Grat kreuzenden Bruchlinien und Trennflächen von Einzelschuppen der Deckenstirn. Der Grat verlor dabei im Vergleich zum Hochglazial mindestens 150 bis 250 Meter seiner damaligen Höhe. Die Deckenstirn nördlich des Drusentores ist nur noch in Bruchstücken der basalen Schuppe (z. B. Zollwärterhöhe) erhalten; der Aufschuppungsbereich zwischen Sulzfluh und Dritürm bildet durch Bruch, Blattverschiebung und Rutschung einen Doppelgrat. Wie im Umfeld des Drusentores finden sich auch In den Schijen Reihen von Zähnen und Galerien von Pfeilern als Zeugen einer zerfallenen oder zurückverwitterten Wand. Die Entstehung der großen glatten Fläche unter der Schijenflue ist jedoch nicht auf ein großvolumiges Sturzereignis zurückzuführen, sondern auf eine Schar von Blattverschiebungen, die Wissplatte und Schijenflue gliedern. Die Felspartie um P. 2442 stammt nicht etwa aus höheren Wandteilen und hinterließ beim Loslösen eine glatte, ebene Ausbruchnische, sondern war basaler Wandteil, der sich entlang einer nordsüdlich verlaufenden Bruchlinie von der Schijenwand trennte und nur um ca. acht Meter abrutschte. Obwohl die Felssturzaktivität im Spätglazial außerordentlich hoch war, wie die Ablagerungen In den Schijen mit ihren zahlreichen Grob- und Riesenblöcken belegen, erreichten diese Massen im Spätglazial durch Wandfußgletscher den Talboden und engten ihn geringfügig ein. Der Partnunsee selbst ist kein Bergsturz-, sondern ein Karsee. Das Gafiental quert in südwestlich-nordöstlicher Richtung eine Bruchlinie, an der östlich der Gämpiflue und bei Hasenflüeli Teile der Sulzfluh-Decke insgesamt 200 Meter abgesunken sind. Die auf dem Eggberg-Grat vor dem Erosionsrand zurückgelassenen Deckenteile sind die einzige isolierte Sulzfluh-Klippe des Rhätikon und gehören zum aufgeschuppten Bereich der Plattenflue. Sie ist im Zuge des Absinkens leicht verstellt worden und wahrscheinlich im frühen Spätglazial in mehrere Teile zerfallen, die - seither von einander getrennt - sich in Zähne und Pfeiler auflösen. Dem nordwärtigen Einfallen des morphologisch weicheren Falknis-Wildflysches im Liegenden folgend gingen alle nennenswerten Massenbewegungen auf der Nordseite des Grates ab. Auf der Südseite findet sich wesentlich weniger blockiges Felssturzmaterial, die postglazialen Schuttkörper sind weitestgehend blockarm. Ammaflue ist von seiner ursprünglichen Position zwischen Geisstschuggen und Hasenflüeli vor Egesen 1 nach Norden abgerutscht und hat dabei auf seiner Rutschbahn einige Klippen-Bruchstücke zurückgelassen. Bi den Nünzgen findet sich ein isoliertes Malmkalkvorkommen, das mit den höheren Schuppenteilen von Hasenflüeli korrespondiert. Der hiesige Klippenteil ist im Spätglazial völlig zerfallen und bildet seither nur noch den Stumpf einer Wand. Anhand der egesenzeitlichen Lokalmoränen beiderseits des Grates Bi den Nünzgen konnte der Betrag der Wandzerlegung im Spätglazial quantifiziert werden. Demnach hat die Nünzgenflue durch Wandzerlegung unter Steinschlag- und Felssturzspende seit Egesen 1 mindestens 54 Meter, in Egesen 2 ca. 27 Meter Höhe eingebüßt. An ihr wird die zukünftige Entwicklung Hasenflüelis sichtbar. Das in dieser Arbeit vorgestellte vielfältige methodische Instrumentarium kann in seinen Modulen je nach gewünschter Auflösung der Geländeanalyse frei kombiniert werden. Je nach Fragestellung und zugebilligtem Aufwand kann eine schnelle und sichere Ansprache der Genotypen wandfußnaher Schuttkörper völlig ausreichen. In umfassenderen Fragen der Wandentwicklung, die komplizierte lokale Zusammenhänge zu erforschen suchen, lohnt sich die Entfaltung sehr genauer und damit erheblich zeitaufwendigerer Methoden. Was sie im einzelnen zu leisten vermögen, wird in der Betrachtung der landschaftgeschichtlichen Beispiele deutlich, die an Schlüsselstellen höheren Einsatz mit umfassenden Erkenntnissen belohnen.
In dieser Arbeit wurde der chemische Ozonverlust in der arktischen Stratosphäre über elf Jahre hinweg, zwischen 1991 und 2002, mit Hilfe der so genannten "Ozon-Tracer Korrelationstechnik" (TRAC), untersucht. Bei dieser Methode werden Korrelationen zwischen Ozon und langlebigen Spurenstoffen im Verlauf des Winters im Polarwirbels beobachtet und so der jährliche akkumulierte Ozonverlust berechnet. Die Ergebnisse dieser Arbeit basieren im wesentlichen auf Messdaten der Satelliteninstrumente: HALOE (Halogen Occultation Experiment) auf UARS (Upper Atmosphere Research Satellite) und ILAS (Improved Limb Atmospheric Spectrometer) Instrument auf ADEOS (Advanced Earth Observing Satellite). Das HALOE Instrument misst seit Oktober 1991 kontinuierlich alle zwei bis drei Monate für einige Tage in höheren nördlichen Breiten. ILAS lieferte ausschließlich für den Winter 1996-97 Messungen, die über sieben Monate hinweg in hohen Breiten aufgenommen wurden. Aufgrund der eingeführten Erweiterungen und Verbesserungen der Methode in dieser Arbeit, konnte die Methode anhand einer detaillierten Studie für den Winter 1996-97 validiert werden. Die ILAS Messreihe wurde dazu verwendet, erstmals die Untersuchung der zeitlichen Entwicklung von Ozon-Tracer Korrelationen kontinuierlich für die gesamte Lebensdauer des Polarwirbels durchzuführen. Dabei wurden auch Korrelationen während der Bildung des Wirbels untersucht und im Besonderen mögliche Mischungsvorgänge zwischen Wirbelluft und Luftmassen außerhalb des Wirbels. Ausserdem wurde ein Vergleich der Ergebnisse von ILAS und HALOE Messdaten durchgeführt und Unterschiede in den Ergebnissen tiefgreifend analysiert. Basierend auf HALOE Messungen konnte die erweiterte TRAC Methode über elf Jahren hinweg angewendet werden. Damit war erstmals eine konsistente Analyse von Ozonverlust und Chloraktivierung über diesen Zeitraum möglich. Die Erweiterungen führten zu einer Verringerung und genauen Quantifizierung von Unsicherheiten der Ergebnisse. Ein deutlicher Zusammenhang zwischen meteorologischen Bedingungen, Chloraktivierung und dem chemischen Ozonverlust wurde deutlich. Weiterhin zeigte sich eine Abhängigkeit zwischen den meteorologischen Bedingungen und der Homogenität des Ozonverlustes innerhalb eines Winters, sowie der mögliche Einfluss von horizontaler Mischung auf Luftmassen in einem schwach ausgeprägten Polarwirbel. In dieser Arbeit wurde eine positive Korrelation zwischen den über die gesamte Lebensdauer des Wirbels auftretenden möglichen PSC-Flächen und den akkumulierten Ozonverlusten für die elf untersuchten Jahre deutlich. Es konnte darüber hinaus gezeigt werden, dass der Ozonverlust von deutlich mehr Einflüssen als nur von der Fläche möglichen PSC Auftretens bestimmt wird, sondern zum Beispiel von der Stärke der Sonneneinstrahlung abhängt. Außerdem lassen sich Auswirkungen von Vulkanausbrüchen, wie zum Beispiel im Jahr 1991 der des Mount Pinatubo, identifizieren.
In NE-Burkina Fasos wurden die Boden- und Reliefgenese (Erkundung des oberflächennahen Untergrunds, OSL-Datierungen) und die aktuelle Geomorphodynamik (Beregnungs- und Infiltrationsversuche, Luftbildauswertungen) der sahelischen Altdünenlandschaft und der angrenzenden endorheischen Becken untersucht. Zentrale Fragestellungen sind (1) die Altersstellung des häufig als erg récent bezeichneten Sekundärdünenreliefs auf dem Dünentop der spätpleistozänen Dünenzüge, (2) die jüngere Relief- und Bodenentwicklung vor dem Hintergrund der langen Nutzungsgeschichte (Hirsefeldbau und Viehzucht), und (3) die qualitative und quantitative Erfassung der aktuellen, denudativen und linearerosiven Prozesse, vorwiegend auf den Altdünen, in Abhängigkeit von Substrat, Oberflächenzustand und Nutzung. Die Akkumulation der Sekundärdünen fand während der spätpleistozänen ariden Periode (Ogolien) statt (19,6±1,1 ka und 23,8±1,6 ka v. H). Gleiches gilt für die äolischen Liegendsedimente der Nordabdachungen der Dünenzüge (21,9±2,1 ka und 23,2±2,1 ka v. H.). Unter Einbeziehung früherer Untersuchungen (ALBERT et al. 1997) ergibt sich daraus, dass sowohl die Dünenzüge an sich als auch ihr asymmetrisches Relief im N-S-Profil bereits während des Ogolien angelegt wurden. Die holozäne Landschaftsentwicklung ist durch Bodenbildung in den Altdünen und durch die fluvial-limnische Sedimentation in den endorheischen Becken (Mares) gekennzeichnet. Der häufig in der Literatur genannte aride Einschnitt um 8,2 ka v. H. kann weder absolutchronologisch noch paläopedologisch nachgewiesen werden. Vielmehr deutet die Verbreitung der Cambic bis Luvic-Chromic Arenosols, über dichtem Untergrund auch Gleyic Arenosols auf standörtlich unterschiedliche Bodenbildungsintensitäten und -prozesse in Abhängigkeit von Wasserhaushalt und geomorphodynamischer Beeinflussung hin. Die jüngere Landschaftsgeschichte ist zunehmend durch Landnutzung beeinflusst. Zwar konnte mit OSL-Altern von 4,5±0,2 ka und 4,7±0,8 ka v. H. lokal Sedimentumlagerung im Zusammenhang mit Later Stone Age-Aktivitäten nachgewiesen werden, für anthropogen induzierte Bodenerosion in größerem Umfang fehlen indessen die Hinweise. Der Wandel zur Kulturlandschaft setzte mit der eisenzeitlichen Siedlungsperiode ein. Kennzeichnend für diese, von der Zeitenwende bis zum 15. Jh. dauernden Epoche, ist der Nachweis des verbreiteten Hirseanbaus auf den Altdünen. Degradierte Böden auf den ehemaligen Feldern und mehrschichtige Kolluvien unterhalb, flächenhafte Bodendegradation in der Umgebung der alten Siedlungen sowie zunehmender Sedimenteintrag in die Mares sind die wichtigsten Indizien des 'human impact' dieser Epoche. Der Bezug zwischen der Nutzungsgeschichte und den korrelaten Sedimenten konnte im Einzelfall absolutzeitlich hergestellt werden (1064-979 cal. BP 14C). Aktuelle Bodendegradation findet in der Sahelzone sowohl fluvialerosiv als auch äolisch statt. Die fluvialerosive Bodenerosion überwiegt dabei flächenmäßig - auf den Glacis durch alle Prozesse des flächenhaften bis linearen Abtrags sowie auf den Altdünen überall dort, wo Bodenkrusten Oberflächenabfluss ermöglichen. Die feldbaulich genutzten Altdünenbereiche auf der Südseite der Dünenzüge und entlang der Nordhänge mit ihren pedogenetisch verfestigten Sanden und verkrusteten Oberflächen weisen stark reduzierte Infiltrationsraten auf und produzieren mit runoff-Koeffizienten von 21-94 % verstärkt Oberflächenabfluss. Neben flächenhafter Denudation tritt hier, überwiegend in Verbindung mit Trittbelastung, gehäuft Rinnen- und Gully-Erosion auf. Aufgrund der Verfestigung bieten diese Böden der äolischen Dynamik kaum Angriffsflächen. Einzig die kaum konsolidierten Sekundärdünen auf dem Dünentop sind die Landschaftseinheit mit dominierender Bodenerosion durch äolische Prozesse.
Der 300 km breite Eucla Schelf Südaustraliens gehört zu den weltgrößten modernen nicht-tropischen Ablagerungssystemen. Während des Pleistozäns wurde hier ein etwa 500 m mächtiger pleistozäner Sedimentstapel abgelagert, der sich aus progradierenden Klinoformen zusammensetzt. Die Ocean Drilling Program Sites 1127, 1129 und 1131 bilden ein proximal-distal Profil entlang des Eucla Shelfs-Kontinentalhangs. Die dabei erbohrten pleistozänen Periplattform-Ablagerungen bestehen überwiegend aus bioklastenreichen, fein- bis grobkörnigen, unlithifizierten bis teilweise lithifizierten Pack-, Wacke- und Grainstones. Eine ausgeprägte sedimentäre Zyklizität der analysierten Ablagerungen drückt sich in Fluktuationen der Korngröße und der mineralogischen Zusammensetzung, der natürlichen Radioaktivität, der stabilen Isotope sowie in Veränderungen der Fazies aus. Zur Untersuchung der sedimentären Zyklizität dieser nicht-tropischen Sedimente wurden sechs Sedimentintervalle früh- bis mittelpleistozänen Alters innerhalb der Bohrungen Site 1127, 1129 und 1131 ausgewählt. Die früh- bis mittelpleistozäne Periplattform-Sedimentabfolge des Eucla Schelfs wird durch die Stapelung genetischer Sequenzen gebildet. Diese entstehen als eine Folge hochfrequenter Meeresspiegelschwankungen, die unmittelbare Auswirkungen auf den Grad der Überflutung und damit auf den Sedimentexport vom Eucla Schelf ins angrenzende Becken haben. Eine genetische Sequenz weist eine Mächtigkeit von etwa 25 m unmittelbar beckenwärts der Schelfkante auf. Die maximale Mächtigkeit von ca. 30 m wird in beckenwärtigeren Bereichen erreicht, bevor die genetische Sequenz erneut auskeilt und in den hier untersuchten distalsten Ablagerungsbereichen Mächtigkeiten von 10-15 m aufweist. Die Begrenzungen der genetischen Sequenzen werden durch abrupte Korngrößenwechsel oder durch Umkehrpunkte in Korngrößentrends gebildet. Innerhalb einer genetischen Sequenz werden Hochstands-Ablagerungen durch grobkörnige bioklastenreiche Pack- bis Grainstones charakterisiert, die wiederum große Mengen an Tunikaten Spikulae, braunen hoch-Mg Bioklasten und Bryozoen-Detritus beinhalten. Tiefstands-Ablagerungen andererseits werden durch feinkörnige Packstones mit erhöhten Gehalten an Schwammnadeln und Mikrit charakterisiert. Die metastabilen Karbonatmodifikationen Aragonit und Hoch-Mg Kalzit können jeweils bis zu 34 % der Gesamtprobe ausmachen und sind in Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands angereichert. Hauptaragonitbildner sind dabei Tunikaten Spikulae. Dolomit ist auf Ablagerungen des beginnenden Meeresspiegel-Anstiegs beschränkt. Die primäre Verteilung der metastabilen Karbonatmodifikationen innerhalb der genetischen Sequenzen führt so während späterer Versenkungsstadien möglicherweise zu einer differentiellen Diagenese. Die sedimentäre Zyklizität der Ablagerungen des späten Mittelpleistozäns unterscheidet sich von der Zyklizität des frühen- bis mittleren Pleistozäns durch eine Zunahme der Häufigkeit allochthoner Schelfkomponenten wie Rotalgen-Detritus und brauner Hoch-Mg Kalzit-Bioklasten. Zugleich zeigt sich ein Häufigkeits-Rückgang autochthoner Schwammnadeln. Diese Variationen während des frühen und mittleren Pleistozäns werden als eine Folge der Progradation der Schelfkante und der sich daraus ergebenden verändernden relativen Position zur Schelfkante sowie des sich verändernden Nährstoffeintrags interpretiert. Site 1127 zeigt darüberhinaus eine Verdopplung der Zyklenmächtigkeiten der mittelpleistozänen Ablagerungen. Dies ist höchstwahrscheinlich auf Veränderungen der Erdorbitalparameter (Milankovitch-Zyklizität) zurückzuführen. Im letzten Teil der Arbeit werden die sedimentären Zyklizitäten dieser nicht-tropischen Periplattform-Karbonate mit pleistozänen tropischen Ablagerungen der westlichen Flanke der Großen Bahama Bank verglichen (ODP Site 1009). Die Gliederung in Coarsening Upward-Zyklen ist dabei ein wesentliches Merkmal sowohl der nicht-tropischen als auch der tropischen Periplattform-Karbonate. Im Gegensatz zu den untersuchten nicht-tropischen Karbonaten werden jedoch tropische Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands durch feinkörniges, mikritreiches Material. Maxima des Aragonit- bzw. Minima des Hoch-Mg Kalzitgehalts charakterisiert. Die Mächtigkeit einzelner Zyklen von ca. 10 m ist darüberhinaus aufgrund geringfügig niedrigerer Sedimentationsraten geringer als in den untersuchten nicht-tropischen Karbonaten, in denen die minimalen Zyklenmächtigkeiten 10-15 m betragen.
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
Im Rahmen der vorliegenden Arbeit wurde zunächst ein Vorschlag für eine Direktive zur Anwendung von Monitored Natural Attenuation (MNA) an Grundwasserschadensfällen durch Mineralölprodukte unter Berücksichtigung der in Deutschland geltenden Vorgaben für eine konkrete technische Durchführung erarbeitet. Das darin enthaltene Untersuchungs- und Auswertungsprogramm zum Nachweis von Natural Attenuation (NA) berücksichtigt die gesetzlichen Regelungen des Bundes-Bodenschutzgesetzes (BBodSchG) und der BundesBodenschutz- und Altlastenverordnung (BBodSchV). Das entwickelte Untersuchungs- und Auswertungsprogramm wurde in einem weiteren Schritt an einer laufenden MNA-Maßnahme aus der Praxis überprüft. Hierfür wurde ein Kerosin-kontaminierter Teilbereich am Standort des ehemaligen Militärflughafens Wegberg-Wildenrath in Nordrhein-Westfalen ausgewählt. Im Grundwasser liegt eine Kontamination überwiegend aus aromatischen Kohlenwasserstoffen (BTEX und weitere alkylierte Aromaten) sowie MKW (H18) vor. Anhand des Praxisbeispiels wurde die generelle Verwendbarkeit von bereits im Rahmen der bisherigen Altlastenbearbeitung erhobenen Daten im Sinne des erarbeiteten Untersuchungsprogramms aufgezeigt. Hydrogeologische Untersuchungen belegten eine Abhängigkeit der Konzentration von Schadstoffen im Wasser von einem bis zu /- 1,7 m schwankenden Grundwasserstand, wodurch ein instationäres Fahnenverhalten vorlag. Aufbauend auf den Erkenntnissen der hydrogeologischen Erkundung und der Auswertung von hydrochemischen Daten wurden für den Standort zwei sich ergänzende konzeptionelle Modellvorstellungen (ein hydrochemisches Modell sowie ein hydrodynamisches Modell) bezüglich der Prozesse, die das Fahnenverhalten steuern, entwickelt. Beim hydrochemischen Modell erfolgt durch schwankende Grundwasserstände ein Recycling der Elektronenakzeptoren S042- und Fe3 für den Schadstoffabbau im herdnahen Bereich. Bei hohem Grundwasserstand werden reduzierte Eisenspezies als unlösliche Eisenmonosulfide ausgefällt. Bei niedrigem Grundwasserstand werden diese Eisenmonosulfide in Folge von Belüftung zu löslichen Fe3 /SO42-haltigen Mischkristallen oxidiert. Bei einem erneuten Anstieg des Grundwassers steht dieser Elektronenakzeptorpool für einen weiteren Schadstoffabbau zur Verfügung, was wiederum zur Ausfällung der reduzierten Eisenspezies führt. Beim hydrodynamischen Modell werden die beobachteten Konzentrationsänderungen im Grundwasser hauptsächlich durch Schadstoff-Phasenübergänge und der Größe der dabei zur Verfügung stehenden Grenzflächen hervorgerufen. Der Austausch von Schadstoffen aus der NAPL (non-aqueous phase liquids)-Phase in die Bodenluft bei niedrigen Grundwasserständen ist erheblich größer im Vergleich zum Austausch der NAPL-Phase in die (Grund)wasserphase bei hohen Grundwasserständen. Daraus resultieren höhere Schadstoffgehalte im Schadenszentrum bei niedrigen Grundwasserständen und geringere Gehalte bei hohen Grundwasserständen. Eine wichtige Erkenntnis dieser Arbeit war die Herausarbeitung der Art des Einflusses schwankender Grundwasserstände auf die Fahnendynamik. Anhand der Untersuchung auf aromatische Säuren (Metabolite), die im (my)g/l-Bereich nachzuweisen waren, konnte der direkte Beweis für einen aktiven Bioabbau am Standort erbracht werden. Durch einen Vergleich des Aromatenspektrums mit dem vorgefundenen Metabolitenspektrum wurden Aussagen zum Abbauverhalten von einzelnen aromatischen Schadstoffgruppen ermöglicht. Die Abbauprognose ist aufgrund des instationären Fahnenverhaltens mit größeren Unsicherheiten behaftet. Attenuations- bzw. Abbauraten zwischen 0,0003 * 1/d und 0,001 * 1/d wurden anhand von zwei unterschiedlichen Verfahren ermittelt.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Die Chemie und der Strahlungshaushalt der Erdatmosphäre werden durch die nur in relativ geringen Konzentrationen vorhandenen Spurengase und Aerosolpartikel beherrscht. Mit den zunehmenden anthropogenen Emissionen von atmosphärischen Spurengasen, verursacht durch die wachsende Weltbevölkerung und die zunehmende Industrialisierung, wurde in den letzten Dekaden ein globaler Wandel bei der Zusammensetzung der Erdatmosphäre festgestellt: Konzentrationen von atmosphärischen Spurenstoffen verändern sich nicht mehr auf vergleichsweise langsamen geologischen Zeitskalen, sondern mit viel höheren Geschwindigkeiten, in einzelnen Fällen von bis zu einem Prozent pro Jahr. Die wohl bekanntesten Folgen dieser Veränderungen sind die globale Erwärmung durch die ansteigenden Emissionen von Treibhausgasen und der mit dem antarktischen 'Ozonloch" entdeckte drastische Ozonverlust in der Stratosphäre durch anthropogene Fluor-Chlor-Kohlenwasserstoffe (FCKW). Die Verteilung der für Ozonchemie und Klima relevanten Spurengase in der Atmosphäre hängt dabei nicht nur von der Verteilung ihrer Quellen und Senken ab, sondern wird maßgeblich durch verschiedene Transportprozesse beeinflußt. Der Austausch zwischen der mit anthropogenen Emissionen belasteten Troposphäre und den höheren Atmosphärenschichten Stratosphäre und Mesosphäre spielt dabei eine zentrale Rolle. Im Rahmen der Dissertation wurde zum besseren Verständnis von Stratosphären-Troposphären-Austauschprozessen die Verteilung von langlebigen Spurengasen in den beiden atmosphärischen Kompartimenten Troposphäre und Stratosphäre untersucht. Dazu wurde bei einer Meßkampagne im Sommer 1998 im Rahmen des von der Europäischen Union geförderten Forschungsprojektes STREAM 98 der flugzeuggetragene Gaschromatograph GhOST (Gas chromatograph for the Observation of Stratospheric Tracers) an Bord einer Cessna Citation II der TU Delft in Höhen bis 13 km eingesetzt. Dabei konnten bei zwanzig Meß- und Transferflügen über Kanada, dem Atlantik und Westeuropa umfangreiche Messungen der langlebigen Spurengase N20, F11 und F12 in der oberen Troposphäre und der Untersten Stratosphäre durchgeführt werden. Unter Flugbedingungen wurde mit GhOST während der Kampagne eine Reproduzierbarkeit (1 o) von besser als 0,6 % und eine absolute Genauigkeit von besser als 2 % für alle nachgewiesenen Spurengase erreicht. Diese hohe Meßpräzision konnte durch zahlreiche Vergleichsmessungen mit anderen Meßgeräten und Meßverfahren - im Flugbetrieb und im Labor sichergestellt werden; die Linearität des Geräts wurde zudem mit Hilfe einer barometrisch hergestellten Verdünnungsreihe untersucht. Die mit GhOST bei STREAM 98 gewonnenen Meßwerte wurden zusammen mit Messungen und Modelldaten der am Projekt beteiligten Arbeitsgruppen zur Untersuchung von Spurengasverteilungen und Stratosphären-Troposphären-Austauschprozessen herangezogen. Untersucht wurden dabei unter anderem die Verteilung und Variabilität von N20, F11 und F12 in der Troposphäre und in der Untersten Stratosphäre der mittleren Breiten, Austausch- und Mischungsprozesse in der Tropopausenregion und die Variabilität von Tracer/Tracer-Korrelationen in der Untersten Stratosphäre. Aufbauend auf den Erfahrungen bei STREAM 98 wurde für das vom BMBF geförderte Projekt SPURT im Rahmen dieser Doktorarbeit der in-situ-Gaschromatograph GhOST II entwickelt. Unter Beibehaltung der gaschromatographischen Komponenten von GhOST wurden zur Messung der Spurengase SF6 und CO zwei zusätzliche Detektoren integriert und zahlreiche technische Verbesserungen durchgeführt. Für die vollautomatische rechnergestützte Elektronik zur Steuerung des neuen Gerätes wurden zusammen mit der institutseigenen Elektronikwerkstatt verschiedene Baugruppen zur Signalführung und -verarbeitung, zur Temperaturmessung und zur Ansteuerung von Leistungskomponenten entwickelt. Während einer Testkampagne im April 2001 wurde GhOST II erfolgreich mechanisch und elektrisch auf einem Learjet 35A integriert und kam bei zwei Meßflügen der Meßkampagne SPURT 1 im November 2001 zum Einsatz.
Aerosolpartikel sind in der Atmosphäre insbesondere für die Strahlungsübertragung und die Wolkenbildung von wichtiger Bedeutung. Aufgrund ihrer kurzen Lebensdauer, der Variabilität ihrer Quellen und Senken und ihrer Einbindung in den atmosphärischen Wasserkreislauf sind Partikel in allen ihren Eigenschaften sehr veränderlich. Die Zusammenhänge dieser Variabilität mit den meteorologischen Bedingungen und ihre Auswirkungen in der meteorologischen Anwendung sind bisher nur ungenügend durch Meßdaten belegt, so daß die Ergebnisse von Modellen, in denen die meteorologischen Wirkungen von Partikeln berücksichtigt werden (z.B. Klimamodelle), mit großen Unsicherheiten behaftet sind. Ziel dieser Arbeit war es, auf der Grundlage von Messungen einen Beitrag zur Charakterisierung der bodennahen troposphärischen Aerosolpartikel zu leisten. Im Hinblick auf die meteorologischen Anwendungen wurden die chemische Zusammensetzung und die Masse der Partikel in Abhängigkeit von ihrer Größe gemessen, da sie wesentliche Einflußgrößen für die Strahlungswirkung von Partikeln und die Wasserdampfkondensation in der Atmosphäre sind. Auf der Basis eines Datensatzes der physikalisch-chemischen Partikeleigenschaften und meteorologischer Meßgrößen wurde zunächst die Abhängigkeit der Partikeleigenschaften und ihrer Variabilität von den meteorologischen Umgebungsbedingungen analysiert sowie die Bedeutung der Variabilität der Partikeleigenschaften in der meteorologischen Anwendung untersucht. Dazu wurden Absorptionskoeffizienten der Partikel und Erwärmungsraten durch Absorption solarer Strahlung durch Partikel sowie das Wachstum der Partikel mit der relativen Feuchte in Abhängigkeit von ihrer chemischen Zusammensetzung berechnet. Die Messungen fanden während fünf drei- bis achtwöchiger Meßkampagnen 1991, 1993 und 1994 in Melpitz bei Torgau (Sachsen) und 1993 und 1994 auf dem Hohen Peißenberg (Oberbayern) statt. Mit einem Berner-Impaktor wurden die Partikel gesammelt. Es wurden die Konzentrationen der Gesamtmasse der Partikel sowie der Ionen in Abhängigkeit von ihrer Größe bestimmt. Die Rußkonzentrationen wurden mit einem Aethalometer gemessen. Parallel zu den Partikelmessungen fanden Messungen von Temperatur, relativer Feuchte, Windgeschwindigkeit, Windrichtung, Globalstrahlung und diffuser Himmelsstrahlung statt. Die Messungen liefern folgende Ergebnisse: Bei allen Messungen waren Nitrat, Sulfat und Ammonium die Hauptkomponenten der kleinen Partikel, und die Massenkonzentrationen der kleinen Partikel (0,04 µm < aed < 1,72 µm) waren wesentlich größer als die der großen Partikel (1,72 µm < aed < 21µm). Die Partikel sind also überwiegend anthropogener Herkunft. Die großen Partikel enthielten zusätzlich Natrium und Kalzium, lediglich bei einzelnen Messungen in Melpitz wurde auch Chlorid als Hinweis auf Seesalzpartikel gefunden. Die Massenkonzentrationen aller Partikelbestandteile waren in Melpitz in der Regel etwas größer als auf dem Hohen Peißenberg, da die Partikelkonzentrationen mit zunehmender Höhe abnehmen und da Melpitz näher an Ballungsräumen liegt als der Hohe Peißenberg. Die Unterschiede zwischen den verschiedenen Meßkampagnen an einem Ort sind jedoch größer als die zwischen den beiden Orten. Die Variabilität sowohl der Massenkonzentrationen der Partikelbestandteile als auch der Gesamtmasse liegt im Bereich von zwei Größenordnungen und ist damit wesentlich größer als die Unterschiede zwischen den Meßkampagnen. Der mittlere Anteil der löslichen Masse an der Gesamtmasse beträgt für die kleinen Partikel 57 %, für die großen 30 %. Dieser Anteil variiert sehr stark (10-100 % bzw. 5-80 %). Ruß hat einen mittleren Anteil von 5 % an der Gesamtmasse (1-18 %). Wesentliche Parameter, die zu Veränderungen der Partikeleigenschaften führen, sind: - Luftmassen unterschiedlicher Herkunft und Geschichte - Veränderungen der Mächtigkeit und Struktur der atmosphärischen Grenzschicht - Emissionen lokaler Quellen - lokale meteorologische Parameter (Temperatur, Windrichtung, -geschwindigkeit) Die unterschiedliche Häufigkeit und Ausprägung dieser Einflußfaktoren führt zu Unterschieden zwischen den Ergebnissen der einzelnen Meßkampagnen. Die einzelnen Faktoren sind nicht voneinander unabhängig, da durch die großräumige Wettersituation und die Luftmassen die Ausprägung der lokalen Parameter bestimmt wird. Um eine Zusammenfassung von Messungen unter vergleichbaren meteorologischen Bedingungen zu erreichen, wurde eine Klassifikation der Daten auf der Basis von Rückwärtstrajektorien vorgenommen. Es wurden fünf Klassen unterschieden: vier Klassen umfassen Richtungssektoren mit jeweils 90 ° um die Haupthimmelsrichtungen (Nord, Ost, Süd, West), einer fünften (X) werden kurze Trajektorien zugeordnet. Dieser Ansatz wurde gewählt, weil ähnliche Luftmassen und damit meteorologische Bedingungen hinsichtlich Temperatur, Feuchte, Stabilität und Luftbeimengungen meistens durch ähnliche Trajektorien gekennzeichnet sind, die eine Aussage über die Herkunft und den Weg der Luft ermöglichen, die wiederum für die Ausprägung der Partikeleigenschaften maßgeblich sind. Eine weitere Unterteilung nach Tageszeiten (morgens, mittags, abends) wurde vorgenommen, da einige Meßgrößen deutliche Tagesgänge zeigten. Die Ergebnisse lassen sich wie folgt zusammenfassen: Die Klassifikation der meteorologischen Meßgrößen liefert sowohl im Hinblick auf die Charakterisitika der Trajektorienklassen (Herkunft der Luft) als auch für die Tagesgänge meteorologisch sinnvolle Ergebnisse. Die Lage der Stationen in einer Ebene und auf einem Berg führt zu einer unterschiedlichen Ausprägung von Tagesgängen der Temperatur und der Windgeschwindigkeit besonders während stabiler Hochdruckwetterlagen. Es zeigt sich, daß bedingt durch die Entwicklung der Grenzschicht auf dem Hohen Peißenberg vor allem bei Hochdruckwetterlagen im Tagesverlauf in zwei verschiedenen Atmosphärenschichten gemessen wird. Die starke Streuung der lokalen Windrichtungen innerhalb einer Trajektorienklasse führt dazu, daß der Einfluß lokaler bzw. regionaler Quellen durch die Klassifikation nur bedingt erfaßt wird, und liefert einen Hinweis auf die lokale Wetterlage. Die Klassifikation der Partikelmeßdaten liefert meteorologisch sinnvolle Ergebnisse, da die Konzentrationsunterschiede zwischen den einzelnen Klassen mit der Wetterlage und dem Einfluß regionaler Quellen zu begründen waren. Die Absolutwerte ließen sich allerdings nicht vergleichen, und es wurden im Detail meßkampagnenspezifische Begründungen gefunden. Es ergab sich jedoch für alle Meßkampagnen die Unterteilung in Klassen mit antizyklonalen Wetterlagen und kontinentaler Luft mit hohen Konzentrationen (Klassen Ost, Süd, West) und zyklonalen Wetterlagen und maritimer Luft mit geringeren Konzentrationen (Klassen Nord, West). Abweichungen von dieser Einteilung waren vor allem mit der geographischen Lage der Meßorte zu begründen. Ausgeprägte Tagesgänge mit Maxima bei den Morgenmessungen ergaben sich nur für Nitrat, bei einigen Messungen auch für Chlorid in den kleinen Partikeln durch temperaturabhängige Gleichgewichtsreaktionen instabiler Partikelkomponenten mit der Gasphase sowie für Ruß durch die Anreicherung von Emissionen lokaler Quellen bei geringer Grenzschichthöhe. Während sich die mittleren absoluten Konzentrationen in den einzelnen Klassen erheblich unterscheiden, ist die mittlere relative chemische Zusammensetzung der Partikel in allen Klassen ähnlich; die Variabilität der Anteile ist aber ebenfalls sehr groß. Mit Ausnahme der Advektion von Seesalzpartikeln sowie der temperaturbedingten Verschiebung der Anteile von Nitrat und Sulfat, lassen sich Unterschiede zwischen den Klassen nicht mit den durch die Klassifikation erfaßten Einflußfaktoren oder geographischen Besonderheiten begründen. Durch die Klassifikation nimmt die Variabilität sowohl der meteorologischen Meßgrößen als auch der Partikeleigenschaften ab. Für die meteorologischen Meßgrößen verringert sich die Variabilität durch die Klassifikation nach Trajektorien weniger als durch die nach Tageszeiten, für die Konzentrationen der Partikelbestandteile und der Masse führt hingegen die Klassifikation nach Trajektorien zu einer größeren Verminderung der Variabilität als die nach Tageszeiten. Die Anwendung beider Klassifikationskriterien führt zu einer Abnahme der Variabilität um im Mittel 55 % für die meteorologischen Meßgrößen und um 50 % bzw. 25 % für die Konzentrationen der Bestandteile und der Masse der kleinen bzw. der großen Partikel. Die Variabilität der Werte in einer Klasse bleibt jedoch auch nach Klassifikation größer als Unterschiede zwischen den Klassen. Sie wird vor allem durch die spezifische meteorologische Situation bedingt. Um die Auswirkungen der Variabilität der Partikeleigenschaften in meteorologischen Anwendungen abschätzen zu können, wurden aus den Meßdaten der Absorptionskoeffizient der Partikel und die daraus resultierenden Erwärmungsraten sowie das Partikelwachstum mit der relativen Feuchte berechnet und wie die Meßdaten klassifiziert. Die Ergebnisse lassen sich folgendermaßen zusammenfassen: Für die Absorptionskoeffizienten der trockenen Partikel wurden Werte zwischen 0,1·10-6/m und 97·10-6/m berechnet. Für die beiden Meßkampagnen im Herbst (Melpitz 1993 und 1994) ergaben sich etwa um den Faktor 2 größere mittlere Absorptionskoeffizienten als für die Meßkampagnen im Sommer, die maximalen Absorptionskoeffizienten waren in Melpitz aufgrund der starken lokalen Quellen um den Faktor 2-3 größer als auf dem Hohen Peißenberg. Für die maximalen Erwärmungsraten wurden Werte zwischen 0,003 und 0,128 K/h, für die Gesamterwärmung über die Tageslichtperiode zwischen 0,02 K und 0,81 K berechnet. Die Partikel liefern in Abhängigkeit von den Umgebungsbedingungen selbst während Meßkampagnen an zwei ländlichen Orten in Mitteleuropa einen vernachlässigbar geringen bis deutlichen Beitrag zum Strahlungsantrieb. In Melpitz waren sowohl die maximalen Erwärmungsraten als auch die Gesamterwärmung im Mittel um den Faktor 1,5 geringer als auf dem Hohen Peißenberg, da die maximalen Absorptionskoeffizienten zu einer Zeit bestimmt wurden, als das Strahlungsangebot noch gering war, während auf dem Hohen Peißenberg die Maxima von Absorptionskoeffizient und Strahlungsangebot zeitlich näher zusammenliegen. Die Klassifikation nach Rückwärtstrajektorien ergab deutliche Unterschiede (Faktor 3-5) zwischen den einzelnen Klassen, da in Klassen mit den höchsten Rußkonzentrationen auch das Strahlungsangebot am höchsten war und in Klassen mit niedrigen Rußkonzentrationen meistens starke Bewölkung vorherrschte. Zwischen maximaler Erwärmungsrate und Gesamterwärmung über die Tageslichtperiode wird ein linearer Zusammenhang gefunden, der sich aber aufgrund der verschiedenen Tagesgänge des Absorptionskoeffizienten für die Meßkampagnen in Melpitz und auf dem Hohen Peißenberg unterscheidet. Sowohl für den exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung als auch für das Partikelwachstum bei fester relativer Feuchte ergeben sich im Mittel nur geringe Unterschiede zwischen kleinen und großen Partikeln sowie einzelnen Klassen durch die chemische Zusammensetzung des wasserlöslichen Anteils der Partikel. Unterschiede sind vielmehr durch den Anteil der wasserlöslichen Masse an der Gesamtmasse bedingt. Es ergibt sich ein linearer Zusammenhang zwischen dem exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung und dem Anteil der wasserlöslichen Masse an der Gesamtmasse der Partikel. Die Unterschiede zwischen den einzelnen Klassen lassen sich nicht auf einzelne meteorologische oder geographische Einflußfaktoren zurückführen. Sowohl für die Absorption solarer Strahlung als auch für das Wachstum der Partikel mit der relativen Feuchte ist die Variabilität der abgeleiteten Größen geringer als die der Ausgangsgrößen, sie ist aber immer noch mindestens so groß wie die Unterschiede zwischen den einzelnen Klassen. Zusammenfassend läßt sich festhalten, daß in dieser Arbeit ein Datensatz aus Messungen von meteorologischen Parametern und Partikeleigenschaften zusammengestellt wurde, der zusammen mit der Klassifikationsmethode nach Rückwärtstrajektorien und Tageszeiten eine Untersuchung der Zusammenhänge zwischen der Variabilität der Meßgrößen und den meteorologischen Bedingungen ermöglicht und eine Abschätzung der Auswirkungen der Variabilität der Partikeleigenschaften, insbesondere der chemischen Zusammensetzung, in meteorologischen Anwendungen zuläßt. Der Klassifikationsansatz nach Rückwärtstrajektorien ist prinzipiell geeignet, um die Abhängigkeit der Partikeleigenschaften von den meteorologischen Bedingungen zu beschreiben. Es ist jedoch nicht möglich, einen Einflußfaktor als den wichtigsten hervorzuheben oder sogar quantitative Beziehungen zwischen Partikeleigenschaften und meteorologischen Parametern herzustellen. Die Herkunft der Luft liefert einen Hinweis auf die zu erwartenden meteorologischen Bedingungen und Partikeleigenschaften, die lokale meteorologische Situation bestimmt jedoch die genaue Ausprägung der Meßgrößen. Eine Berücksichtigung des Einflusses der lokalen Wetterlage sowie lokaler bzw. regionaler Quellen könnte durch die Einbeziehung der Windrichtung vorgenommen werden. Auf der Basis längerer Meßreihen sollte überprüft werden, ob die Unterteilung in fünf Trajektorienklassen modifiziert werden muß. Der große Einfluß der spezifischen Wetterlage auf die Meßergebnisse führt dazu, daß die Ergebnisse von Meßkampagnen weder für einen längeren Zeitraum noch für ein größeres Gebiet repräsentativ sein können. Ebenso ist die Verwendung von Mittelwerten über längere Zeiträume ist nicht sinnvoll, da die Variabilität der Meßgrößen während eines Tages sowie von Tag zu Tag sehr groß ist. Aufgrund der komplexen Zusammenhänge zwischen Partikeleigenschaften und meteorologischen Bedingungen erscheint es unbedingt nötig, längere Meßreihen aller wichtigen Aerosoleigenschaften durchzuführen, damit statistisch belastbare Daten über eine hinreichend große Zahl von Messungen unter verschiedensten meteorologischen Bedingungen zu allen Jahreszeiten vorliegen, die Aussagen über Zusammenhänge mit Witterungsbedingungen, Tagesgänge, Jahresgänge aber auch die Vertikalverteilung der Partikeleigenschaften zulassen. Dabei ist es wichtig, alle interessierenden Größen gleichzeitig zu messen, da nur dann eine Untersuchung des Einflusses der Variabilität verschiedener Parameter auf die für die Anwendung wichtigen Größen möglich ist.
Die Dissertation wurde im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten interdisziplinären Sonderforschungsbereiches 268 "Kultur- und Sprachentwicklung im Natrurraum Westafrikanische Savanne" angefertigt. Dabei war die Kartierung und Analyse von Landbedeckungs- und Landnutzungsveränderungen in einem Ausschnitt des nigerianischen Tschadbeckens Zielsetzung vorliegender Arbeit. Trotz eines recht großen allgemeinen Interesses am Tschadsee, dem größten See Westafrikas, fällt es schwer, topographische und thematische Information über diese Region zu erlangen. Viele Zusammenhänge bezüglich seiner Vergangenheit und seiner zukünftigen Entwicklung sind bis heute nicht geklärt. Soweit Daten zur Landbedeckung und Landnutzung bereits verfügbar waren, wurden sie aufbereitet und im Rahmen des regionalen geographischen Informationssystems FirGIS strukturiert gegliedert aufgenommen. Als hauptsächliche Datenquelle wurde jedoch auf Fernerkundungsdaten der Region zurückgegriffen. Sie liefern meist die einzige großflächig vorhandene, aktuelle und vor allem multitemporale Information über das Untersuchungsgebiet. Die Auswertung der Fernerkundungsdaten erfolgte mit Methoden der digitalen Bildverarbeitung. Aktuelle und historische Luftbilder wurden visuell interpretiert und anschließend vektoriell digitalisiert. Satellitenszenen wurden vorwiegend digital direkt im Rasterdatenmodell bearbeitet. Nach der Datenaufbereitung mit verschiedenen Techniken der Bildverarbeitung erfolgte die Auswertung mittels digitaler Klassifizierung. Weitere wichtige Bearbeitungsschritte bei der Ergebnisfindung waren unterschiedliche multitemporale Darstellungsweisen, die Berechnung von Vegetationsindizes sowie Verschneidungstechniken zur Aufdeckung von Veränderungen. Die Auswertung aller Daten erfolgte nach einem einheitlichen mehrstufigen Klassifizierungssystem, das für die Verhältnisse im Tschadbecken entwickelt wurde. Die aus den Fernerkundungsdaten abgeleiteten Ergebnisse gliedern sich nach vier verschiedenen Dimensionen der Zeit. Die Ausgangsbasis bildet eine digitale aktuelle Kartierung der Landbedeckung und Landnutzung eines mehr als 3500 km² großen Ausschnittes des nigerianischen Tschadbeckens im Maßstab 1 : 25 000. Aufbauend auf der aktuellen Landnutzungskartierung wurde für einen etwa 1100 km² großen zentralen Teilausschnitt aus dem Gesamtuntersuchungsgebiet das dynamische Verhalten der Landbedeckungs- und Landnutzungseinheiten im Jahresverlauf untersucht. Dazu konnten fünf SPOT-XS-Satellitenszenen der Vegetationsperiode 1995/96 herangezogen werden. Als Zusammenfassung aus den phänologischen Analysen aller im Untersuchungsgebiet auftretenden Objekte und ihrem entsprechenden unterschiedlichen Spektralverhalten zu verschiedenen Zeitpunkten wurde eine detaillierte Landbedeckungs- und Landnutzungskartierung der Saison 1995/96 angefertigt. Sie ging aus einer komplexen hierarchischen Satellitenbildklassifizierung mit differenzierten Zuweisungsregeln hervor. Mit den Erfahrungen aus der Untersuchung zur saisonalen Dynamik wurden in einem weiteren Schritt alle für das Teiluntersuchungsgebiet zur Verfügung stehenden Satellitenszenen ausgewertet, um Erkenntnisse über interannuelle Unterschiede der zu verschiedenen Zeitpunkten aufgenommenen Satellitenszenen zu gewinnen und deren Ursachen aufzudecken. Als ideale Grundlage wurden multitemporale Vegetationsindizes verglichen, Veränderungskarten abgeleitet und Niederschlagsdaten zur Interpretation hinzugezogen. Eine 24jährige Zeitreihe der klassifizierten Vegetationsindizes ermöglicht eine zusammenfassende Interpretation. Die Auswertung historischer Luftbilder von 1957 und der Vergleich mit den Luftbildern von 1990 ermöglichte schließlich die Beurteilung langfristiger Entwicklungen im engeren Untersuchungsgebiet. Die Ergebnisse sind in Form einer historischen Karte, als Veränderungskarten und quantitativ festgehalten. Ein wichtiges Ergebnis der vorliegenden Arbeit besteht in der Strukturierung aller verwendeten Grundlagendaten zum Thema Landbedeckung und Landnutzung im Tschadbecken einschließlich seiner Nachbargebiete innerhalb des regionalen geographischen Informationssystemes FirGIS. In ihm sind neben den Ausgangsdaten alle Ergebnisse und die zum Thema gehörigen Zusatzinformationen enthalten. Es ermöglicht damit eine zukünftige Fortschreibung durch thematische, räumliche oder zeitliche Ausdehnung. Das Geoinformationssystem FirGIS bietet außerdem die Möglichkeit, bereits vorhandene wie auch zukünftige Information anderen Interessenten vor allem auch vor Ort zur Verfügung zu stellen.
Flußlandschaften galten lange Zeit als nur bedingt besiedelbar aufgrund unkalkulierbarer Hochwasser- und Gesundheitsgefahren. Überdies stellten sie Hemmnisse für Verkehr und Kommunikation dar. Es waren vornehmlich ingenieurtechnische Errungenschaften, die den Nutzwert der Flußlandschaften erschlossen (Hey 1997). Durch Hochwasserschutzkonzepte, Wasserkraftwerke und Flußregulierungen wurden u.a. eine geregelte Trinkwasserversor- gung gewährleistet, die Schiffbarkeit verbessert sowie die landwirtschaftliche und gewerbliche Nutzung der fruchtbaren und flachen Auenbereiche ermöglicht. Das fluviale System und dessen nutzbare Ressourcen stehen weiterhin unter einem steigenden ökonomischen Druck. Zusätzlich wird der erwartete Klimawandel der nächsten Jahrzehnte die Stoffflüsse der fluvialen Systeme einerseits direkt und andererseits, mittels veränderter Landnutzungsmuster, indirekt verändern. Die Beispiele aus der jüngeren Erdgeschichte belegen, wie empfindlich fluviale Systeme auf Änderungen der externen Steuergrößen reagieren (s. Kap. 2.2., 2.3.). Die ingenieurtechnischen Planungen berücksichtigen i.d.R. zeitliche Größenskalen von ±100 Jahren, jedoch werden die erwarteten Änderungen der Klimaelemente das Ausmaß der Klimafluktuationen der letzten beiden Jahrhunderte übertreffen (z.B. Houghton et al. 2001). Zudem sind die Reaktionen des fluvialen Systems auf Änderungen externer Steuergrößen als physiographisch spezifisch, nicht- deterministisch und nicht-linear einzustufen, was sich in der räumlich und zeitlich veränderten Reaktion fluvialer Stofftransporthaushalte widerspiegelt (Kap. 2.2.). Zum einen erschwert das die technische Planbarkeit der nutzbaren Ressourcen des fluvialen Systems, zum anderen wächst mit der intensiveren Nutzung das wirtschaftliche Gefähr- dungspotential durch natürliche oder quasi-natürliche fluvialmorphologische Prozesse. Der wohlüberlegte Umgang mit den Ressourcen des fluvialen Systems hängt somit zu einem gewissen Grad von der kurz- bis mittelfristigen Vorhersagbarkeit der Sensibilität ab, die dessen funktionale und räumliche Komponenten gegenüber externen Impulsen aufweisen. Beispiele für variable Reaktionen lassen sich aus der Untersuchung des fluvialen Wandels in der Vergangenheit gewinnen. So zeigen die Ergebnisse der fluvialmorphologischen Forschung in der Hessischen Senke eine räumlich und zeitlich differenzierte Veränderlichkeit der fluvialen Reaktion gegenüber Klimaänderungen. In der Fluvialmorphologie haben sich in jüngerer Zeit Forschungsansätze etabliert, die komplexe und räumlich disparate Rückkopplungsmechanismen zwischen Prozeß und Form in den Mittelpunkt der fluvialen Entwicklung rücken (z.B. Schumm 1977, Philipps 1992b, Lane
Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs
(2002)
In der vorliegenden Arbeit wurde im Rahmen des DFG-Schwerpunktprogrammes 546 ,,Geochemische Prozesse mit Langzeitfolgen im anthropogen beeinflussten Sickerwasser und Grundwasser" der Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs untersucht. Ausgewählt wurden verschiedene Vertreter der Stoffklassen Antioxidantien und Phosphorsäureester sowie die beiden Xenoöstrogene Bisphenol A und 4-Nonylphenol, denen eine endokrine (hormonähnliche) Wirkung auf Organismen zugeschrieben wird. Solche Umweltchemikalien werden seit ca. 40 Jahren in großen Mengen für verschiedene Zwecke in Industrie und Privathaushalten eingesetzt oder sie entstehen durch photochemischen oder mikrobiologischen Abbau unter Umweltbedingungen. Die Chemikalien gelangen durch Produktion und Verwendung in die Abwässer und werden durch Direkteinleitungen geklärter Abwässer in die Oberflächengewässer eingetragen. Durch den Prozess der Uferfiltration werden im Oderbruch organische Verbindungen von der Oder ins Grundwasser des angrenzenden Aquifers transportiert. Viele Umweltkontaminanten sind unter aeroben Bedingungen gut biologisch abbaubar. Wie sie sich aber in einer sauerstofffreien Umgebung verhalten, ist bis heute relativ unerforscht. Es ist notwendig, die Prozesse bei der Uferfiltration zu kennen, da heute zunehmend mehr Trinkwasser aus Uferfiltrat gewonnen wird und Umweltchemikalien somit eine potentielle Gefahr für die Trinkwasserversorgung darstellen. Eine zweite Eintragsquelle stellen die Niederschläge dar. Viele organische Verbindungen besitzen die Fähigkeit, aufgrund ihrer physikalischen Paramter von freien Wasser- und Bodenoberflächen oder aus den Produkten, in denen sie enthalten sind, in die Atmosphäre zu verdampfen. Über den Regen gelangen sie schließlich zurück auf die Erde und können so mit dem Sickerwasser bis in tiefere Zonen des Aquifers transportiert werden. Für Vergleichszwecke wurden auch andere Fließgewässer in Deutschland bezüglich der Belastung durch die ausgewählten Umweltchemikalien untersucht. In Ergänzung und Fortsetzung bisheriger Publikationen wurde mit der vorliegenden Arbeit die Konzentrationsentwicklung dieser Stoffe in den Flüssen Rhein, Main, Elbe, Nidda und Schwarzbach dokumentiert. Ein weiterer Schwerpunkt dieser Arbeit lag darin, die Frage nach dem Eintrag dieser Umweltchemikalien in die Flüsse zu beantworten. Dazu wurde Abwasser und Regenwasser auf die Anwesenheit der entsprechenden Verbindungen untersucht. Das Hauptuntersuchungsgebiet stellte die Oder im Grenzbereich Deutschland-Polen sowie der anaerobe Grundwasserleiter des Oderbruchs dar. Dieses Gebiet westlich der Oder im Bundesland Brandenburg wurde ausgewählt, da hier die besondere hydrologische Situation gegeben ist, dass das Flusswasser der Oder mit Geschwindigkeiten von 0,2-5 m/d in den angrenzenden Aquifer infiltriert. Da im Aquifer des Oderbruchs durchweg reduzierende Verhältnisse herrschen, eignet sich dieser in besonderer Weise, das Verhalten organischer Substanzen unter anaeroben Bedingungen zu untersuchen. Hydrogeologisch betrachtet sind im quartären Untergrund des Oderbruchs zwei Hauptgrundwasserleiter ausgebildet. Beide Horizonte werden durch eine undurchlässige Schicht aus Geschiebemergel voneinander getrennt. Gegenstand der vorliegenden Untersuchungen war ausschließlich der obere Hauptgrundwasserleiter, in dem durchweg anaerobe Bedingungen herrschen. Bei einer durchschnittlichen Mächtigkeit von 20-30 m wird der Aquifer im wesentlichen aus holozänen und pleistozänen Sanden und Kiesen aufgebaut. Charakteristisch für das Oderbruch ist der sogenannte ,,Auelehm". Es handelt sich hierbei um flächenhaft verbreitete bindige Deckschichten mit unterschiedlichen Mächtigkeiten. In einigen Bereichen des Oderbruchs fehlen diese undurchlässigen Deckschichten völlig, weshalb das Niederschlagswasser ungehindert in den Aquifer eindringen kann. In anderen Bereichen variiert die Mächtigkeit des Auelehms lokal. Mit zunehmender Entfernung von der Oder nimmt sie stark ab. In Bereichen ab ca. 3000 m Entfernung vom Fluss sind die Auelehmdeckschichten nicht mehr vorhanden, weshalb hier der Eintrag organischer Stoffe mit den Niederschlägen in einen Aquifer begünstigt wird. Im Vorfeld dieser Arbeit hat die Auswertung der zur Schadstoffbelastung der Oder vorliegenden Literatur gezeigt, dass sich die wenigen Untersuchungen vor allem mit dem Auftreten sogenannter persistenter organischer Schadstoffe wie polychlorierte Biphenyle (PCB), Dioxine, Furane und Chlorpestizide beschäftigten. Umweltchemikalien wie Antioxidantien, Phosphorsäureester und Xenoöstrogene, die unter aeroben Bedingungen gut biologisch abgebaut werden, treten oft in den Hintergrund der Betrachtung, da von einer vollständigen Eliminierung dieser Substanzen ausgegangen wird. Diese Industriechemikalien, die Gegenstand dieser Arbeit sind, werden in so hohen Mengen produziert und eingesetzt, dass die Abbaukapazität in Böden und Gewässern häufig überschritten wird. In der vorliegenden Arbeit wurde zunächst eine empfindliche Messmethode zur Bestimmung von mittelpolaren organischen Umweltkontaminanten aus matrixreichen Wasser- und Abwasserproben im unteren Nanogramm/Liter-Bereich entwickelt. Die Analysenmethode basierte auf der Extraktion der Wasserproben mittels Festphasenextraktion (SPE) sowie dem hochempfindlichen Nachweis der Analyten mittels Kapillargaschromatographie/ Massenspektrometrie (GC/MS). Damit konnten zahlreiche Verbindungen mit einem relativ geringen Arbeitsaufwand im Routinebetrieb mit Wiederfindungsraten von 68 bis 95 % in den Wasserproben identifiziert und quantifiziert werden. Die Bestimmungsgrenzen für die einzelnen Verbindungen lagen zwischen 3-53 ng/l. Insgesamt sind in diesem Projekt von März 1999 bis Juli 2001 sechs Beprobungskampagnen im halbjährlichen Rhythmus durchgeführt worden. Zur Beprobung standen die im Rahmen dieses Schwerpunktprogrammes von Mitarbeitern der FU Berlin sowie des ZALF in Müncheberg im Oderbruch installierten Grundwassermessstellen der Transsekten Bahnbrücke und Nieschen zu Verfügung. Im Bereich der Transsekte Bahnbrücke ist der ,,Auelehm" weit verbreitet, allerdings mit lokal variierenden Mächtigkeiten. Mit zunehmender Entfernung von der Oder nimmt die Mächtigkeit dieser Deckschicht ab, bis sie in einer Entfernung von ca. 5000 m überhaupt nicht mehr vorhanden ist. Vereinzelt sind den überwiegend sandig bis kiesigen Sedimentfolgen, die den Aquifer im Bereich der Transsekte Bahnbrücke überwiegend aufbauen, in unmittelbarer Nähe der Oder geringmächtige Tonlagen zwischengeschaltet. Dadurch wird der Aquifer in flussnähe in zwei Teilbereiche gegliedert. Der untere Teilbereich steht im direkten hydraulischen Kontakt zur Oder und wird so maßgeblich durch das Uferfiltrat beeinflusst. Im Hangenden dieses grundwasserleitenden Horizontes folgt ein zweiter Teilbereich, der durch eine stauende Tonschicht an der Basis hydraulisch von der Oder getrennt ist und so überwiegend von infiltrierendem Niederschlagswasser sowie vom Oderwasser bei Überschwemmungen geprägt wird. Im Bereich der Transsekte Nieschen besteht der Grundwasserleiter ausschließlich aus sandig-kiesigen Sedimentfolgen. Außerdem fehlt hier der Auelehm und damit eine den Aquifer schützende Deckschicht. Daher ist im Bereich der Transsekte Nieschen der Einfluss von infiltrierendem Niederschlagswasser auf den Grundwasserchemismus besonders stark ausgeprägt, da dieses ungehindert in den Aquifer eindringen kann. Parallel zu jeder Grundwasserprobennahme wurde an ausgewählten Standorten in Deutschland eine Beprobung verschiedener Oberflächengewässer durchgeführt sowie Dachablaufproben gesammelt. Bei der letzten Beprobungskampagne wurden im Oderbruch eine Niederschlagsprobe sowie zwei Dachablaufproben genommen. Zum gleichen Zeitpunkt wurden Zu- und Abläufe der Kläranlage einer Stahlverarbeitungsfirma sowie dreier kommunaler Kläranlagen in der Umgebung des Oderbruchs beprobt. Sämtliche beprobten Kläranlagen leiten ihre geklärten Abwässer in die Oder. Folgende organische Verbindungen wurden in den Proben identifiziert und in drei Gruppen eingeteilt: Die Gruppe der Antioxidantien mit den Vertretern 3,5-Di-tert.-butyl-4-hydroxytoluol (BHT), 3,5-Di-tert.-butyl-4-hydroxybenzaldehyd (BHT-CHO) und 1,2-Bis(3,5-di-tert.- butyl-4-hydroxy-phenyl)ethan (2-BHT), die Gruppe der Phosphorsäureester mit den Vertretern Tributylphosphat (TBP), Tris(2-chloroethyl)phosphat (TCEP) und Tris(2- butoxyethyl)phosphat (TBEP) sowie die Gruppe der Xenoöstrogene mit den Vertretern 2,2- Bis-(4-hydroxyphenyl)propan (BPA) und 4-Nonylphenol (4-NP). Die organischen Verbindungen BHT, TBP, TCEP, TBEP und BPA sind weltweit eingesetzte, industriell hergestellte Chemikalien. 4-NP ist ein Abbauprodukt nichtionischer Tenside (Nonylphenolpolyethoxylate = NPnEO), die als Detergentien in Waschmitteln eingesetzt werden. Bei der Verbindung BHT-CHO handelt es sich um ein Abbauprodukt des Antioxidationsmittels BHT und bei 2-BHT um ein Dimeres von BHT. Sämtliche organische Umweltchemikalien und Metabolite konnten in kommunalen und industriellen geklärten und ungeklärten Abwässern, im Niederschlag und im Dachablauf, in Oberflächengewässern sowie im Grundwasser nachgewiesen werden. Abwasser: In den kommunalen Zuläufen betrug die mittlere BHT-Konzentration 392 ng/l und in den Abläufen 132 ng/l. Für BHT-CHO lag die mittlere Konzentration in den kommunalen Zuläufen bei 113 ng/l und in den Abläufen bei 70 ng/l. Auch die drei Phosphorsäureester wurden in allen untersuchten kommunalen Zuläufen mit mittleren Konzentrationen von 15404 ng/l für TBP, 986 ng/l für TCEP und 12835 ng/l für TBEP nachgewiesen. Die Durchschnittskonzentration in den Abläufen der drei kommunalen Kläranlagen lag bei 622 ng/l für TBP, 352 ng/l für TCEP und 2955 ng/l für TBEP. Das Xenoöstrogen BPA wurde in den Zuläufen mit durchschnittlich 6579 ng/l und in den Abläufen mit 1656 ng/l bestimmt. Die Verbindung 4-NP trat hingegen nur in den Abläufen der kommunalen Kläranlagen mit durchschnittlich 385 ng/l auf. Die Konzentrationen von BHT, TBP, TCEP und TBEP im Zulauf der betriebseigenen Kläranlage einer Stahlverarbeitungsfirma bei Eisenhüttenstadt waren durchweg geringer als die mittleren Konzentrationen dieser Stoffe in den Zulaufproben der kommunalen Kläranlagen. Diese Industriechemikalien finden vor allem in Haushaltsprodukten Verwendung und werden so hauptsächlich durch die Abwassereinleitungen kommunaler Kläranlagen in die Oberflächengewässer eingetragen. Im Gegensatz dazu wurden im Abwasser der industriellen Kläranlage die höchsten Konzentrationen für die beiden Xenoöstrogene BPA und 4-NP festgestellt, da diese Stoffe bei der Metallverarbeitung als Zusatzstoff bzw. als Reinigungsmittel eingesetzt werden. Sämtliche hier zur Diskussion stehenden Verbindungen, mit Ausnahme von 4-NP, wurden durch den Klärprozess mit Raten von 29,1-96,0 % eliminiert. Die Substanzen TBP und TBEP, die in höheren Konzentrationen von mehreren Mikrogramm/l im ungeklärten Abwasser enthalten waren, wurden effektiver durch den Klärprozess eliminiert, als dies bei Substanzen mit geringeren Konzentrationen wie BHT und TCEP der Fall war. Eine besondere Stellung im Eliminierungsprozess in den Kläranlagen nimmt 4-NP ein. Diese endokrin wirksame Substanz konnte ausschließlich in den Ablaufproben der kommunalen Kläranlagen nachgewiesen werden, was darauf hindeutet, dass sie erst während des Klärprozesses durch biologischen Abbau von NPnEO gebildet wird. Da allerdings kommunale Kläranlagen neben Abwasser auch einen großen Anteil an Oberflächenabfluss und damit Niederschlagswasser aufnehmen, stellt sich an dieser Stelle die Frage, warum 4-NP in den Zulaufproben nicht oberhalb der Nachweisgrenze nachgewiesen werden konnte. Niederschlag- und Dachablauf enthielten immerhin durchschnittlich 942 ng/l 4-NP. Hier besteht weiterhin Klärungsbedarf. Das Auftreten aller Substanzen in sämtlichen Ablaufproben zeigt, dass die Direkteinleitungen geklärter Abwässer in die Flüsse eindeutig eine Eintragsquelle für das gesamte untersuchte Stoffspektrum in die aquatische Umwelt darstellen. Ein weiterer Schadstoffeintrag ist durch die Aufbringung von Klärschlamm auf landwirtschaftliche Nutzflächen gegeben. Aufgrund der hohen Werte der Octanol/Wasserverteilungskoeffizienten (logPOW) der hier untersuchten Verbindungen muss eine Adsorption der Substanzen an Klärschlamm und ein damit verbundener Eintrag ins Grundwasser durch Remobilisierungserscheinungen ebenfalls als Eintragsquelle in Betracht gezogen werden. Generell gingen in den letzten Jahren die Mengen an BHT, die über die Einleitungen geklärter Abwässer in die Oberflächengewässer gelangen, zurück. Vor fast 30 Jahren gelangte in den USA vereinzelt noch ungefähr die 100fache Menge der Substanz über Abwassereinleitungen in die Vorfluter. Für TBP, TCEP und TBEP war im geklärten Abwasser deutscher Kläranlagen in den letzten 20 Jahren ebenfalls eine Konzentrationsabnahme zu beobachten. Der Grund hierfür liegt in der Ausweitung des Kläranlagennetzes sowie in der Verbesserung vorhandener Abwasserreinigungsanlagen (vor allem in den neuen Bundesländern). Dagegen ist die BPA-Konzentration im geklärten Abwasser in der Bundesrepublik Deutschland in den letzten drei Jahren geringfügig gestiegen, was auf die steigenden Produktionszahlen dieser Massenchemikalie zurückgeführt werden kann. Für 4-NP wurde in der BRD in den letzten fünf Jahren ein leichter Konzentrationsrückgang im geklärten Abwasser beobachtet. Dies kann damit in Zusammenhang gebracht werden, dass die deutsche Wasch- und Reinigungsmittelindustrie im Jahr 1986 eine freiwillige Verzichterklärung bezüglich des Einsatzes von NPnEO abgegeben hat. Durch den geringeren Einsatz dieser nichtionischen Tenside in den Produkten gelangen weniger NPnEO mit dem Abwasser in die Kläranlagen. Folglich wird im Verlauf der Abwasserbehandlung auch weniger 4-NP durch biologischen Abbau gebildet. Trotz dieser Verzichterklärung kann 4-NP dennoch bis heute in deutschen Kläranlagenabläufen nachgewiesen werden. Im internationalen Vergleich mit Österreich, Italien, England, Schottland, Schweiz, Kanada und den USA sind die 4-NP-Konzentrationen im geklärten Abwasser in Deutschland allerdings relativ gering. Niederschlag und Dachablauf Alle ausgewählten Verbindungen konnten sowohl in der Niederschlagsprobe aus dem Oderbruch als auch in den Dachablaufproben nachgewiesen werden. Aufgrund ihrer physikalischen Eigenschaften wie Dampfdruck und Henry-Konstante ist die Voraussetzung für einen Eintrag in die Atmosphäre für alle im Rahmen dieser Arbeit untersuchten Substanzen generell gegeben. BHT und BHT-CHO konnten mit durchschnittlich 510 ng/l bzw. 171 ng/l in Niederschlag- und Dachablauf nachgewiesen werden (n=5). Der Maximalwert für BHT lag dabei bei 1797 ng/l in einer Dachablaufprobe und für BHT-CHO bei 474 ng/l in der Niederschlagsprobe. Die mittlere Konzentration der Phosphorsäureester in den untersuchten Niederschlags- und Dachablaufproben lag bei 951 ng/l für TBP, bei 151 ng/l für TCEP und bei 338 ng/l für TBEP. Dabei erreichte TBP ein Maximum von 1344 ng/l, TCEP von 327 ng/l und TBEP von 448 ng/l (die Maximalwerte der Phosphorsäureester wurden jeweils in einer Dachablaufprobe bestimmt). 4-NP wurde mit einer mittleren Konzentration von 942 ng/l im Niederschlag- und Dachablauf gemessen. Das 4-NP- Maximum lag bei 1231 ng/l (Dachablauf). BPA konnte mit durchschnittlich 1251 ng/l in Niederschlag- und Dachablauf nachgewiesen werden. Die maximale BPA-Konzentration lag dabei bei 4085 ng/l in der Niederschlagsprobe aus dem Oderbruch. Die hohen Konzentrationen von BPA im Regen konnten im Rahmen dieser Arbeit nicht erklärt werden. Die Verbindung besitzt einen sehr niedrigen Dampfdruck (0,000005 Pa bei 25°C), der nicht ausreicht, um solch hohe Konzentrationen in der Atmosphäre hervorzurufen. Eine Verunreinigung der Regenwasserproben bei der Probennahme ist hier als Grund für die hohen BPA-Konzentrationen in Betracht zu ziehen und durch die Analyse weiterer Niederschlags- und Dachablaufproben zu überprüfen. Die Substanzen BHT, BHT-CHO, TBP und 4-NP waren im Vergleich zum geklärten Abwasser in höheren Konzentrationen in Niederschlag und Dachablauf enthalten. Diese Stoffe werden somit verstärkt über die Atmosphäre mit den Niederschlägen in die Umwelt eingetragen. Hier besteht Klärungsbedarf bezüglich dessen, dass 4-NP zwar im Regenwasser nicht aber in den Zuläufen der kommunalen Kläranlagen nachgewiesen werden konnte. Die mittleren Regenwasserkonzentrationen von BHT, BHT-CHO, TBP und 4-NP lagen ebenfalls über den mittleren Konzentrationen in Oberflächen- und Grundwasser. Zwei der Dachablaufproben stammten aus dem Rhein-Main Gebiet. In solchen Ballungszentren sind häufig höhere Gehalte an organischen Umweltchemikalien im Regenwasser enthalten als in ländlichen Gebieten, was einen Anstieg der Durchschnittskonzentration in sämtlichen Regenwasserproben zur Folge hat. Hinzu kommt, dass sich Verbindungen wie 4-NP, die einen hohen Dampfdruck aufweisen, relativ gleichmäßig in der Atmosphäre verteilen und so auch in Gebiete gelangen, die nicht durch hohe Schadstoffemissionen gekennzeichnet sind. Dies hat ebenfalls relativ hohe Konzentrationen im Regenwasser zur Folge. Ein dritter Grund für die höheren Konzentrationen im Regenwasser im Vergleich zum Oberflächen- und Grundwasser könnte die Adsorption organischer Umweltchemikalien mit hohen Octanol/ Wasserverteilungskoeffizienten an Sedimentpartikel, Schwebstoffe und/oder organische Substanz in Fluss und Aquifer sein. Die mittleren Konzentrationen der beiden Phosphorsäureester TCEP, TBEP und BPA waren im Vergleich zum geklärten Abwasser der kommunalen Kläranlagen im Regenwasser deutlich niedriger. Der Eintrag über die Atmosphäre ist folglich für diese Verbindungen von geringerer Bedeutung. Am Beispiel des Phosphorsäureester TBEP konnte dennoch demonstriert werden, dass der atmosphärische Eintrag organischer Verbindungen mit relativ geringen Dampfdrücken nicht zu vernachlässigen ist, da solche Substanzen die Tendenz zeigen, an Aerosolpartikel zu adsorbieren und mit dem Aerosol transportiert zu werden. Oberflächenwasser Die untersuchten Umweltchemikalien konnten in fast allen Wasserproben aus den untersuchten Oberflächengewässern mit zum Teil erheblichen Konzentrationsschwankungen nachgewiesen werden. Für BHT lagen die Konzentrationen in den Oberflächengewässern zwischen Werten unterhalb der Nachweisgrenze (<1 ng/l) und 1594 ng/l. Der Metabolit BHT- CHO wies dagegen mit einem Konzentrationsbereich von Werten unterhalb der Nachweisgrenze (<5 ng/l) bis 236 ng/l durchweg geringere Konzentrationen in den Oberflächenwasserproben auf. Der Mittelwert lag für BHT bei 233 ng/l und für BHT-CHO bei 89 ng/l (n = 47). Die Konzentrationen der Phosphorsäureester TBP, TCEP und TBEP in den untersuchten Oberflächenwasserproben schwankten zwischen Gehalten unterhalb der Nachweisgrenzen (<7 ng/l für TBP, <5 ng/l für TCEP und <6 ng/l für TBEP) und 1510 ng/l für TBP. Dabei wiesen TBP und TBEP mit Mittelwerten von 481 bzw. 465 ng/l die höchsten Konzentrationen in den untersuchten Oberflächengewässern auf. Der Mittelwert der Substanz TCEP in allen untersuchten Oberflächenwasserproben lag dagegen nur bei 165 ng/l. Die Konzentrationen der Xenoöstrogene BPA und 4-NP reichten bis maximal 1672 bzw. 1220 ng/l. Die Nachweisgrenze für BPA lag bei 10 ng/l und für 4-NP bei 6 ng/l. 4-NP trug mit einem Mittelwert von 464 ng/l am meisten von allen untersuchten Verbindungen zur Gewässerverunreinigung bei. Der Mittelwert für BPA in den Oberflächengewässern lag bei 351 ng/l. In den hier untersuchten Flüssen in der BRD war die maximale BHT-Konzentration (1594 ng/l) um das 10fache geringer als die maximale BHT-Konzentration, die noch vor 30 Jahren in deutschen Oberflächengewässern gemessen wurde (14000 ng/l). Im Vergleich zu BHT- Gehalten in japanischen (1980) und amerikanischen (1975) Oberflächengewässern lagen die aktuellen BHT-Gehalte in deutschen Flüssen deutlich darunter. Die Konzentrationen für TBP und TCEP in deutschen Oberflächengewässern sind in der Vergangenheit ebenfalls deutlich zurückgegangen. Im internationalen Vergleich liegt die BRD in Bezug auf TBP-Gehalte in Oberflächengewässern mit an der Spitze. In der Elbe konnte für die Substanz TBEP in den letzten 15 Jahren ein leichter Konzentrationsanstieg beobachtet werden. Die TBEP- Konzentration in deutschen Oberflächengewässern ist im Vergleich zu Gehalten in japanischen und amerikanischen Flüssen sowie im Trinkwasser aus Kanada gering. Der BPA- Gehalt im Rhein ist in den letzten 10 Jahren geringfügig angestiegen. Im Vergleich mit Japan und Tschechien liegen die BPA-Konzentrationen in deutschen Flüssen innerhalb von Ballungsgebieten auf einem ähnlich hohen Niveau. Die Konzentrationsentwicklung des Xenoöstrogens 4-NP war seit 1986 in deutschen Oberflächengewässern stark rückläufig, was mit der freiwilligen Verzichterklärung in diesem Jahr zusammenhängt. Trotzdem tritt 4-NP auch heute noch in Konzentrationen im Nanogramm/Liter-Bereich in deutschen Flüssen auf. Die deutschen Werte lagen allerdings deutlich unterhalb der 4-NP-Konzentrationen in Oberflächengewässern der Schweiz, England, den USA und Taiwan.. Grundwasser Das Antioxidans BHT sowie sein Abbauprodukt BHT-CHO konnten in den meisten Grundwasserproben aus dem Oderbruch mit Gehalten bis zu 2156 bzw. 541 ng/l nachge- wiesen werden. Der Mittelwert für BHT im Grundwasser lag bei 353 ng/l und für BHT-CHO bei 105 ng/l (n=76). Die Verbindung 2-BHT wurde ausschließlich im Grundwasser nachgewiesen. Dies zeigt, dass die anaeroben Bedingungen im Aquifer des Oderbruchs zur Bildung des Dimeren von BHT geführt haben. Ob diese Vermutung stimmt, dass 2-BHT tatsächlich aus dem Antioxidans BHT gebildet wird, soll in naher Zukunft anhand mikrobiologischer Abbauversuche von BHT unter anaeroben Bedingungen geklärt werden. Die Gehalte der Phosphorsäureester im Grundwasser bewegten sich in Konzentrationsbereichen bis zu 1605 ng/l (TBP), bis zu 754 ng/l (TCEP) und bis zu 2010 ng/l (TBEP) mit einem Mittelwert für TBP von 276 ng/l, für TCEP von nur 80 ng/l und für TBEP von 289 ng/l. Der Maximalwert für BPA in den Grundwasserproben betrug 4557 ng/l. Der Mittelwert für diese Verbindung im Grundwasser lag bei 630 ng/l. Betrachtet man die BPA- Konzentration in den Grundwasserproben, fällt auf, dass diese sehr starken Schwankung unterliegt, die an dieser Stelle nicht erklärt werden können. Es besteht der Verdacht einer BPA-Kontamination der Grundwasserproben bei der Probennahme, da die beprobten Messstellen im Oderbruch zur Förderung des Grundwassers mit Kunststofflinern ausgestattet wurden, die eventuell BPA als Antioxidans enthalten. In Zukunft sind daher weitere Grundwasseranalysen mit einer verbesserten Probennahmetechnik notwendig, um eine Kontamination mit BPA auszuschließen. In den Grundwasserproben war das Isomerengemisch 4-NP, ebenso wie in den Oberflächenwasserproben, im Mittel mit der höchsten Konzentration vertreten (724 ng/l). Das 4-NP-Maximum lag dabei bei 2542 ng/l. Alle ausgewählten organischen Industriechemikalien konnten in den odernahen Bereichen innerhalb der Transsekte Bahnbrücke sowohl im Grundwasser aus dem Teilbereich des Aquifers, der nur durch infiltrierendes Oderwasser gespeist wird, als auch im Grundwasser aus dem Teilbereich des Aquifers, der überwiegend von infiltrierendem Niederschlagswasser beeinflusst wird, nachgewiesen werden. Die anthropogenen Stoffe gelangen also im Bereich der Transsekte Bahnbrücke sowohl über das Uferfiltrat als auch durch Niederschlagsinfiltration ins Grundwasser. Durch die Uferfiltration spiegelten sich die Konzentrationen der vor wenigen Tagen infiltrierten organischen Verbindungen aus dem Oderwasser direkt im Grundwasser aus odernahen Bereichen wieder. Auch weiter vom Fluss entfernt liegende Aquiferbereiche innerhalb der Transsekte Bahnbrücke wurden noch von infiltriertem Oderwasser beeinflusst. Die jahreszeitlichen Konzentrationsschwankungen demonstrieren hier jedoch die Flusskonzentrationen vor einigen Jahren, da das Oderwasser mehrere Jahre braucht, um in diese Bereiche zu gelangen. Weiterhin ist auch ein Stoffeintrag ins Grundwasser mit dem Oderwasser bei Hochwasserereignissen zu berücksichtigen. Generell nahmen die Konzentrationen der organischen Umweltchemikalien mit zunehmender Entfernung von der Oder ab, was den fehlenden Niederschlagseinfluss im Aquiferbereich der Transsekte Bahnbrücke bedingt durch die schützenden undurchlässigen Deckschichten demonstriert. Im Grundwasser, das aus dem Aquiferbereich in unmittelbarer Nähe der Entwässerungsgräben stammte, war häufig eine Konzentrationsabnahme der organischen Umweltchemikalien zu beobachten. Dies beweist den hydraulischen Zusammenhang zwischen Fluss und Entwässerungsgräben. Das infiltrierte Flusswasser steigt nach der Aquiferpassage in Grabennähe auf, was zu Verdünnungseffekten im Grundwasser verbunden mit einer Konzentrationsabnahme führt. Weiterhin wurden die ausgewählten Stoffe auch in den Grundwasserproben aus dem Aquiferbereich der Transsekte Nieschen nachgewiesen, der durch das Fehlen undurchlässiger Deckschichten gekennzeichnet ist. Da hier aufgrund der Entfernung dieser Transsekte von der Oder der hydraulische Kontakt zum Fluss stark eingeschränkt ist, sind die im Grundwasser auftretenden organischen Umweltchemikalien auf einen Eintrag mit dem infiltrierenden Niederschlagswasser zurückzuführen. Für einen Eintrag der Substanzen mit dem Niederschlagswasser spricht auch die Tatsache, dass die mittleren Konzentrationen der organischen Verbindungen in den Grundwasserproben aus der Transsekte Nieschen im Gegensatz zu denen aus der Transsekte Bahnbrücke trotz eines fehlenden hydraulischen Kontakts zur Oder erhöht waren. Die starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen können zum einen auf einen Eintrag dieser Substanzen mit dem Niederschlag zurückgeführt werden. Der Aquifer im Oderbruch ist heterogen ausgebildet, was den Eintrag organischer Stoffe mit den Niederschlägen ins Grundwasser lokal fördert oder hemmt und es dadurch zu unterschiedlichen Konzentrationen kommt. Zum anderen kann angenommen werden, dass die Konzentrationsschwankungen in diesem Aquiferbereich Folge einer Aufkonzentrierung der gelösten organischen Stoffe durch Verdunstung des oberflächennahen Grundwassers waren. Diese Annahme bestätigen die erhöhten Konzentrationen der Stoffe im Grundwasser im November 2000 und im März 2001 im Vergleich zum März 2000. Zu beiden Zeitpunkten waren die Niederschläge gering, was sich im Niedrigwasserstand der Oder wiederspiegelte. Vor allem in niederschlagsarmen Gebieten wie das Oderbruch, kann dieser Prozess der Aufkonzentrierung organischer Stoffe im Grundwasser durch Evaporation von Bedeutung sein. Die Frage, ob letztendlich der Niederschlagseintrag oder der umgekehrte Prozess, die Evaporation des Grundwassers, zu den starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen geführt hat, kann an dieser Stelle nicht beantwortet werden. Sicher ist, dass bei fehlenden undurchlässigen Deckschichten ein atmosphärische Eintrag organischer Umweltchemikalien in den Aquifer stattfindet. Auch in den Messstellen, die außerhalb der beiden Transsekten Nieschen und Bahnbrücke ca. 3000 bzw. 5000 m entfernt von der Oder liegen, konnten die organischen Verbindungen zum Teil in erheblichen Konzentrationen nachgewiesen werden. Dies ist zum einen wiederum mit einem Eintrag durch Niederschlagswasser und dem Transport der organischen Umweltchemikalien in größere Tiefen des Aquifers mit dem Sickerwasser zu erklären. Die undurchlässige Auelehmschicht ist in diesem Bereich nicht mehr vorhanden, so dass das Niederschlagswasser ungehindert in den Aquifer infiltrieren kann. Ein Einfluss des Oderfiltrats in dieser Entfernung vom Fluss kann ausgeschlossen werden, da in den mittleren Bereichen des Oderbruchs 50-100 Jahre für einen vollständigen Grundwasseraustausch realistisch sind und die Produktion sämtlicher Industriechemikalien, die Gegenstand dieser Arbeit sind, zu diesen Zeiten ohne Bedeutung war. Eine Remobilisierung der organischen Umweltchemikalien aus Klärschlamm, der im Land Brandenburg noch häufig auf Agrarflächen aufgebracht wird, muss als Eintragsquelle hier ebenfalls in Betracht gezogen werden, da Stoffe mit einem hohen Octanol/ Wasserverteilungskoeffizienten häufig die Tendenz zeigen, an Klärschlamm zu akkumulieren. Der photochemische Abbau des Antioxidationsmittels BHT zu seinem Metabolit BHT-CHO in der Atmosphäre war im Sommer höher als im Herbst und im Frühjahr, wobei der Metabolit selbst ebenfalls Abbauprozessen unterlag. Im Gegensatz dazu spielte der photochemische Abbau von TBP, TCEP, TBEP und 4-NP zu keinen Zeitpunkt eine große Rolle. Solange keine nennenswerten Direkteinleitungen in die Oder zu verzeichnen waren, konnte flussabwärts eine Konzentrationsabnahme für alle organischen Verbindungen festgestellt werden, welche auf aeroben Abbau der Substanzen zurückgeführt werden kann. Im Frühjahr war der Sauerstoffgehalt im Fluss mit 12,05 mg/l aufgrund der geringen Wassertemperatur (6,9 °C) und des Hochwasserereignisses am höchsten. Dies hatte höhere aerobe Abbauraten von BHT zu BHT-CHO zu diesem Zeitpunkt zur Folge. Ob es sich tatsächlich um einen biologischen Abbau der organischen Substanzen handelt oder ob Adsorptionseffekte an Schwebstoffe und Sedimente bei der Eliminierung dieser Stoffe ebenfalls eine Rolle spielen, muss anhand zukünftiger Analysen von Odersedimenten- und Schwebstoffen auf solche Substanzen geklärt werden. Der Abbau unter anaeroben Bedingungen, wie sie im Grundwasserleiter des Oderbruchs durchweg herrschen, spielte dagegen im Bezug auf alle untersuchten Verbindungen keine große Rolle, da diese in allen Tiefen des Aquifers (bis 21 m) noch nachgewiesen werden konnten. Sind sie einmal in das Grundwasser gelangt, werden sie aufgrund ihrer relativ guten Wasserlöslichkeit also leicht mit diesem in tiefere Bereiche transportiert. Sie sind damit relativ mobil. Die organischen Umweltchemikalien werden auch nicht wesentlich durch Adsorption an Sediment und/oder organischer Substanz zurückgehalten und dadurch aus dem Grundwasser eliminiert. Solche Faktoren wie ein schlechter anaerober Abbau, eine gute Wasserlöslichkeit und eine geringe Adsorption an Boden und Sediment einiger Schadstoffe müssen bei der Trinkwasserförderung aus tieferen Aquiferbereichen berücksichtigt werden. Chemikalien mit guten Wasserlöslichkeiten, wie beispielsweise die beiden Phosphorsäureester TCEP und TBEP, zeigten sogar die Tendenz sich besonders in den tieferen Aquiferbereichen anzureichern. Die Ergebnisse dieser Arbeit zeigen auch, dass es selbst in Gebieten wie dem Oderbruch, in denen die Grundwasserneubildung durch Niederschlag eine eher geringe Rolle spielt, durchaus zu einen nicht zu vernachlässigenden Eintrag von Stoffen durch Niederschlagswasser kommt und eine hohe Verdunstungsrate zu einer Aufkonzentrierung führt. Dies bedeutet, dass bei einer Betrachtung von hydrochemischen Prozessen in einem Grundwasserleiter, der hauptsächlich durch Uferfiltrat gespeist wird, keine einfache räumliche Struktur zugrunde gelegt werden kann. Zum lateralem Zustrom des infiltrierenden Flusswassers kommt der vertikale Einfluss des Sickerwassers. Dies muss neben Faktoren wie anaerober Abbau, Adsorption und Verdünnungseffekte bei der Interpretation des Schadstoffeintrags- und Transports im Grundwasser berücksichtigt werden.
Diese Arbeit beschreibt Entwürfe zur Anwendung einer nicht-interpolierenden Advektionsmethode in numerischen Wettervorhersagemodellen. Es wird an verschiedenen Beispielen dargestellt, in welcher Weise eine solche nicht-interpolierende Methode anstelle von herkömmlichen Differenzen- oder interpolierenden Lagrangeschen Verfahren einsetzbar ist. Die in der meteorologischen Modellierung neuartige nicht-interpolierende Advektionsmethode verwendet das Partikel-Lagrangesche Konzept von Steppeler (1990a), das die Verlagerung von atmosphärischen Größen mittels Partikeln berechnet, wobei die Partikeln als Luftpakete zu verstehen sind, die sich entlang der Trajektorien bewegen und dabei den Wert der prognostischen Größen erhalten. Diese Eigenschaft der Methode kommt vor allem dann zum Tragen, wenn die Verteilung der prognostischen Größen durch Sprungfunktionen beschrieben wird, da Näherungsfehler der bislang verwendeten Methoden, wie Oszillation und Glättung, an solchen Gradienten verstärkt auftreten. Die Untersuchung der Genauigkeit und Anwendbarkeit der nicht-interpolierenden Partikel-Lagrangeschen Methode findet durch Modellstudien statt. Die Methode selbst wird am Beispiel verschiedener Anfangswert-Aufgaben für ein dichtekonstantes barotropes Flachwasser-System beschrieben, gefolgt von der Nachbildung von zwei Ausbreitungsszenarien für chemisch träge Stoffe in einer hydrostatischen Modellatmosphäre, sowie des trocken- und feuchtadiabatischen Aufstiegs einer warmen Luftblase unter nicht- hydrostatischen Bedingungen. Im Hinblick auf numerische Fehler wird gefordert, daß die numerische Lösung monoton bleibt, wobei unter Monotonität ein oszillationsfreier Verlauf der Lösung verstanden wird. Mittels Vergleich zwischen den numerischen Lösungen wird festgestellt, daß die Genauigkeit der nicht-interpolierenden numerischen Lösung mit Ausnahme einer Anfangswert-Aufgabe gleich oder höher ist als bei den mit herkömmlichen Methoden erzielten Resultaten. Eine herausragende Steigerung der Genauigkeit ist dann zu beobachten, wenn die Advektion im Vergleich zu anderen Prozessen eine viel stärkere Rolle spielt, wie z.B. im Falle der Konvektion in trockener Atmosphäre.
Nichtmethan-Kohlenwasserstoffe sind in Gegenwart von Stickstoffoxiden (NO, NO2) wichtige Vorläufersubstanzen von troposphärischen Photooxidantien (z. B. Ozon), die beim photochemischen Metabolismus gasförmiger organischer Verbindungen durch Hydroxylradikale (OH) unter Einwirkung von Sonnenlicht gebildet werden. Experimenteller Beitrag dieser Arbeit ist die Charakterisierung, Modifizierung, Optimierung und Qualitätssicherung des zur Messung von leichtflüchtigen atmosphärischen C2-C10 Kohlenwasserstoffen verwendeten mobilen Gaschromatographen (GC) mit Flammenionisationsdetektor (AirmoVOC HC2010). Im Rahmen des vom BIvIBF geförderten Berlin Ozonexperiments BERLIOZ, das im Sommer 1998 im Großraum Berlin/Brandenburg stattfand, wurden an einer ländlichen Bodenstation in Blossin, 40 km südöstlich Berlins, in situ Messungen von 69 Nichtmethan-Kohlenwasserstoffen durchgeführt. im Vorfeld der Feldkampagne wurde der GC einer umfangreichen Qualitätssicherung unterzogen. Bei einer Immissionsvergleichsmessung, die unter Beteiligung aller Arbeitsgruppen stattfand, ergab sich eine mittlere konzentrationsabhängige Abweichung des HC-2010 von ± 16% und ein konstanter Offset (Bias) von 0,71 nmol/m3 (16 pptv) vom Referenzmeßverfahren des Forschungszentrums Jülich. Die Geräteblindwerte waren für die meisten Analyten kleiner 0,3 nmol/m3 (6 pptv). Aus der dreifachen Standardabweichung der Blindwerte ergaben sich die für Außenluftuntersuchungen geforderten Nachweisgrenzen um 0,4 nmol/m3 (10 pptv). Im zweiten Teil dieser Arbeit wurde der BERLIOZ-Datensatz hinsichtlich einer Bestandsaufnahme ausgewertet. Die beobachteten Konzentrationen der einzelnen Kohlenwasserstoffe wiesen jeweils eine logarithmische Normalverteilung auf, die Charakterisierung des Datensatzes erfolgte deshalb nicht anhand von arithmetischem Mittelwert und Standardabweichung, sondern mit geometrischem Mittelwert und multiplikativer Standardabweichung. Anhand der OH-Verlustrate wurde der Einfluß der verschiedenen Kohlenwasserstoffe auf die lokale Bildung von Photooxidantien untersucht. Der natürliche Kohlenwasserstoff Isopren lieferte mit 70% den weitaus größten mittleren Beitrag zur Photooxidantienproduktion am Boden. In der Grenzschicht verlor isopren allerdings seine dominante Rolle. Sein Beitrag schrumpfte mit zunehmender Höhe auf 20-40%. in der in 200 m Höhe beobachteten Abluftfahne Berlins verursachten anthropogene Kohlenwasserstoffe rund 2/3 der OH-Verlustrate, wobei die reaktiven C3/C4-Alkene alleine bereits 50% beitrugen.
Die vorliegende Arbeit liefert einen Beitrag zum Verständnis der Rolle des RO x bei der troposphärischen Ozonbildung. Troposphärisches Ozon (O 3 ) spielt eine wichtige Rolle bei der Selbstreinigung der Atmosphäre. Andererseits führen erhöhte Ozonkonzentrationen zu gesundheitlichen Beeinträchtigungen beim Menschen und Schäden an Pflanzen und Umwelt. Die Anwesenheit von flüchtigen organischen Verbindungen (VOCs) führt zur Bildung von Peroxyradikalen (RO x ), die das normale photochemische Gleichgewicht zwischen Ozon und Stickoxiden zu Gunsten erhöhter OzonKonzentrationen verschieben. Im Rahmen der Arbeit wurde ein chemischer Verstärker zur Messung der GesamtPeroxyradikalkonzentration gebaut. RO x reagiert im Einlass des Gerätes mit hinzugefügtem NO und CO in einer Kettenreaktion und bildet dabei NO 2 . Dieses wird mit einem Luminoldetektor nachgewiesen. Der Detektor wird alle 2 Stunden kalibriert. Die Kettenlänge wird durch eine Kalibrierung des Gerätes mit HO 2 Radikalen bestimmt, die durch die Photolyse von H 2 O gebildet werden. Der Verstärkungsfaktor wurde in Bezug auf eine Querempfindlichkeit gegen Wasserdampf korrigiert. Die Messgenauigkeit ist etwa 70% bei 60% relativer Feuchte. Messungen am Taunus Observatorium auf dem Kleinen Feldberg in den Sommermonaten der beiden Jahre 1998 und 1999 werden vorgestellt. Die Ozon und RO x Konzentrationen sind gut miteinander korreliert. Allerdings ist die Tagestemperatur die für die Ozon und RO x Konzentrationen bei weitem wichtigste Einflussgröße und ist daher der beste Parameter zur statistischen Beschreibung von photochemischen Vorgängen. Auf der Grundlage der Messungen am Kleinen Feldberg wurde ein einfaches statistisches Modell zur Vorhersage des Ozonmaximums erstellt. Mit den Parametern Temperatur und Ozonkonzentration am Vortag konnte das statistische Modell bereits 80% der Variation der Ozonkonzentration erklären. Durch die Berücksichtigung der RO x Messungen am Vormittag konnte lediglich eine Verbesserung der erklärten Varianz um 0.5% erzielt werden. Um einen Hinweis auf den Einfluss anthropogener Emissionen zu bekommen, wurde der Wochengang von Ozon, RO x und NO x ebenfalls untersucht. Die Zunahme des Ozonmischungsverhältnisses am Wochenende bei gleichzeitigem Rückgang des Mischungsverhältnisses der Stickoxide wird damit erklärt, dass am Kleinen Feldberg eine VOClimitierte Situation vorgefunden wurde. Die Ozonbildungsrate auf Basis der Reaktion zwischen RO x und NO wurde für Tage mit einem Maximum der Globalstrahlung über 600 W m tdatensatz niedrig (r = 0,46). Die beobachtete Änderung des Ozonmischungsverhältnisses wurde mit dem berechneten mittleren Tagesgang der Ozonbildungsrate verglichen. Die Ozonbildungsrate lag um die Mittagszeit bei etwa 5 ppbv h Verlustprozesse zu erklären. Am Abend werden etwa 2 ppbv O 3 pro Stunde abgebaut. Im Rahmen einer Messkampagne im Juni/Juli 2000 am Meteorologischen Observatorium Hohenpeißenberg fanden Messungen der Konzentrationen von RO x , OH, einer Reihe von VOCs, und anderen relevanten Spurengasen statt. Die Messdaten werden mit Hilfe eines auf der Annahme des lokalen photostationären Gleichgewichts der Radikale basierenden Modells interpretiert. Die Modellergebnisse stimmten sehr gut mit den Messungen überein. Die Überschätzung der Konzentration an 2 Tagen wurde durch den Einfluss sauerstoffhaltiger VOCs erklärt. Das '' Recycling" der HO 2 Radikale (die Reaktion zwischen HO 2 und NO) ist die wichtigste Quelle für OH und die wichtigste Senke für RO x . Durch die erhöhte NOKonzentration am Vormittag wird HO 2 sehr schnell in OH umgewandelt, das wiederum für die VOCOxidation und RO x Bildung verantwortlich ist. Die wichtigste OHSenke und RO x Quelle ist die Oxidation von Isopren und den Terpenen. Um die Rolle der photochemischen Ozonbildung auf regionaler Skala zu untersuchen, wurden Ozonmessungen aus ganz Deutschland auf unterschiedlichen zeitlichen und räumlichen Skalen statistisch untersucht. Die Netto Änderungsrate der Ozonkonzentration war tagsüber an 3 nahe zusammenliegenden Stationen sehr ähnlich. Die OzonMessdaten von 277 deutschen Messstationen wurden mit den an einer Waldmessstelle nahe Königstein gemessenen Ozonwerten korreliert. Die Ozonmessungen in Königstein erklären 50% der Varianz der sommerlichen Ozonmessungen zwischen 11:00 und 16:00 MEZ an Stationen, die in einem Umkreis von etwa 250 km von Königstein liegen. Auf das ganze Jahr bezogen, liegt diese ''charakteristische Entfernung" bei etwa 350 km. Diese Ergebnisse deuten darauf hin, dass die Prozesse, die einen wichtigen Einfluss auf die Ozonkonzentration ausüben, auf regionalen Skalen von einigen hundert Kilometern aktiv sind. Zusammenfassend lässt sich sagen, dass die gemessenen RO x Konzentrationen mit den aufgrund der Oxidation der VOCs durch OH berechneten Konzentrationen konsistent sind. Obwohl die RO x Konzentationen für die chemische Modellierung von Bedeutung sind, tragen RO x Messungen nur wenig zu einer Verbesserung der Qualität von kurzfristigen statistischen Ozonprognosen bei. Keywords: Ozone, Troposphere, Peroxy Radicals, Free Radicals, Photochemistry, Chemical Amplifier
In der hier vorliegenden Arbeit wurde der troposphärische Kreislauf von Carbonylsulfid (COS) untersucht. COS ist ein Quellgas des stratosphärischen SulfatAerosols, das die Strahlungsbilanz beeinflussen und den chemischen Abbau des stratosphärischen Ozons beschleunigen kann. Trotz zahlreicher Studien sind die Quellen und Senken des atmosphärischen COS bisher nur unzulänglich quantifiziert. Insbesondere bestehen große Unsicherheiten in den Abschätzungen der Beiträge des Ozeans und der anthropogenen Quellen, sowie der Senkenstärke der Landvegetation. Schiffs und flugzeuggetragene Messungen des atmosphärischen COS ergaben kein einheitliches interhemisphärisches Verhältnis (IHR=MNH /M SH ). Während die Messungen von Bingemer et al. (1990), StaubesDiederich (1992) und Johnson et al. (1993) ein IHR zwischen 1.10 und 1.25 zeigten, fanden die Messungen von Torres et al. (1980), StaubesDiederich (1992), Weiss et al. (1995) und Thornton et al. (1996) keinen oder nur einen geringfügigen N/SGradienten. Die Untersuchung von Chin und Davis (1993) zeigt ein N/SVerhältnis der COS Quellstärke von 2.3, das hauptsächlich auf die stärkeren anthropogenen Quellen auf der Nordhalbkugel zurückzuführen ist. Es ist unklar, ob der zeitweilige Konzentrationsüberschuß der Nordhemisphäre Zeichen anthropogener Quellen dort oder Teil eines durch die Senkenfunktion der Landpflanzen verursachten saisonalen Signals ist. Die Konsistenz der Breitenverteilung des COSMischungsverhältnisses mit den geographischen bzw. saisonalen Variationen der COSQuellen und Senken muß überprüft werden. Dazu werden genaue Kenntnissen der Quell und Senkenstärken des atmosphärischen COS und ihrer raumzeitlichen Variabilität benötigt. Vor dem obigen Hintergrund ergeben sich als Schwerpunkte dieser Arbeit: (1) der Austausch von COS zwischen Atmosphäre und Ozean sowie (2) zwischen Atmosphäre und terrestrischer Vegetation und (3) die raumzeitliche Variabilität des atmosphärischen COS. Zur Untersuchung des Austausches von COS zwischen Atmosphäre und Ozean wurde das KonzentrationsUngleichgewicht von COS zwischen Ozean und Atmosphäre durch Messungen des COS im Seewasser und in der Meeresluft ermittelt und die resultierenden Austauschflüsse mit einem Modell berechnet. Die Messungen fanden an Bord des Forschungsschiffs Polarstern während der Fahrten ANT/XV1 (15.10.6.11.1997, BremerhavenKapstadt) und ANT /XV5 (26.5.6.20.1998, KapstadtBremerhaven) statt. Die Konzentration des gelösten COS und das Sättigungsverhältnis von COS zwischen Ozean und Atmosphäre zeigen ausgeprägte Tagesgänge und saisonale und geographische Variationen. Die mittlere Konzentration von COS im Seewasser beträgt 14.7 pmol L -1 für die HerbstFahrt bzw. 18.1 pmol L -1 für die SommerFahrt. Höchste COSKonzentrationen werden in der jeweiligen SommerHemisphäre und in Gebieten mit hoher biologischer Produktivität beobachtet, d.h. im BenguelaStrom im November, im NordostAtlantik im Juni und in den Auftriebgebieten vor Westafrika im Oktober bzw. Juni. In den übrigen Gebieten sind die Konzentrationen um eine Größenordnung niedriger. Die Konzentration von COS im Seewasser steigt frühmorgens von ihrem tiefsten Stand an. Um ca. 15 Uhr Ortszeit erreicht sie ihr Maximum, danach nimmt sie ab. Der Tagesgang unterstützt die Theorie, daß COS im Seewasser photochemisch produziert wird. Während der Tagesstunden wird eine Übersättigung des offenen Ozean für COS gefunden. Dagegen ist eine Untersättigung des Ozeans in den späten Nachtstunden zu beobachten. Der Ozean wirkt in den Tagesstunden als COSQuelle, in der späten Nacht als COSSenke. Die Untersättigung tritt sogar im Sommer in produktiven Meeresgebieten regelmäßig auf. Eine Konsequenz dieser Beobachtung ist die weitere Reduzierung der ozeanischen Quelle von COS gegenüber bisher publizierten Abschätzungen. Methylmercaptan (CH 3 SH) ist in allen Seewasserproben zu beobachten. Der Tagesmittelwert der CH 3 SHKonzentration variiert zwischen 29 und 303 pm L -1 und ist 316 fach größer als der der COSKonzentration. Der Tagesgang der CH 3 SHKonzentration zeigt ein Minimum um die Mittagszeit. Die Tagesmittel der CH 3 SH und COSKonzentrationen sind signifikant miteinander korreliert. Diese Daten liefern den Beweis dafür, daß CH 3 SH eine der wichtigen Vorgängersubstanzen von COS ist. Die Regressionslinie der Korrelation zwischen den mittleren COS und CH 3 SHKonzentrationen weist nur einen geringfügigen Achsenabschnitt auf. Somit kann die CH 3 SHKonzentration als ein Indikator der Konzentration von COSVorgängern benutzt werden. Es besteht außerdem eine Korrelation zwischen der CH 3 SHKonzentration und dem Logarithmus der Konzentration des gelösten Chlorophyll a. Diese Korrelation deutet darauf hin, daß der Gehalt von CH 3 SH im Seewasser eine enge Beziehung zur marinen Primärproduktion hat. COS wird im Seewasser durch Hydrolyse abgebaut. Die Abbaurate hängt von der Temperatur des Seewassers ab. Je wärmer das Seewasser ist, desto schneller wird COS abgebaut, und um so kürzer ist die Lebenszeit von COS im Seewasser. Die Lebenszeit kann einerseits durch das ReaktionsgeschwindigkeitsGesetz von Arrhenius berechnet werden, andererseits läßt sie sich durch exponentielle Anpassung an den nächtlichen Konzentrationsverlauf (d.h. bei Abwesenheit von Photoproduktion) abschätzen. Eine solche Anpassung des exponentiellen Abklingens wurde anhand von dicht gestaffelten Messungen während einiger Nächte vorgenommen. Die gefitteten Lebenszeiten stimmen mit den theoretischen Werten gut überein, obwohl die gefittete Lebenszeit neben Hydrolyse noch von anderen Prozessen (z.B. Transport nach unten, AirSeaAustausch, usw.) beeinflußt wird. Diese gute Übereinstimmung unterstützt die Aussage, daß die Hydrolyse eine bedeutende Rolle beim Abbau von COS im Seewasser spielt. Die berechnete HydrolyseLebenszeit ist mit dem Tagesmittel der COSKonzentration korreliert. Da die Tagesmittelwerte sowohl zeitliche wie auch räumliche Mittelwerte der COSKonzentrationen darstellen, zeigt diese Korrelation, daß Hydrolyse eine bedeutende Rolle in der raumzeitlichen Variabilität der COSKonzentration einnimmt. Da die Konzentration des gelösten COS von mehreren Faktoren abhängig ist, scheint eine multivariable Betrachtung sinnvoll. Hierfür wurde eine "Multiple Linear Regression Analysis'' (MLRA) ausgeführt. Diese Analyse ergibt ein empirisches Modell der folgenden Form für die Berechnung des Tagesmittels der COSKonzentration: [COS] = 1.8# 13log[Chl] - 1.5W s 0.057G - 0.73, mit [COS] = mittlere Konzentration von COS in pmol L -1 # = HydrolyseLebenszeit in Stunde [Chl] = mittlere Konzentration von Chlorophyll a in mg m -3 W s = Windgeschwindigkeit in m s -1 G = Intensität der Globalstrahlung in W m -2 . Die Parameter auf der rechten Seite der Gleichung können direkt oder indirekt von Satelliten aus gemessen werden, deshalb kann dieses Modell für die Abschätzung der Konzentration von COS im Seewasser anhand von Satelliten Daten verwendet werden. Das empirische Modell soll noch durch weitere Messungen bestätigt bzw. verbessert werden. Der Austauschfluß von COS zwischen der Atmosphäre und dem offenen Ozean wurde mit dem AirSeaFlußModell von Liss and Slater (1974) zusammen mit dem Modell von Erickson (1993) f
Die vorliegende Arbeit liefert einen Beitrag zum besseren Verständnis des stratosphärischen Transports. Dieser ist ein wichtiger Parameter im komplexen gekoppelten System der Stratosphäre, das neben dem Transport vor allem von Chemie und Strahlungshaushalt geprägt wird. Neben verschiedenen Modelliertechniken bietet die Messung langlebiger Spurengase das effektivste Werkzeug für Untersuchungen von stratosphärischen Transportprozessen. Daher wurde am Institut für Meteorologie und Geophysik an der Universität Frankfurt ein Instrument zur in-situ-Messung von Spurengasen entwickelt, das sowohl an Stratosphärenballonen als auch auf dem russischen Höhenforschungsflugzeug M-55 "Geophysica" Echtzeitmessungen von Spurengasmischungsverhältnissen durchführen kann. Der "High Altitude Gas Analy- ser" (HAGAR) ist in der Lage, mit einem Zwei-Kanal-Gaschromatographen die Mischungsverhältnisse von N 2 O, F12, F11 und Halon-1211 mit einer Zeitauflösung von 90 s und das von SF 6 alle 45 s zu bestimmen. Ein an die speziellen Gegebenheiten von Stratosphärenmessungen angepasster CO 2 -Sensor der Firma LI-COR erreicht eine Zeitauflösung von ca. 10 s. Im Rahmen dieser Arbeit wurden entscheidende Beiträge zur Entwicklung von HAGAR geleistet. Für die Steuerung des Instruments auf Basis eines Industrie-PCs wurde ein umfangreiches Softwarepaket entwickelt, das die zuverlässige vollautomatische Steuerung des Instruments, sowie eine komfortable Konfigurationsmöglichkeit bietet. Nach einem ersten Ballontestflug am 13.5.1998 wurde das Instrument vollständig neu aufgebaut, um einen Sensor zur Messung von CO 2 zu integrieren. Des Weiteren wurden eine Reihe von Verbesserungen und Anpassungen durchgeführt, die für den Betrieb an Bord der Geophysica notwendig waren. Im Zeitraum von Dezember 1998 bis Oktober 1999 nahm HAGAR an drei Messkampagnen teil. Im Rahmen von APE-ETC ("Airborne Platform for Earth Observation - Extensive Test Campaign") wurde das Instrument erstmals an Bord der Geophysica montiert und eingesetzt. Trotz einer Reihe von kleineren Schwierigkeiten erwies sich das HAGAR-Konzept als gut ge- eignet für den Einsatz an Bord eines Höhenforschungsflugzeugs. So konnten zumindest während drei von sechs Testflügen Daten aufgezeichnet werden. Im Februar/März 1999 war HAGAR Teil der Geophysica-Nutzlast während der Messkampagne APE-THESEO ("Airborne Platform for Earth Observation - The Contribution to the Third European Stratospheric Experiment on Ozone"), die Mahè/Seychellen als Basis nutzte. HAGAR konnte hier während ca. 30 Flugstunden Daten aufnehmen. Dabei konnte ein umfangreicher Datensatz vor allem im Bereich der tropischen Tropopausenregion gewonnen werden. Die Tropen sind von besonderer Bedeutung für den stratosphärischen Transport, unter anderem da hier der Haupteintrag von troposphärischer Luft in die Stratosphäre stattfindet. Der Untersuchung des antarktischen Polarwirbels in der Phase des maximalen Ozonabbaus war die Messkampagne APE-GAIA ("Airborne Polar Experiment - Geophysica Aircraft in Antarctica") gewidmet, die im September und Oktober in Ushuaia/Argentinien stattfand. Als südlichste Stadt der Erde bietet Ushuaia die beste geographische Lage, um den stratosphärischen Polarwirbel mittels Flugzeugmessungen zu untersuchen. HAGAR arbeitete zuverlässig während aller wissenschaftlichen Flüge und einem Testflug in Ushuaia. Zusätzlich konnte während sechs Transferflugetappen zwischen Sevilla und Ushuaia zumindest für einen Teil der Substanzen Daten aufgezeichnet werden. Insgesamt liegen für etwa 60 Flugstunden Daten vor, darunter auch erstmals ein hochaufgelöstes Vertikalprofil im Polarwirbel, dass von über 20 km Höhe bis hinunter zur Tropopausenregion reicht. Für ein neu entwickeltes Messinstrument wie HAGAR ist eine Validierung der Daten sehr wichtig. Da eine direkte Validierung durch parallele Messungen nicht möglich war, musste auf ältere, vergleichbare Datensätze zurückgegriffen werden, die anhand des troposphärischen Trends korrigiert wurden. Als Vergleich dienten Datensätze der in-situ-Gaschromatographen GhOST und ACATS, der kryogenen Luftprobensammler und des CO 2 -Instrumentes der Harvard University. Dabei zeigte sich stets eine gute bis sehr gute quantitative Übereinstimmung der Daten. Auch die Präzision der Messungen, die bereits endgültig ausgewertet wurden, sind sehr zufriedenstellend und zumindest vergleichbar mit denen von "etablierten" Instrumenten. So war die Präzision für N 2 O, F12 und F11 zumeist deutlich besser als 1 %. Für CO 2 konnte die Präzision für APE-GAIA auf 0,15 ppm bzw. 0,05 % verbessert werden. Die Präzision der vorläufigen Daten von Halon-1211 und SF 6 beträgt bisher etwa 5 %. Der im Jahre 1999 von HAGAR aufgenommene Datensatz bietet umfangreiche Möglichkeiten zur wissenschaftlichen Analyse. Nur exemplarisch sind daher die Punkte zu sehen, die in dieser Arbeit diskutiert werden. Das mittlere Alter der Luft kann als die Zeit beschrieben werden, die die Bestandteile eines Luftpakets im Mittel benötigten, um von der tropischen Tropopausenregion an seine aktuelle Position in der Stratosphäre zu gelangen. Zur Bestimmung des mittleren Alters der Luft werden Messungen von Spurengasen verwendet, die in der Stratosphäre konservativ sind und deren troposphärisches Hintergrundmischungsverhältnis einen zeitlich linear ansteigenden Trend aufweist ("Alterstracer"). HAGAR ist in der Lage, die Mischungsverhältnisse der beiden gebräuchlichsten Alterstracer CO 2 und SF 6 zu messen. Das Alterskonzept bietet eine einfach zu bestimmende Kenngröße für den stratosphärischen Transport, die im Gegensatz zu Mischungsverhältnissen direkt mit Messungen, die zu anderen Zeitpunkten gewonnen wurden, vergleichbar ist. Es konnte gezeigt werden, dass die erreichbare Genauigkeit der Altersbestimmung nicht von der Messgenauigkeit von CO 2 und SF 6 limitiert ist, sondern von der Abweichung der troposphärischen Trends vom (zeitlich linear ansteigenden) Ideal. Insbesondere im Fall von CO 2 wird dies deutlich, wobei die von HAGAR erreichte Messgenauigkeit für eine maximale Unsicherheit in der Altersbestimmung von ca. zwei Monaten ausreichen würde. Neben den saisonalen Schwankungen, die in mittleren Breiten ab ca. 16 km Höhe keine Rolle mehr spielen, sorgen vor allem die jährlichen Schwankungen dafür, dass die Altersbestimmung mit CO 2 momentan kaum besser als mit einem Fehler von etwa 0,7 Jahren durchgeführt werden kann. In den Tropen kann die Messung des CO 2 -Mischungsverhältnisses nicht direkt zur Altersbestimmung herangezogen werden. Durch die starke Vertikalbewegung in den Tropen kann das saisonale CO 2 -Signal im Vertikalprofil beobachtet werden. HAGAR konnte solche Profile während zweier Jahreszeiten (Februar/März bzw. Mitte September) aufzeichnen. Die Tropen sind in der Stratosphäre durch sogenannte Mischbarrieren für den horizontalen Transport gegenüber den mittleren Breiten abgegrenzt. Dies zeigt sich unter anderem in veränderten Tracer-Tracer-Korrelationen. Gealterte Luft aus den mittleren Breiten, die groÿteils bereits einmal die groÿräumige Brewer-Dobson-Zirkulation durchlaufen hat, wird jedoch zu einem geringen Maße erneut in den Bereich der tropischen Aufwärtsströmung eingemischt. Für die Gesamtverweilzeit von langlebigen Spurengasen in der Stratosphäre ist diese Einmischung von besonderer Bedeutung. Während nahezu aller Flüge von APE-THESEO (1° N - 19° S) ergaben die HAGAR- Daten eine kompakte F11-N 2 O-Korrelation; beim letzten Flug, der nur bis 15° S führte, ergaben sich jedoch Datenpunkte, die eher zu einer Korrelation passen, die aus mittleren Breiten bekannt ist. Es ist noch im Detail zu klären, ob hier möglicherweise direkt ein Einmischungsereignis beobachtet wurde. Auch der Polarwirbel ist im Winter von einer effektiven Transportbarriere umgeben. Hier ist eine wichtige Frage, inwieweit Luft aus dem Wirbel in die mittleren Breiten vordringen und dort die chemische Zusammensetzung der Stratosphäre verändern kann. Dieser Luftmassenaustausch findet häufig in Form von sogenannten Filamenten statt, Luftmassen also, die vom Wirbel abgetrennt wurden und sich nun immer länger gezogen vom Wirbelrand wegbewegen. Hochaufgelöste Tracermessungen, wie sie mit HAGAR durch- geführt werden, stellen eine ideales Werkzeug zur Untersuchung und Charakterisierung solcher Abläufe dar. So konnten zahlreiche Strukturen innerhalb und außerhalb des Wirbels untersucht werden, deren Tracermischungsverhältnis darauf hinwies, dass sie jeweils von der anderen Seite des Wirbelrandes stammten. Dabei konnten keine signifikanten Strukturen beobachtet werden, die eine geringere horizontale Ausdehnung als 50 km hatten. Mit dem Ende der vorliegenden Arbeit ist weder die Entwicklung des Instrumentes noch die Interpretation des 1999 gewonnenen Datensatzes abgeschlossen. So ist neben einer neuen Datenerfassung für Temperaturen auch eine Erweiterung von Kanal 1 des Gaschromatographen in Planung. Neben SF 6 soll in Zukunft auch noch CH 4 mit einer Zeitauflösung von etwa 90 s gemessen werden. Zudem soll mit einer verbesserten Druckregelung für den Kessel die Präzision insbesondere der CO 2 -Messungen optimiert werden. Die Präzision der Daten von Halon-1211 sowie SF 6 sind mit 5 % bisher nicht zufriedenstellend. Grund hierfür ist letzlich die Tatsache, dass das Signal-Rausch-Verhältnis für diese beiden Substanzen aufgrund ihrer geringen Mischungsverhältnisse von nur einigen ppt in der Stratosphäre sehr schlecht ist. Aus diesem Grunde wurde eine neue Auswertemethode entwickelt und innerhalb des Softwarepakets zur Datenauswertung (NOAH-Chrom) realisiert. Bei dieser Methode werden die Peaks durch Gauß-Funktionen angenähert. Erste Tests verliefen vielversprechend, zeigen jedoch, dass der Einsatz der Methode noch eine Menge Detailarbeit erfordert. Aus diesem Grunde steht eine vollständige Auswertung des HAGAR-Datensatzes für diese beide Substanzen noch aus; die Methodik ist jedoch im Anhang erläutert. Die in dieser Arbeit dargestellten Analysen sollten als Wegweiser für weitere Untersuchungen und Diskussionen dienen können. So wird insbesondere die Diskussion um die Altersbestimmung wieder aufgenommen werden müssen, wenn sowohl endgültige SF 6 -Daten von HAGAR als auch neue Daten über den aktuellen troposphärischen Trend von SF 6 aus dem NOAA/CMDL- Netzwerk vorliegen. Einen weiteren Schwerpunkt wird die Untersuchung der Mischung über den Rand des Polarwirbels hinweg bilden, wobei sich insbesondere die Frage nach der Höhenabhängigkeit der Mischung stellt. Hier sind insbesondere auch Modellstudien möglich, denen mit den HAGAR-Daten eine weit präzisere und vor allem höher aufgelöste Eingangsdatenbasis zur Verfügung steht, als sie etwa aus Satellitendaten gewonnen werden kann. Von besonderem Interesse ist dabei ein Phänomen, das in den HAGAR-Daten, aber auch bereits in einem Datensatz der ER-2 von 1994 zu beobachten ist: So weicht die F11-N 2 O-Korrelation im Bereich des Polarwirbels für F11-Mischungsverhältnisse zwischen 40 ppb und 170 ppb nach unten von der normalen, aus mittleren Breiten bekannten Korrelation ab (vgl. Abbildung 7.5 auf Seite 142). Dies ist möglicherweise auf noch nicht vollständig verstandene Mischungsprozesse zurückzuführen. In jedem Falle ist damit zu rechnen, dass der im Jahre 1999 von HA-GAR an Bord der Geophysica aufgezeichnete umfangreiche Datensatz weitere Schritte hin zu einem differenzierteren Verständnis des stratosphärischen Transportes einleiten wird.