Geowissenschaften
Refine
Year of publication
Document Type
- Article (593)
- Doctoral Thesis (139)
- Book (25)
- Contribution to a Periodical (21)
- Conference Proceeding (19)
- Working Paper (19)
- Part of Periodical (10)
- Diploma Thesis (8)
- diplomthesis (7)
- Preprint (6)
Is part of the Bibliography
- no (872)
Keywords
- climate change (13)
- Climate change (5)
- Geochemistry (5)
- Klimaänderung (5)
- Atmospheric chemistry (4)
- Boden (4)
- Deutschland (4)
- Klima (4)
- Modellierung (4)
- Stratosphäre (4)
Institute
- Geowissenschaften (872)
- Senckenbergische Naturforschende Gesellschaft (59)
- Präsidium (49)
- Biodiversität und Klima Forschungszentrum (BiK-F) (45)
- Geographie (26)
- Biowissenschaften (15)
- Medizin (11)
- Physik (7)
- Institut für Ökologie, Evolution und Diversität (6)
- Biochemie und Chemie (5)
- Informatik (5)
- Frankfurt Institute for Advanced Studies (FIAS) (4)
- Pharmazie (4)
- Gesellschaftswissenschaften (3)
- Mathematik (3)
- Starker Start ins Studium: Qualitätspakt Lehre (3)
- Erziehungswissenschaften (2)
- Institut für sozial-ökologische Forschung (ISOE) (2)
- Psychologie (2)
- Sportwissenschaften (2)
- Zentrum für Interdisziplinäre Afrikaforschung (ZIAF) (2)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (1)
- Kulturwissenschaften (1)
- Philosophie und Geschichtswissenschaften (1)
- Sprach- und Kulturwissenschaften (1)
Im Rahmen des Projektes SPURT (Spurenstofftransport in der Tropopausenregion) als Teil des deutschen Atmosphärenforschungsprogramms AFO 2000 wurden bei 8 Messkampagnen mit insgesamt 36 Flügen innerhalb eines Beobachtungszeitraums von zwei Jahren (Nov. 2001 bis Juli 2003) Spurengasmessungen in dem Breitenbereich zwischen 35°N und 75°N durchgeführt. Für die Messungen der Spurengase N2O, F12, SF6, H2 und CO wurde der vollautomatisierte in-situ GC (Gaschromatograph) GhOST II (Gas Chromatograph for the Observation of Stratospheric Tracers) entwickelt und eingesetzt. Das Ziel dieser Messungen war die Untersuchung der jahreszeitlichen Variabilität der Spurengase in der oberen Troposphäre und untersten Stratosphäre (UT/LMS: Upper Troposphere/Lowermost Stratosphere), um die Transport- und Austauschprozesse in der Tropopausenregion besser zu verstehen. Zur Untersuchung von Transport und Mischung in der UT/LMS wurden die Rückwärtstrajektorien entlang der Flugpfade, die Verteilungen der Tracer N2O, F12, SF6, CO und CO2 (MPI für Chemie in Mainz), die Tracer/Tracer-Korrelationen N2O/F12, N2O/O3 F12/O3 und SF6/O3 und die Verteilungen des aus SF6-Messungen berechnete mittlere Alters der Luft herangezogen. Zusätzlich wurden die simultanen Messungen der beiden Alterstracer CO2 und SF6 genutzt, um die Propagation der Amplitude des troposphärischen CO2-Jahresgangs in die LMS zu bestimmen und daraus mit Hilfe eines empirischen Altersspektrums den Eintrag und die mittlere Transportzeit aus der Troposphäre in die unterste Stratosphäre zu quantifizieren. Grundsätzlich muss die LMS in zwei Bereiche eingeteilt werden – die Übergangsschicht („tropopause following layer“) bis etwa 20-30 K über der potentiellen Temperatur der lokalen Tropopause [Hoor et al., 2004] und die freie LMS oberhalb dieser Schicht. Als wesentliche Unterscheidungsmerkmale beider Bereiche wird die mittlere Transportzeit des Eintrags troposphärischer Luft identifiziert. Aus Trajektorienuntersuchungen und Tracerverteilungen (Kap. 3.4) kann gezeigt werden, dass der Transport in die Übergangsschicht und die Mischungsprozesse in diesem Bereich auf der Zeitskala der mesoskaligen troposphärischen Prozesse ablaufen. Im Gegensatz dazu werden aus der Massenbilanz (Kap. 5.3) mittlere Transportzeiten aus der Troposphäre in die freie LMS von einigen Wochen bis zu mehreren Monaten abgeleitet. Außerdem konnte nachgewiesen werden, dass der troposphärische Eintrag in der freien LMS fast ausschließlich auf quasihorizontale isentrope Einmischung aus den Tropen über die Transportbarriere des Subtropenjets zurückzuführen ist. Nur im Sommer und Herbst konnte auch oberhalb der Übergangsschicht für einzelne Messungen ein Einfluss aus der extratropischen Troposphäre beobachtet werden. Die in dieser Arbeit untersuchten Tracerverteilungen und -korrelationen (Kap. 4) und die Verteilung des mittleren Alters (Kap.5.2) in der LMS zeigen einen Jahresgang mit einem maximalen troposphärischen Einfluss im Oktober und einem maximalen stratosphärischen Einfluss im April. Diese saisonale Charakteristik in der freien LMS kann durch die saisonalen Änderungen des Verhältnisses von Abwärtstransport aus der Overworld und quasihorizontalem Transport aus den Tropen und durch die mit den jeweiligen Transportprozessen assoziierte mittlere Transportzeiten erklärt werden, die aus Massenbilanzrechnungen bestimmt wurden. Es wird gezeigt, dass der überwiegende Eintrag von troposphärischer Luft in die LMS im Sommer und Herbst stattfindet, wobei im Mittel die kürzesten mittleren Transitzeiten (unter 0.3 Jahre) für den August und die längsten Transitzeiten (über 0.6 Jahre) für den Mai berechnet werden. Aus den Ergebnissen wird gefolgert, dass ein ausgeprägter isentroper Austauschprozess über den Subtropenjet im Sommer bis in den Herbst hinein der dominierende troposphärische Einfluss in der LMS bis in den Mai ist. Der Vergleich zwischen SPURT und anderen in der UT/LMS im Zeitraum von 1992 bis 1998 durchgeführten Messkampagnen zeigt einen systematischen Unterschied in den N2O/O3-Korrelationen. Die Zunahme von O3 relativ zu N2O in der LMS ist um etwa 6.5 ppb O3 pro 1 ppb N2O bzw. etwa 40% größer als die Zunahme bei jahreszeitlich vergleichbaren früheren Kampagnen. Durch eine weitergehende Analyse der Messungen, z.B. durch den Vergleich der N2O-Verteilungen in der LMS bei verschiedenen Messkampagnen, und zusätzlichen Informationen aus Satelliten- und Ballonmessungen wird abgeleitet, dass diese Änderung der N2O/O3-Korrelationen im Wesentlichen auf einen im Zeitraum von SPURT stärkeren quasihorizontalen Transport aus den Tropen in die Extratropen im Bereich des so genannten „tropical controlled transition layer“ [Rosenlof et al., 1997] zwischen 16-21 km (bzw. Θ ≈ 380-450 K) zurückzuführen ist. In Kooperation mit B. Bregman wurden mit dem Chemie-Transport-Modell TM5 des KNMI die Verteilungen von SF6 und CO2 in der Troposphäre und Stratosphäre, unter den Zielsetzungen Evaluation des Modelltransports und Erweiterung des Datensatzes von SPURT auf globalen Maßstab, für den Zeitraum 1.1.2000 bis 31.12.2002 modelliert. Dabei konnte gezeigt werden, dass bei Modellstudien zur Evaluation des Transports mit Hilfe von Alterstracern nicht nur troposphärisch monoton steigende Tracer wie SF6 sondern auch saisonal variable Tracer wie CO2 verwendet werden müssen. Bei dem Vergleich der Modellergebnisse des TM5 mit ER2- und SPURTMessungen zeigt sich, dass das Modell zum jetzigen Zeitpunkt in der Lage ist, das mittlere Alter in der unteren Stratosphäre und die SF6- und CO2-Verteilungen in der LMS qualitativ richtig wiederzugeben. Das mittlere Alter in der unteren Stratosphäre wird um etwa 0.5 bis 1 Jahr in den Tropen über- und in den Extratropen unterschätzt. Die vertikalen Gradienten im Modell für SF6 und CO2 in der LMS sind, insbesondere im Winter und Frühjahr, zu gering. Die Amplitude des CO2-Jahresganges in der oberen Troposphäre und in der LMS wird durch das Modell unterschätzt, während der saisonale Verlauf des Jahresganges richtig wiedergegeben wird. Im Moment wird vermutet, dass eine zu starke isentrope Mischung zwischen Tropen und Extratropen und/oder ein zu geringer Aufwärtstransport in der extratropischen Troposphäre im Sommer und Herbst die Ursachen für die beobachteten Abweichungen zwischen Modell und Messung sind.
The thesis is devoted to the study of the Antarctic polar vortex, mainly by analyzing data collected during APE-GAIA (1999) and ASHOE (1994) campaigns and recorded by the ADEOS satellite (1996-1997), and to improvement of the chromato-graphic processing schemes. A general introduction and overview of the campaigns and instruments relevant to the present work are given in Chapters 1 and 2. A relatively large part of the thesis (Chapters 3-5) is on improvement of the analysis of raw chromatographic data recorded during in-flight measurements of the trace gases. A Gaussian non-straight-base-line method, i.e. the Gaussian processing scheme (Chapter 3), is developed for better evaluation of the chromatographic peak size. Furthermore, a statistical cross-correlation method (Chapter 5) based on statistical behaviour of the whole chromatogram series fNchrg recorded, e.g., during a research flight or laboratory calibration, is developed and applied to measure the low-concentration trace gases. As demonstrated for HAGAR's chromatograms (HAGAR - High Altitude Gas Analyzer), the combination of the Gaussian fitting scheme for individual chromatograms and the statistical cross-correlation method for a series of subsequent chromatograms considerably improves and stabilizes quantitative analysis of in-flight chromatographic data. In this case, the detection accuracy of weak and noisy chromatographic signals can be improved by up to 40 %. A particular attention is paid to the in-flight two-standard calibration method. For this method, a special procedure, that allows to evaluate and effectively remove a weak background chromatographic signal associated with residual molecules in the carrier gas N2, is proposed and coded (Chapter 4). The developed approaches and methods are completely automized and, therefore, can be used for processing of in-flight chromatograms of recent and future field campaigns. The main part of the thesis (Chapters 6-8) deals with a two-dimensional quasi-Lagrangian coordinate system ... , based on a long-lived stratospheric trace gas i, and its systematic use for i = N2O in order to describe the structure of a well-developed Antarctic polar vortex, linearization and compactization of the tracer-tracer correlations in the polar vortex core (i.e. the stratospheric dynamics in this area), and the differential ozone losses in the Antarctic polar vortex area. In the coordinate system ... (...-method, Chapter 6), which refers to a well-developed polar vortex, the mixing ratio Âi is the vertical coordinate and ... = .... i is the reference profile in the vortex core) is the meridional coordinate. The quasi-Lagrangian coordinates ... are much more long-lived comparing with the standard quasi-isentropic coordinates, potential temperature ... and equivalent latitude ..e, do not require explicit reference to geographic space, and therefore well-suited for studying the dynamics of the Antarctic polar vortex and the relevant ozone loss processes. By using the introduced coordinate system ... to analyze the well-developed Antarctic vortex investigated in the APE-GAIA campaign, it is shown, in concurrence with the conclusion of A. M. Lee et al. (2001), that the Antarctic vortex area can be described in terms of the well-mixed and well-isolated vortex core, relatively wide vortex boundary region and adjoining surf zone. In this case, the reference profile ... i , which is compact in a well-developed and isolated polar vortex core [J. B. Greenblatt et al. (2002)], can be found by combining airborne (and/or balloon) data with high-altitude satellite measurements. A criterion, which uses the local in-situ measurements of Âi = Âi(£) and attributes the inner vortex edge to a rapid change (±-step) in the meridional pro¯le of the mixing ratio..., is developed in Chapter 6 to determine the (Antarctic) inner vortex edge. In turn, the outer vortex edge of a well-developed Antarctic vortex is proposed to attribute to the position of a local maximum of ...H2O in the polar vortex area. For a well-developed Antarctic vortex, the ...-parametrization of tracer-tracer correlations allows to distinguish the tracer-tracer inter-relationships in the vortex core, vortex boundary region and surf zone (Chapter 7). This is clearly illustrated by analyzing the tracer-tracer relationships Âi ¡ ÂN2O obtained from the in-situ data of the APE-GAIA campaign for i = CFCl3 (CFC-11), CF2Cl2 (CFC-12), CBrClF2 (H-1211) and SF6. The solitary anomalous points in the ...CFC11 ¡ ÂN2O correlation, observed in the Antarctic vortex core during the APE-GAIA and ASHOE campaigns, are interpreted in terms of small-scale localized differential descent. As detailed in Chapter 8, the quasi-Lagrangian coordinate system fÂN2O; ¢ÂN2Og is an effective tool for evaluation of the differential ozone losses in the polar vortex area. With this purpose, a two-parametric reference function ...O3 = F(...), which characterizes the unperturbed O3 distribution in the early winter polar vortex area, is introduced to separate and quantify in terms of the meridional coordinate ...2O the differential ozone losses in the vortex core and vortex boundary region. The method is applied to analyze the ozone depletion in the Antarctic stratosphere during the austral spring 1999 (APE-GAIA campaign). In Chapter 9, the main results of the thesis are summarized.
Since the discovery of the ozone hole [Farman et al., 1985], the dynamics of the stratosphere and the transport of anthropogenic trace gases from the surface to the higher atmosphere has come into the focus of interest. In the tropics, air rises high into the stratosphere and is transported poleward. Trace gases like the CFCs1, photochemically stable in the troposphere, are thus transported into regions where they are photolyzed. The products of the photolysis reactions (eg. Cl, Br) interact in the catalytic ozone cycles and lead to enhanced ozone depletion. Regarding the transport of trace gases, the so-called lowermost stratosphere (LMS) is a very interesting region, where the troposphere and the stratosphere directly interact and air masses out of both regions are mixed. It is the lowest part of the stratosphere between the tropopause and the 380 K isentrope. Tropospheric air can enter this region directly via isentropic transport across the extra-tropical tropopause whereas stratospheric air descends across the 380 K isentrope via the mean meridional circulation. Stratosphere-troposphere exchange (STE) controls the chemical composition of the LMS as well as of the tropopause region and thus has an important effect on the radiative and chemical balance of these regions and the climate system. STE exhibits a strong seasonality [Holton et al., 1995]. While downwelling of stratospheric air across the 380 K isentrope is the dominant process in winter, troposphere-to-stratosphere transport (TST) gains importance in summer, when the downwelling from the stratosphere is only weak. Isentropic transport across the extra-tropical tropopause occurs in regions where the tropopause is strongly disturbed and is connected to tropopause folds, streamer events, frontal zones, polar and subtropical jets, warm conveyor belts and cut-off low systems. A short introduction into STE, the LMS region, and methods to study atmospheric transport is given in Chapter 1. One useful tool to analyse the motions of air and transport processes are longlived trace gases. Since the lifetimes of these tracers are longer than the time scale of the transport processes they are involved in, the distribution of tracers in the atmosphere is mostly determined by dynamics. In the context of this thesis, measurements of such long-lived tracers were performed and used to study transport into the LMS region in the northern hemisphere. During the Vintersol/EuPLEx and ENVISAT validation campaigns in winter 2003, long-lived tracers such as N2O, CH4, CFC-12, CFC-11, H-1211, H2, SF6 and CO2 were measured with the High Altitude Gas Analyser (HAGAR), a two channel in-situ gas chromatograph combined with a CO2 instrument, based on nondispersive infrared absorption. Combined with measurements taken during campaigns in Forli/Italy (ENVISAT validation) in July and October 2002, tracer data were gathered from the tropopause up to altitudes around 20 km during 25 flights on board the Russian high-altitude aircraft M55 Geophysica. Thus, a substantial set of high quality tracer data has been obtained covering the polar vortex region as well as the mid latitudes of the northern hemisphere. Chapter 2 gives an overview of the HAGAR instrument and necessary improvements of the instrumental set up (implementing a CH4 channel) that were performed in the context of this thesis, and review data processing, the measurement campaigns. In order to study transport into the LMS it is assumed that air basically enters the LMS via three different pathways: a) quasi-isentropic transport from the troposphere, b) downward advection from the middle stratosphere through the 380 K surface and c) in the polar vortex region subsidence of air from of the polar vortex. Fractions of air originating in each of these source regions are determined with a simple mass balance calculation by using observations of a subset of the above species with distinct lifetimes (N2O, CH4, CFC-11, H-1211, H2 and O3) yielding complementary constraints on transport from each region. Details of the mass balance calculation and the results are presented in Chapter 3. During the mid-latitude measurement campaigns in Forlí the passing of a cut-off low system associated with an elongated streamer over Europe was observed. The impacts of this event on the trace gas mixing ratios in the LMS are examined in Chapter 4. Finally, a summary is given in Chapter 5.
This work analyses several granitic bodies of the Variscan Orogen of Central and Western Europe in order to improve our knowledge about different aspects of their evolution, regarding their ascent and emplacement mechanisms, as well as their deformation history. In the Iberian Massif two granitoid bodies, namely the La Bazana pluton and the Nisa-Alburquerque batholith, were studied in order to decipher their ascent and emplacement history. The La Bazana pluton is a small, sub-circular body in map view that intruded into rocks of the Ossa-Morena Zone in the core of a late upright antiform. Its three-dimensional drop-pipe shape, its internal dome foliation pattern and the structure of the host rock suggest that the magma ascended and emplaced diapirically. The Nisa-Alburquerque batholith is a large body that intruded into rocks of the Central Iberian Zone, the Central Unit, and the Ossa-Morena Zone. Its cartographic shape is elongate and parallel to the NW—SE to WNW—ESE Variscan structures. In the light of the available structural data and the gravimetric models, the intrusion is viewed as a continuous lateral magma flow from the eastern root guided towards the west through the southern limb of a kilometre-scale antiform. As mass-transfer mechanisms, a combination of rigid translation of the country rocks, stoping, and possibly ballooning is proposed. In the Bohemian Massif several small granitoid bodies showing a strong solid-state deformation were studied in order to integrate their tectonometamorphic history in the geotectonic framework of the south-western Bohemian Massif, focusing principally on the deformation phase referred to as D3. Four ductile deformation phases are proposed for the study area. D1 produced high-temperature fabrics under upper amphibolite to granulite facies conditions. Its kinematics is unknown. D2 occurred under amphibolite to upper greenschist facies conditions under N—S to NNW—SSE compression. It is responsible for a subvertical NW—SE striking foliation in migmatites developed under dextral simple shear and for the deformation at the Bayerischer Pfahl shear-zone system at its earlier stages. Many granitoid dykes and stocks were found to be affected by sinistral shear along subvertical planes trending ENE to ESE. Since this deformation, which is called D3 in the present work, is not compatible with a N—S to NNW—SSE compression, it is proposed that these sinistral shear zones in granites do not belong to the Bayerischer Pfahl shear-zone system and constitute themselves a separated one, which is called “D3 shear-zone system”. D3 took place under upper greenschist to lower amphibolite facies conditions (~480-550°C). Both the intrusion and the deformation of the granites affected by D3 occurred at deep to intermediate levels of the crust, whereas the deformation took place under NE—SW compression. Datings on two of the deformed granites yielded 324.4 ± 0.8 Ma and 315.0 ± 1.0 Ma: Thus, the age of D3 is most probably ~315 Ma. The intrusion of most of the sheared granitoids was pre-kinematic with respect to D3. After D3 the N—S to NNW—SSE compression which governed D2 was restored, giving way to the next deformation phase D4, which was linked to further deformation at and next to the principal shears of the Bayerischer Pfahl shear-zone system under greenschist facies conditions. The causes for the change of the stress field leading to a NE—SW compression during D3 might be related to (1) global changes in the dynamics of the tectonic plates in late Variscan times, (2) orogenic collapse leading to the sinking of the Teplá-Barrandian and lateral extrusion of the surrounding Moldanubian rocks, (3) distortion of the regional stress field by local intrusion of large stocks, such as the Saldenburg granite of the Fürstenstein Massif, or (4) distortion of the regional stress field due to the existence of ephemeral releasing bends in the Bayerischer Pfahl shear zone during its early evolution.
Die Ergebnisse zur Sedimentologie, Taphonomie und Paläoökologie der Dinotheriensande des Urrheins in Rheinhessen geben weiteren Aufschluß über die tektonosedimentäre und paläoökologische Entwicklung des Urrheins. Die als Dinotheriensande bekannten Ablagerungen des Urrheins, deren Bildung nach biostratigraphischen Kleinsäugerfunden ins Obermiozän (Vallesium, MN 9, ca. 10,5 - 11 Ma.) gestellt werden, zeichnen sich durch fossile Wirbeltierfragmente teils großer Säugetiere sowie grober Gerölle überwiegend an der Basis, in einigen Bereichen auch aus Grobsand sowie größtenteils aus Fein- bis Mittelsand bestehenden fluviatilen Sedimenten aus. Der im heutigen Raum von Eppelsheim unter einer Ca. 3 m mächtigen Lössschicht liegende ehemalige Flusslauf des Urrheins floß von Worms und Westhofen aus dem Süden kommend entlang einer tektonisch bedingten Schwächezone in Eppelsheim nach Norden über Bermersheim Richtung Wißberg und Sprendlingen weiter nach Bingen. Dabei räumte die anfänglich sehr starke Strömung die durch tektonische Bewegung und eventuelle Verkarstung geschwächten Kalke der Inflata-Schichten (Aquitanium, Unter Miozän) und den Oberen Cerithienschichten (Chattium, oberstes Ober Oligozän bis Aquitanium, Unter Miozän) zu einem Flussbett aus. Die dabei durch die starke Strömung mitgeführten gut gerundeten, max. 170 mm großen Gerölle und Wirbeltierfragmente wurden an der Basis der Dinotheriensande über den abdichtenden Tonen der oligozänen Süßwasserschichten, in Verbindung mit glimmerfreien Grobsanden, abgelagert. Neben den Grobsanden (0,63 - 2 mm) an der Basis zwischen den großen Geröllen bestehen die Dinotheriensande überwiegend aus Feinsand (0,06 - 0,2 mm) und Mittelsand (0,2 - 0,63 mm), teils in gradierter Schichtung. In einigen Bereichen kommen immer wieder auch Grobsande und kleine bis mittelgroße Gerölle bis zum Top vor. Dabei erreichen die aus mehreren Schichtkörpern bestehenden Ablagerungen der Dinotheriensande bei Eppelsheim eine Gesamtmächtigkeit von 6,96 m. Die einzelnen Schichtkörper dieser Ablagerungen zeigen überwiegend Schrägschichtung, wobei die einzelnen Schichtungsblätter tangentiale Schrägschichtung erkennen lassen. Die Auswertung der Vorschüttungsrichtung aus Schrägschichtungsmessungen ergeben für die Hauptrichtung der Paläoströmung über der Basis eine Strömung aus SSE kommend, wobei die Strömung im weiteren Verlauf der Ablagerungen im Grabungsbereich von Eppelsheim von SE bis hin zum Top der Dinotheriensande von SSW kommend wechselt. Dabei lassen sich in den Ablagerungen der Dinotheriensande mit einer Gesamtmächtigkeit von 6,96 m schwerpunktmäßig von der Basis bis zum Top drei Fossilhorizonte erkennen. Hierbei variiert die Höhe des 2. Fossilhorizontes, von der Basis des 1. Fossilhorizontes in den Dinotherie~sandenü ber dem Ton der Süßwasserschichten gemessen, bei Ca. 140 - 150 Cm, sowie die Höhe des 3. Fossilhorizontes bei Ca. 400 - 410 cm. Neben der Anreicherung von fossilen Wirbeltierresten und den großen Geröllen an der Basis befinden sich in den Dinotheriensanden auch bis zu 50 mm große Gerölle, die überwiegend in dem 2. und 3. Fossilhorizont abgelagert wurden. Die Analyse von 10000 unterschiedlichen Geröllen ergab eine Zusammensetzung von gut gerundeten Quarzarten, Quarzite, Sandsteine, Kieselschiefer, Hornsteine, unterschiedliche Variationen von Chalzedon sowie Karneol, Rhyolith und Granit von der Basis bis zum Top der Dinotheriensande. Zwischen den Sanden eingeschaltete große Tonlinsen machen den Eindruck ehemaliger abgebrochener Uferbruchstücke, zumal sie teilweise mit großen Geröllen sedimentiert wurden. Die eigentlichen Sande bestehen aus überwiegend gut bis kantengerundetem Quarzsand, mit einem Glimmer-Anteil von Muskovit, etwas Biotit und im geringem Maße Phlogopit. Das Schwermineralspektrum setzt sich aus Granat, Apatit, Amphibol, Staurolith, Turmalin, Zirkon, Alterit, Hypersthen, Spinell, Siderit, Rutil, Topas, Gips und Augit sowie einem hohen Gehalt an opaken Mineralen zusammen. Die fossilen Wirbeltierfragmente, von Proboscidae, Rhinocerotidae, Equidae, Suidae, Cervidae, Bovidae, Tragulidae, Anthracotheriidae, Tapiroidae, Castoridae, unterschiedliche Arten von Carnivora sowie von Primaten und Insectivora stammend, bestehen zum größten Teil aus deren Zahnen und Zahnfragmenten. Weitere craniale und postcraniale Fragmente kommen gegenüber den Zähnen in geringerem Umfang vor. Fast alle Fragmente sind leicht bis stark abgerollt (Abrollungsgrad). Der größte Teil der Knochenfragmente zeigt ein einheitliches Bruchmuster, welches sich durch eine sägezahnförmige Fraktur mit scharfen Bruchkanten kennzeichnet. Einige Spuren in Form von Oberflächenmarken an den fossilen Knochen und Zähnen zeigen neben Bißspuren von Carnivora auch postmortale Spuren von Insekten und Nagern. Trockenrisse deuten auf eine mehr oder weniger längere Liegezeit der Kadaver bzw. der Skelette, Teilskelette oder vereinzelter Knochen an der Erdoberfläche vor der eigentlichen Sedimentation in den Dinotheriensanden hin. Auffallend finden sich die fossilen Wirbeltierreste in den Dinotheriensanden fast immer in unartikulierter und vereinzelter Fundlage, ausgenommen im Strömungsschatten größerer Objekte, wie zum Beispiel der große Kalkklotz im Grabungsbereich von Eppelsheim. Dabei handelt es sich um eine durchmischte Ansammlung von unartikulierten Wirbeltier-Fragmenten (Voorhies-Gruppen). Seit Beginn des 19. Jahrhunderts kamen die durch Zufall ausgegrabenen fossilen Wirbeltierreste aus den sogenannten Sandkauten Rheinhessens durch Ankauf ins Hessische Landesmuseum von Darmstadt (HLMD) und, neben anderen Instituten im In- und Ausland sowie einigen Privatsammlungen, ins Naturhistorische Museum von Mainz (NHMM). Die seit 1996 jährlich laufenden wissenschaftlichen Grabungen des Forschungsinstituts Senkenberg / Frankfurt a. Main (FIS) und im Anschluss des NHMM in Eppelsheim lieferten zu diesen historischen Sammlungen weitere Funde. Derzeit sind im HLMD 3217, im NHMM 5432 und im FIS 2278 fossile Funde aus den Dinotheriensanden von Rheinhessen inventarisiert (Stand: Frühjahr 2006). Die bei der Auswertung gewonnenen Daten der bestimmbaren, teilbestimmbaren und unbestimmbaren Funde aller drei Museen (HLMD, NHMM U. FIS) lieferten neben den schon erwahnten Daten über Abrollungsgrad, Bruchmuster, Oberflächenmarken und Voorhies- Gruppen, auch die über die orientierten Zähne ermittelbaren Werte der Mindestanzahl von Individuen aus den bekannten Fundorten in Rheinhessen. Über den Abkauungsgrad der Zähne, in Verbindung mit ihrer natürlichen Position, ließ sich das Altersspektrum dieser Individuen erstellen. Daneben wurde die Fossilienfarbe erfasst, mit deren Hilfe man die Funde in den historischen Sammlungen zur nachträglich Bestimmung des Fundhorizontes benutzen kann, da durch postsedimentäre Ausfällungen die Dinotheriensande, inklusive der darin befindlichen Fossilien, von der Basis bis zum Top unterschiedlich gefärbt sind. Schließlich wurde über die durchschnittlichen Gewichtsdaten der rezenten Vertreter der hier zu behandelten Tierarten eine Verteilungsübersicht in den drei bekannten Museen (HLMD, NHMM u. FIS) erstellt.
Physical soil properties feature high spatial variabilities which are known to affect geophysical measurements. However, these variations are not considered in most cases. The challenging task is to quantify the influence of soil heterogeneities on geophysical data. This question is analysed for DC resistivity and GPR measurements which are frequently used for near-surface explorations. To determine the pattern of electric soil properties in situ with the required high spatial resolution, geophysical measuring techniques are methodically enhanced. High-resolution dipole-dipole resistivity measurements are used to determine the electric conductivity distribution of the topsoil. Due to the small electrode separations, the actual electrode geometry has to be considered and an analytic expression for geometric factors is derived instead of assuming point electrodes. Two methods are used to determine soil permittivity with GPR:(i) the coefficient of reflection at the interface air-soil is measured with an air-launched horn antenna, (ii) the velocity of the groundwave is measured with a new setup using two receiver antennas enhancing the lateral resolution from in the best case 0.5 m for standard techniques to approximately 0.1 m with the new technique. With the optimised measuring techniques, the electric properties of sandy soils are determined in the field. Conductivity and permittivity show high spatial variability with correlation lengths of a few decimetres. Geostatistical simulation techniques are used to generate synthetic random media featuring the same statistical properties as in the field. FD calculations are carried out with this media to provide realistic synthetic data of resistivity and GPR measurements. Conductivity variations as determined in the field generate significant variations of simulated Schlumberger sounding curves resulting in uncertainties of the inverted models. Even in pedologically homogeneous sandy soil, moisture pattern and resulting permittivity variations cause strong GPR diffractions as demonstated by FD calculations. This influences the detectability of small objects such as e.g. landmines or of large reflectors as e.g. the groundwater table. Conductivity variations as typical for soils showed to have a minor effect on GPR measurements than variations of permittivity. In summary, geostatistical analysis and simulation provide a powerful tool to simulate geophysical measurements under field conditions including soil heterogeneity which can be used to quantify the uncertainty of field measurements by geologic noise.
An evaluation scheme is presented in this paper which can be used to assess groundwater vulnerability according to the requirements of the European Water Framework Directive (WFD). The evaluation scheme results in a groundwater vulnerability map identifying areas of high, medium and low vulnerability, as necessary for the measurement planning of the WFD. The evaluation scheme is based on the definition of the vulnerability of the Intergovernmental Panel on Climate Change (IPCC). It considers exposure, sensitivity and the adaptive capacity of the region. The adaptive capacity is evaluated in an actors' platform, which was constituted for the region in the PartizipA ("Participative modelling, Actor and Ecosystem Analysis in Regions with Intensive Agriculture") project. As a result of the vulnerability assessment, 21% of the catchment area was classified as being highly vulnerable, whereas 73% has medium vulnerability and 6% has low vulnerability. Thus, a groundwater vulnerability assessment approach is presented, which can be used in practice on a catchment scale for the WFD measurement planning.
Global modelling of continental water storage changes : sensitivity to different climate data sets
(2007)
Since 2002, the GRACE satellite mission provides estimates of the Earth's dynamic gravity field with unprecedented accuracy. Differences between monthly gravity fields contain a clear hydrological signal due to continental water storage changes. In order to evaluate GRACE results, the state-of-the-art WaterGAP Global Hydrological Model (WGHM) is applied to calculate terrestrial water storage changes on a global scale. WGHM is driven by different climate data sets to analyse especially the influence of different precipitation data on calculated water storage. The data sets used are the CRU TS 2.1 climate data set, the GPCC Full Data Product for precipitation and data from the ECMWF integrated forecast system. A simple approach for precipitation correction is introduced. WGHM results are then compared with GRACE data. The use of different precipitation data sets leads to considerable differences in computed water storage change for a large number of river basins. Comparing model results with GRACE observations shows a good spatial correlation and also a good agreement in phase. However, seasonal variations of water storage as derived from GRACE tend to be significantly larger than those computed by WGHM, regardless of which climate data set is used.
The biomarker record in two different lakes in central Europe, Lake Albano and Lake Constance, is used to reflect environmental changes and lake system response during the Late Glacial and Holocene. Extractable organic compounds in lake sediments, which can be assigned to their biological source (biomarkers) function as fingerprints of past aquatic or land plant organisms. Using gas chromatography coupled with mass spectrometry, 21 different biomarkers (predominantly steroids and triterpenoids) as well as a variety of n-alkanes, nalkanols, and n-alkanoic acids could be identified in the sediment records of Lake Albano and Lake Constance. In the Holocene sediments of Lake Albano, the distribution of biomarkers such as dinosterol (dinoflagellates), isoarborinol, and diplopterol (aquatic organisms) indicate three biomarker zones: The period between 0-3,800 years BP (zone 3) is characterized by high concentrations of these biomarkers and others such as tetrahymanol and diploptene. Conversely, zone 2 (3,800-6,500 years BP) shows very low concentrations of all autochthonous biomarkers. In zone 1 (6,500–11,480 years BP), dinosterol, isoarborinol, and diplopterol range on a relatively high level, whereas diploptene and tetrahymanol display comparatively low concentrations. The results suggest at least two distinct changes in the predominance of primary producers during the Holocene, which are related to changes in the lake system such as lake mixing and water column stratification. This interpretation is consistent with previous investigations of Lake Albano sediments including pigment and hydrogen index data (Ariztegui et al., 1996b; Guilizzoni et al., 2002). Allochthonous biomarkers such as long-chain n-alkanes, amyrenones and friedelin indicate a development from forest to a more open landscape from 6,000 and 5.000 years BP, respectively. After a period of high concentrations during the first half of the Holocene, all biomarkers derived from deciduous trees exhibit relatively low values until around 1,000 years BP. Again, this is consistent with results from previous pollen investigations (Ariztegui et al., 2000). The sediment core from Upper Lake Constance comprises the Late Glacial and Holocene. It was analysed for biomarkers and inorganic tracers in order to compare the biomarker results with other proxy data from the same core. Magnetic susceptibility (MS) was measured to get a high-resolution stratigraphic framework of the core and to obtain further information about changes of the proportions of allochthonous and autochthonous input. Enhanced concentrations and accumulation rates of dinosterol (biomarker for dinoflagellates) and biogenic calcite give evidence of increasing lake productivity at the beginning of the Holocene followed by a decrease in bioproductivity after around 7,000 years BP. Younger Dryas sediments are characterized by low amounts of both dinosterol and biogenic calcite indicating a low productivity. The comparison of the concentrations and accumulation rates of b-sitosterol and stigmastanol with parameters reflecting lake productivity suggests that both steroids in Lake Constance sediments are mainly derived from terrigenous sources. Biomarkers as well as concentrations and accumulation rates of allochthonous inorganic compounds such as titanium, magnesium and strontium indicate a slightly enhanced allochthonous input after 8,500 years BP. Significant increase of erosive matter input from enhanced soil erosion is not observed before 4,000 years BP. This can be attributed to the combined effects of precipitation increase as a result of climatic deterioration and anthropogenic deforestation which is consistent with observations from other lakes in Central Europe. The MS record of Lake Constance confirms these results by tracing the climatically induced shifts of more intense bioproduction (low MS caused by increased calcite deposition) during the ‘climatic optimum’. This is followed by increasing input of terrigenous sediment compounds during colder and wetter periods which lead to higher MS values in the lake sediments. The occurrence of tetrahymanol in Lake Constance sediments questions the unambiguous use of tetrahymanol as an indicator for water column stratification. Anaerobic organic macroaggregates within the oxygenated, photic zone of the water column have to be considered as a possible living space for anaerobic microorganisms containing tetrahymanol. The direct comparison of two very different lakes Albano and Constance with respect to biomarkers indicating climate or environmental change provides a contribution to the recent biomarker research for a better understanding of biomarkers in lacustrine sediments.
Als Voraussetzung für die experimentellen Arbeiten wurde am Mineralogischen Institut in Frankfurt eine Hochdruckpresse mit einer Multi-Anvil-Apparatur vom Walker-Typ aufgebaut und kalibriert. Diese Arbeiten nahmen einen beträchtlichen Teil der Promotionszeit ein. In einer Reihe von Hochdruck-Experimenten wurde dann die maximale Löslichkeit von Aluminium und den Seltenerd-Elementen Lanthan, Gadolinium und Lutetium in den Phasen des CaSiO3-Systems im Druckbereich zwischen 2.0 und 13.0 GPa untersucht. Unsere Experimente ergaben eine Zunahme der maximalen Löslichkeit mit steigendem Druck, von Wollastonit über Ca-Walstromit, Larnit + Si-Titanit bis Ca-Perowskit. Ca-Perowskit zeigt extrem hohe SEE-Konzentrationen mit einem Maximum bei den mittleren SEE. In den anderen Phasen nimmt die Löslichkeit mit zunehmender Kompatibilität der SEE zu. Innerhalb der Stabilitätsfelder zeigte sich keine signifikante Druck- oder Temperatur-Abhängigkeit der maximalen Löslichkeit. Anhand der Mikrosonden-Analysen konnte gezeigt werden, dass der Einbau von Al und SEE in Ca-Walstromit nicht über eine gekoppelte Substitution erfolgt, sondern wahrscheinlich über eine Defektstruktur. Dies deckt sich mit unseren TEM-Untersuchungen an diesen synthetischen Produkten, die eine hohe Dichte an planaren Baufehlern mit leicht erhöhten SEE-Konzentrationen ergaben. In allen Ca-Silikat-Phasen lag die maximale Löslichkeit der Seltenen Erden höher als die Konzentration in natürlichen Proben. Damit steht fest, dass die in Einschlüssen gemessenen SEE-Gehalte „primär“ sind und sich nicht durch etwaige Entmischungen im Zuge einer Anpassung der Kristallstruktur an die veränderten P,T-Bedingungen verändert haben. Entmischungen in Form einer SEE-reichen Phase würden eine an LSEE extrem angereicherte Quelle voraussetzen. Ein Vergleich unserer Subsolidus-Experimente mit CaSiO3-Einschlüssen in Diamanten aus Guinea zeigt, dass einige mit bis zu 0.13 Gew.% Al2O3 an Aluminium gesättigt sind. Diese Tatsache ist besonders interessant bei der Interpretation Alhaltiger Einschlussphasen. Neben absoluten Spurenelement-Konzentrationen sind Verteilungskoeffizienten äußerst wertvolle Hilfsmittel bei der Bewertung natürlicher Proben. Die in der Literatur bestehenden Datensätze wurden mit unseren Kristall/Schmelz-Verteilungskoeffizienten bzw. Verteilungskoeffizienten zwischen Ca-Silikatphasen erweitert. Verteilungskoeffizienten der Seltenerd-Elemente zwischen Ca-Walstromit und Karbonat sind um eine Größenordnung höher als Ca-Walstromit/Schmelz-Verteilungskoeffizienten und zeigen eine größere Steigung zwischen den MSEE und den SSEE (Lu/Gd). Die Seltenen Erden verhalten sich sowohl in Larnit als auch in Si-Titanit inkompatibel, wobei DX/L La für Larnit etwa 0.1 und für CaSi2O5 etwa 0.002 ist, d.h. auch, dass die LSEE im Vergleich zu Si-Titanit bevorzugt in Larnit eingebaut werden. Al verhält sich in Si-Titanit Zusammenfassung 147 kompatibel (DX/LAl=4) und in Larnit leicht inkompatibel. Diese Ergebnisse decken sich mit Analysen an natürlichen Proben. Die SEE-Verteilungskoeffizienten zwischen Ca-Perowskit und Schmelze liegen mit Ausnahme von La über eins und zeigen in Übereinstimmung mit Literaturdaten ein Maximum bei Gd. Für Granat konnte gezeigt werden, dass der Einbau der SEE und Si in MgO-haltigen Kristallen in Abhängigkeit von Druck und Startzusammensetzung über eine Ca SEE2 Mg2 Si3O12- Komponente bzw. über eine Ca3 MgSi Si3O12-Komponente mit 6-fach koordiniertem Silizium erfolgt. In zahlreichen Experimenten kristallisierte eine neue Ca-SEE-Silikat-Phase mit Feldspat-Stöchiometrie. Dabei handelt es sich offenbar um ein Mischkristallsystem mit einem Endglied, in das vorwiegend die leichten SEE eingebaut werden und in einem zweiten mit vorwiegend schweren SEE. Ab einem Druck von etwa 10.0 GPa trennt ein Solvus die beiden Endglieder voneinander. In der Literatur ist bisher nur ein CaLa2Si2O8-Endglied beschrieben worden. In einigen Experimenten mit P und Li wurde zusätzlich untersucht, ob diese Elemente zur Rekonstruktion der Bildungsbedingungen von Diamanten verwendet werden können. Dabei zeigte sich, dass die max. Löslichkeit von Li in CaSiO3 näher an den natürlichen Probenzusammensetzungen liegt und damit möglicherweise Potential für die Rekonstruktion von Bildungsbedingungen hat. In einem weiteren Teil dieser Arbeit wurde die Kinetik retrograder Reaktionen im CaSiO3-System untersucht. Die für die In-Situ-Experimente mit Synchrotron-Strahlung notwendigen Versuchsaufbauten wurden von uns entwickelt und die entsprechenden Entwicklungsschritte und technischen Probleme ausführlich beschrieben. Anhand von Entlastungsexperimenten wurden die Disproportionierung von Ca-Perowskit zu Larnit + Si-Titanit und die Rekombination zu Ca-Walstromit bei unterschiedlichen Temperaturen und unter dem Einfluss von Wasser untersucht. Aufgrund der wenigen verwertbaren Daten, die uns vorliegen, konnten zwar keine Aktivierungsenergien berechnet werden, es sind aber aufgrund unser Beobachtungen folgende Feststellungen zu treffen: Die Reaktion von Ca-Perowskit zu Larnit + Si-Titanit erfolgt bei gleicher Temperatur offenbar um Größenordnungen schneller als die sich bei niedrigen Drucken anschließende Rekombination zu Ca-Walstromit. Dies deckt sich mit Beobachtungen an natürlichen Proben, bei denen Larnit und Si-Titanit teilweise unvollständig zu Ca-Walstromit reagierten. Dadurch erscheint es eher unwahrscheinlich, dass amorphes CaSiO3 in Diamanten ein direktes Umwandlungsprodukt von Ca-Perowskit ist. Aber auch für die in der Literatur beschriebene Amorphisierung von Ca-Walstromit-Einschlüssen (Stachel 2000) noch innerhalb des umgebenden Diamanten ließ sich durch unsere In-Situ-Entlastungsexperimente nicht stützen. Eine Amorphisierung von Ca-Walstromit beobachteten wir nur bei einer Untersuchung am TEM, wo die Phase sehr instabil war und selbst in einem Kryohalter rasch unter dem Einfluss der Elektronenstrahls amorphisierte. Die Beugungs-Spektren, die nach einer Druckentlastung im Ca-Walstromit-Stabilitätsfeld aufgenommen wurden, unterschieden sich trotz der CaSiO3-Chemie der neu gebildeten Phase deutlich von unseren Ca-Walstromit-Referenz-Spektren, so dass die Umwandlung möglicherweise über eine metastabile Zwischenstufe erfolgt. Vor dem Hintergrund von unterschiedlichen, in der Literatur beschriebenen Strukturtypen von Ca-Walstromit wäre eine systematische Untersuchung der Struktur innerhalb des gesamten Stabilitätsfeldes wichtig.
Die Montagne Noire am Südrand des französischen Zentralmassivs gehört in das Vorland der französischen Varisziden. Es handelt sich um einen metamorphen Kemkomplex mit einem Kern ("Axialzone") aus Graniten sowie teilweise migmatisierten Ortho- und Paragesteinen. Die Axialzone wird im Norden ("Nordflügel") und Süden ("Südflügel") von paläozoischen Sedimenten umrahmt. Der Nordflügel wird in die "westlichen Monts de Lacaune" (im Westen) und die "Nördliche Schuppenzone" (im Osten) unterteilt und besteht aus Gesteinen mit kambrischem bis silurischem Alter. Der Südflügel wird von einem Stapel aus mehreren Deckeneinheiten aufgebaut, deren stratigraphisches Alter vom Kambrium bis ins Karbon reicht. Die Deckeneinheiten heißen (von oben nach unten im Stapel): Pardailhan-Decke, Minervois-Decke, Mont Peyroux-Decke, Faugeres-Decke und Parautochthon. Die Montagne Noire repräsentiert den seltenen Fall eines "heißen" metamorphen Kernkomplexes, ist aber auch ein ideales Gebiet für vergleichende methodische Studien der sehr niedriggradigen Metamorphose: unterschiedliche Gesteinstypen (Sand- und Siltsteine, Tonschiefer, verschiedene Karbonate) lassen sich quer zur Metamorphosezonierung vom Bereich der Diagenese bis in die Grünschieferfazies verfolgen. In der vorliegenden Arbeit wurde die tektono-metamorphe Entwicklung der niedriggradigen paläozoischen Sedimente untersucht. Dazu wurde eine flächenhafte Studie der Schichtsilikatentwicklung in den Peliten durchgeführt. Es wurden folgende Methoden angewandt: Kubier Index ("Illitkristallinität"), Arkai-Index ("Chloritkristallinität"), "bo-Index" (zur Bestimmung des geothermischen Gradienten), Polytypie-Untersuchungen, sowie an ausgesuchten Proben Mikrosondenanalytik und Röntgenfluoreszenzanalyse. Femer wurden von K. Wemmer (Göttingen) an einigen Proben K-Ar-Datierungen der Feinfraktionen (<2 mikro m und <0,2 mikro m) durchgeführt, um die Entwicklung auch zeitlich zu erfassen. Die petrologischen und geochronologische Daten wurden zur Deformation in Bezug gesetzt. Dabei wurden sowohl Literaturdaten als auch eigene strukturgeologische Befunde verwendet. Es konnten drei tektono-metamorphe Hauptphasen nachgewiesen werden: Die erste Phase (D1 entspricht dem variszischen Deckenbau. Dabei wurde eine M1-Metamorphose angelegt, die durch den bo-Index als Mitteldruck-Metamorphose charakterisiert werden kann. Das Strukturinventar belegt einen etwa südgerichteten tektonischen Transport während D1. Diese Phase ist in der Nördlichen Schuppenzone sowie im W-Teil der Pardailhan-Decke erhalten. Das Alter dieser Phase konnte in kambro-ordovizischen Gesteinen mit der K-Ar-Methode auf 340 bis 330 Ma datiert werden. Diese Alter zeigen eine gute Übereinstimmung mit Ar/Ar-Datierungen aus den im N angrenzenden grünschieferfaziellen Decken des Albigeois. In den tieferen Decken des Südflügels, die ursprünglich weiter im Süden gelegen haben, kann die D1-Deformation erst nach Ende der Flyschsedimentation an der Grenze Vise/Namur (<320 Ma) stattgefunden haben. Die zweite Phase (D2) entspricht dem Aufstieg des metamorphen Kemkomplexes. Im Kontakt mit dem aufsteigenden, heißen Kern ist der größere Teil der paläozoischen Hüllschichten kinematisch und thermisch geprägt wurden. Dabei sind Strukturen und Mineralbestand von D1 und M1 ganz oder teilweise gelöscht worden. Die Extensions-bedingte penetrative S2-Schieferung ist im größten Teil des Südflügels das dominante Flächensystem: dies gilt für das Parautochthon, die gesamte Faugeres-Decke. den westlichen Teil der Mont Peyroux-Decke, den östlichen Teil der Pardailhan- Decke und wahrscheinlich auch die Minervois-Decke. Der Grad der Mz-Metamorphose, die auch in den westlichen Monts de Lacaune (Nordflügel) die prägende Metamorphose ist, nimmt generell mit zunehmender Entfernung von der Axialzone ab. Der bo-Index belegt Niederdruck-metamorphe Bedingungen. K-Ar-Datierungen aus verschiedenen Decken des Südflügels ergeben für D2/M2 Werte zwischen 310 und 300 Ma. Dieses Altersspektrum entspricht Ar/Ar-Datierungen (etwa 311 bis 303 Ma; synkinematischer Biotit und Muskovit; Maluski et al.1991) aus Scherzonen am S-Rand der Axialzone, die während der Exhumierung angelegt wurden. Die K-Ar-Alter der paläozoischen Decken passen auch sehr gut zu U/Pb-Altem aus Paragneisen (308 Ma, Monazit; Gebauer et al. 1988), Graniten (308 Ma, Monazit) und migmatischen Gneisen (313 Ma; beide Krause et al. 2004) der Axialzone, die eine starke thermische Aktivität zu dieser Zeit belegen. Das dritte metamorphe Ereignis (M3) ist unter Anderem im Stephanbecken von Graissessac, nachgewiesen, das im Zuge der Extensionstektonik (D2) am ENE-Ende der Axialzone entstanden ist. Nach dem bisherigen Kenntnisstand ist diese Metamorphose statisch. Der bo-Index belegt - wie auch bei M2 - eine LP-Metamorphose. Sie wurde vermutlich durch magmatische Instrusionen hervorgerufen. M3 muss jünger sein als das U-Pb-Alter eines Tuffes im tiefen Teil der Stefan-Abfolge (c. 295 Ma). Dazu passen Rb-Sr Mineralisochronen von 292 bis 277 Ma aus zwei benachbarten Granitplutonen. Ähnliche Alter treten auch in Pegmatiten der Axialzone auf. Nicht alle der untersuchten Bereiche können eindeutig einer der drei tektono-metamorphen Hauptphasen zugeordnet werden (St. Gervais-Einheit im NE der Axialzone, östlicher Teil der Mont Peyroux-Decke). Dies liegt vielfach an einer unzureichenden strukturgeologischen Datenlage. Teilweise haben aber auch Alterationsprozesse stattgefunden, welche die K-Ar-Alter verjüngt haben, oder der regionale Metamorphosegrad ist sehr niedrig. Schließlich ist in schwach anchimetamorphen oder nur diagenetisch beeinflussten Gesteinen die bo-Index-Methode nicht anwendbar. Insgesamt bestätigen die regionalen Untersuchungen das Bild eines heißen Gneiskerns, der während seines Extensions-bedingten Aufstieges seine Hüllschichten syntektonisch aufheizt. Zusätzlich zur geodynamischen Fragestellung wurden in dieser Arbeit auch methodische Aspekte verfolgt. Der Schwerpunkt lag hierbei auf der Untersuchung der K-Na-Verteilung in den Illiten bzw. Muskoviten. Es hat sich gezeigt, dass einige Proben Paragonit und/oder K/Na-Illit rührten. Diese Minerale stören die Bestimmung der Illitkristallinität im Röntgendiffraktogramm, da sich ihre Peaks mit denen des Illit überlagern. Es wurden daher verschiedene "Peak-Fittings" durchgeführt, bei denen sich zum einen zeigte, dass der 10 A-Peak besser für das Fitting von Illit und diskretem Paragonit geeignet ist als der 5 A-Peak. Es wurde zudem festgestellt, dass es nur schwer oder gar nicht möglich ist, Illit und eine K/Na-Phase mit einer zufriedenstellenden Qualität zu fitten. da die Peakmaxima zu nahe beieinander liegen. Eine Mikrosondenanalyse (teilweise auch Mikrosonden- Mapping) der betreffenden Proben zeigte, wie unterschiedlich die K-Na-Verteilung in den Illiten im anchimetamorphen Bereich sein kann. Es wurden diskrete Mineralphasen, eine domänenartige Verteilung und auch relativ homogene Mischkristalle beobachtet.
Tropische Korallenriffe sind die artenreichsten Ökosysteme im Ozean. Die »tropischen Regenwälder der Meere« beherbergen zirka 800 Korallenarten und mehrere zehntausend Arten aus fast allen bekannten Tierstämmen. Korallenriffe bedecken weltweit eine Fläche von 600.000 Quadratkilometern, das sind 0,17 Prozent der Erdoberfläche. Sie treten als nahe der Küste gelegene Saumriffe, küstenfernere Barriereriffe, ringförmige Atolle und flache Karbonat-Plattformen auf . Der Begriff »Karbonat« weist darauf hin, dass Korallen als Riffbildner ein Skelett aus Kalk haben. Auch Kalkalgen und Weichtiere wie Muscheln und Schnecken sind durch die Bildung von Kalkskeletten und Kalkschalen am Riffaufbau beteiligt. Da tropische Korallenriffe nur in der Nähe der Meeresoberfläche wachsen, können Geowissenschaftler mit Hilfe fossiler Korallenfunde ermitteln, wie sich der Pegel des Meeresspiegels in vergangenen Jahrtausenden entwickelt hat. Auch andere wichtige Klimadaten wie Wassertemperatur, Sonneneinstrahlung und Kohlendioxid-Gehalt der Atmosphäre sind in Korallenriffen »gespeichert«. Frankfurter Geowissenschaftler erschließen diese wichtigen Daten, die weit vor menschliche Messungen zurückreichen, durch systematische Bohrungen in Korallenriffen der Karibik, des Persischen Golfs und der Malediven.
Spatial interpolation of precipitation data is uncertain. How important is this uncertainty and how can it be considered in evaluation of high-resolution probabilistic precipitation forecasts? These questions are discussed by experimental evaluation of the COSMO consortium's limited-area ensemble prediction system COSMO-LEPS. The applied performance measure is the often used Brier skill score (BSS). The observational references in the evaluation are (a) analyzed rain gauge data by ordinary Kriging and (b) ensembles of interpolated rain gauge data by stochastic simulation. This permits the consideration of either a deterministic reference (the event is observed or not with 100% certainty) or a probabilistic reference that makes allowance for uncertainties in spatial averaging. The evaluation experiments show that the evaluation uncertainties are substantial even for the large area (41 300 km2) of Switzerland with a mean rain gauge distance as good as 7 km: the one- to three-day precipitation forecasts have skill decreasing with forecast lead time but the one- and two-day forecast performances differ not significantly.
The Land and Water Development Division of the Food and Agriculture Organization of the United Nations and the Johann Wolfgang Goethe University, Frankfurt am Main, Germany, are cooperating in the development of a global irrigation-mapping facility. This report describes an update of the Digital Global Map of Irrigation Areas for the continents of Africa and Europe as well as for the countries Argentina, Brazil, Mexico, Peru and Uruguay in Latin America. For this update, an new inventory of subnational irrigation statistics was compiled. The reference year for the statistics is 2000. Adding up the irrigated areas per country as documented in the report gives a total of 48.8 million ha while the total area equipped for irrigation at the global scale is 278.8 million ha. The total number of subnational units in the inventory used for this update is 16 822 while the number of subnational units in the global inventory increased to 26 909. In order to distribute the irrigation statistics per subnational unit, digital spatial data layers and printed maps were used. Irrigation maps were derived from project reports, irrigation subsector studies, and books related to irrigation and drainage. These maps were digitized and compared with satellite images of many regions. In areas without spatial information on irrigated areas, additional information was used to locate areas where irrigation is likely, such as land-cover and land-use maps that indicate agricultural areas or areas with crops that are usually grown under irrigation.
Mechanisms by which subvisible cirrus clouds (SVCs) might contribute to dehydration close to the tropical tropopause are not well understood. Recently Ultrathin Tropical Tropopause Clouds (UTTCs) with optical depths around 10-4 have been detected in the western Indian ocean. These clouds cover thousands of square kilometers as 200-300 m thick distinct and homogeneous layer just below the tropical tropopause. In their condensed phase UTTCs contain only 1-5% of the total water, and essentially no nitric acid. A new cloud stabilization mechanism is required to explain this small fraction of the condensed water content in the clouds and their small vertical thickness. This work suggests a mechanism, which forces the particles into a thin layer, based on upwelling of the air of some mm/s to balance the ice particles, supersaturation with respect to ice above and subsaturation below the UTTC. In situ measurements suggest that these requirements are fulfilled. The basic physical properties of this mechanism are explored by means of a single particle model. Comprehensive 1-D cloud simulations demonstrate this stabilization mechanism to be robust against rapid temperature fluctuations of +/- 0.5 K. However, rapid warming (Delta T > 2 K) leads to evaporation of the UTTC, while rapid cooling (Delta T < -2 K) leads to destabilization of the particles with the potential for significant dehydration below the cloud
Measurements of OH, total peroxy radicals, non-methane hydrocarbons (NMHCs) and various other trace gases were made at the Meteorological Observatory Hohenpeissenberg in June 2000. The data from an intensive measurement period characterised by high solar insolation (18-21 June) are analysed. The maximum midday OH concentration ranged between 4.5x106 molecules cm-3 and 7.4x106 molecules cm-3. The maximum total ROx (ROx =OH+RO+HO2+RO2) mixing ratio increased from about 55 pptv on 18 June to nearly 70 pptv on 20 and 21 June. A total of 64 NMHCs, including isoprene and monoterpenes, were measured every 1 to 6 hours. The oxidation rate of the NMHCs by OH was calculated and reached a total of over 14x106 molecules cm-3 s-1 on two days. A simple photostationary state balance model was used to simulate the ambient OH and peroxy radical concentrations with the measured data as input. This approach was able to reproduce the main features of the diurnal profiles of both OH and peroxy radicals. The balance equations were used to test the effect of the assumptions made in this model. The results proved to be most sensitive to assumptions about the impact of unmeasured volatile organic compounds (VOC), e.g. formaldehyde (HCHO), and about the partitioning between HO2 and RO2. The measured OH concentration and peroxy radical mixing ratios were reproduced well by assuming the presence of 3 ppbv HCHO as a proxy for oxygenated hydrocarbons, and a HO2/ RO2 ratio between 1:1 and 1:2. The most important source of OH, and conversely the greatest sink for peroxy radicals, was the recycling of HO2 radicals to OH. This reaction was responsible for the recycling of more than 45x106 molecules cm-3 s-1 on two days. The most important sink for OH, and the largest source of peroxy radicals, was the oxidation of NMHCs, in particular, of isoprene and the monoterpenes.
Subvisible cirrus clouds (SVCs) may contribute to dehydration close to the tropical tropopause. The higher and colder SVCs and the larger their ice crystals, the more likely they represent the last efficient point of contact of the gas phase with the ice phase and, hence, the last dehydrating step, before the air enters the stratosphere. The first simultaneous in situ and remote sensing measurements of SVCs were taken during the APE-THESEO campaign in the western Indian ocean in February/March 1999. The observed clouds, termed Ultrathin Tropical Tropopause Clouds (UTTCs), belong to the geometrically and optically thinnest large-scale clouds in the Earth´s atmosphere. Individual UTTCs may exist for many hours as an only 200--300 m thick cloud layer just a few hundred meters below the tropical cold point tropopause, covering up to 105 km2. With temperatures as low as 181 K these clouds are prime representatives for defining the water mixing ratio of air entering the lower stratosphere.
We have used the SLIMCAT 3-D off-line chemical transport model (CTM) to quantify the Arctic chemical ozone loss in the year 2002/2003 and compare it with similar calculations for the winters 1999/2000 and 2003/2004. Recent changes to the CTM have improved the model's ability to reproduce polar chemical and dynamical processes. The updated CTM uses σ-θ as a vertical coordinate which allows it to extend down to the surface. The CTM has a detailed stratospheric chemistry scheme and now includes a simple NAT-based denitrification scheme in the stratosphere.
In the model runs presented here the model was forced by ECMWF ERA40 and operational analyses. The model used 24 levels extending from the surface to ~55km and a horizontal resolution of either 7.5° x 7.5° or 2.8° x 2.8°. Two different radiation schemes, MIDRAD and the CCM scheme, were used to diagnose the vertical motion in the stratosphere. Based on tracer observations from balloons and aircraft, the more sophisticated CCM scheme gives a better representation of the vertical transport in this model which includes the troposphere. The higher resolution model generally produces larger chemical O3 depletion, which agrees better with observations.
The CTM results show that very early chemical ozone loss occurred in December 2002 due to extremely low temperatures and early chlorine activation in the lower stratosphere. Thus, chemical loss in this winter started earlier than in the other two winters studied here. In 2002/2003 the local polar ozone loss in the lower stratosphere was ~40% before the stratospheric final warming. Larger ozone loss occurred in the cold year 1999/2000 which had a persistently cold and stable vortex during most of the winter. For this winter the current model, at a resolution of 2.8° x 2.8°, can reproduce the observed loss of over 70% locally. In the warm and more disturbed winter 2003/2004 the chemical O3 loss was generally much smaller, except above 620K where large losses occurred due to a period of very low minimum temperatures at these altitudes.
Number concentrations of total and non-volatile aerosol particles with size diameters >0.01 μm as well as particle size distributions (0.4–23 μm diameter) were measured in situ in the Arctic lower stratosphere (10–20.5 km altitude). The measurements were obtained during the campaigns European Polar Stratospheric Cloud and Lee Wave Experiment (EUPLEX) and Envisat-Arctic-Validation (EAV). The campaigns were based in Kiruna, Sweden, and took place from January to March 2003. Measurements were conducted onboard the Russian high-altitude research aircraft Geophysica using the low-pressure Condensation Nucleus Counter COPAS (COndensation PArticle Counter System) and a modified FSSP 300 (Forward Scattering Spectrometer Probe). Around 18–20 km altitude typical total particle number concentrations nt range at 10–20 cm−3 (ambient conditions). Correlations with the trace gases nitrous oxide (N2O) and trichlorofluoromethane (CFC-11) are discussed. Inside the polar vortex the total number of particles >0.01 μm increases with potential temperature while N2O is decreasing which indicates a source of particles in the above polar stratosphere or mesosphere. A separate channel of the COPAS instrument measures the fraction of aerosol particles non-volatile at 250°C. Inside the polar vortex a much higher fraction of particles contained non-volatile residues than outside the vortex (~67% inside vortex, ~24% outside vortex). This is most likely due to a strongly increased fraction of meteoric material in the particles which is transported downward from the mesosphere inside the polar vortex. The high fraction of non-volatile residual particles gives therefore experimental evidence for downward transport of mesospheric air inside the polar vortex. It is also shown that the fraction of non-volatile residual particles serves directly as a suitable experimental vortex tracer. Nanometer-sized meteoric smoke particles may also serve as nuclei for the condensation of gaseous sulfuric acid and water in the polar vortex and these additional particles may be responsible for the increase in the observed particle concentration at low N2O. The number concentrations of particles >0.4 μm measured with the FSSP decrease markedly inside the polar vortex with increasing potential temperature, also a consequence of subsidence of air from higher altitudes inside the vortex. Another focus of the analysis was put on the particle measurements in the lowermost stratosphere. For the total particle density relatively high number concentrations of several hundred particles per cm3 at altitudes below ~14 km were observed in several flights. To investigate the origin of these high number concentrations we conducted air mass trajectory calculations and compared the particle measurements with other trace gas observations. The high number concentrations of total particles in the lowermost stratosphere are probably caused by transport of originally tropospheric air from lower latitudes and are potentially influenced by recent particle nucleation.
We report measurements of the deuterium content of molecular hydrogen (H2) obtained from a suite of air samples that were collected during a stratospheric balloon flight between 12 and 33 km at 40º N in October 2002. Strong deuterium enrichments of up to 400 permil versus Vienna Standard Mean Ocean Water (VSMOW) are observed, while the H2 mixing ratio remains virtually constant. Thus, as hydrogen is processed through the H2 reservoir in the stratosphere, deuterium is accumulated in H2 . Using box model calculations we investigated the effects of H2 sources and sinks on the stratospheric enrichments. Results show that considerable isotope enrichments in the production of H2 from CH4 must take place, i.e., deuterium is transferred preferentially to H2 during the CH4 oxidation sequence. This supports recent conclusions from tropospheric H2 isotope measurements which show that H2 produced photochemically from CH4 and non-methane hydrocarbons must be enriched in deuterium to balance the tropospheric hydrogen isotope budget. In the absence of further data on isotope fractionations in the individual reaction steps of the CH4 oxidation sequence, this effect cannot be investigated further at present. Our measurements imply that molecular hydrogen has to be taken into account when the hydrogen isotope budget in the stratosphere is investigated.
Balloon-borne measurements of CFC11 (from the DIRAC in situ gas chromatograph and the DESCARTES grab sampler), ClO and O3 were made during the 1999/2000 Arctic winter as part of the SOLVE-THESEO 2000 campaign, based in Kiruna (Sweden). Here we present the CFC11 data from nine flights and compare them first with data from other instruments which flew during the campaign and then with the vertical distributions calculated by the SLIMCAT 3D CTM. We calculate ozone loss inside the Arctic vortex between late January and early March using the relation between CFC11 and O3 measured on the flights. The peak ozone loss (~1200ppbv) occurs in the 440-470K region in early March in reasonable agreement with other published empirical estimates. There is also a good agreement between ozone losses derived from three balloon tracer data sets used here. The magnitude and vertical distribution of the loss derived from the measurements is in good agreement with the loss calculated from SLIMCAT over Kiruna for the same days.
Turbulent fluxes of carbonyl sulfide (COS) and carbon disulfide (CS2) were measured over a spruce forest in Central Germany using the relaxed eddy accumulation (REA) technique. A REA sampler was developed and validated using simultaneous measurements of CO2 fluxes by REA and by eddy correlation. REA measurements were conducted during six campaigns covering spring, summer, and fall between 1997 and 1999. Both uptake and emission of COS and CS2 by the forest were observed, with deposition occurring mainly during the sunlit period and emission mainly during the dark period. On the average, however, the forest acts as a sink for both gases. The average fluxes for COS and CS2 are -93 ± 11.7 pmol m-2 s-1 and -18 ± 7.6 pmol m-2 s-1, respectively. The fluxes of both gases appear to be correlated to photosynthetically active radiation and to the CO2 and \chem{H_2O} fluxes, supporting the idea that the air-vegetation exchange of both gases is controlled by stomata. An uptake ratio COS/CO2 of 10 ± 1.7 pmol m mol-1 has been derived from the regression line for the correlation between the COS and CO2 fluxes. This uptake ratio, if representative for the global terrestrial net primary production, would correspond to a sink of 2.3 ± 0.5 Tg COS yr-1.
A comprehensive set of stratospheric balloon and aircraft samples was analyzed for the position-dependent isotopic composition of nitrous oxide (N2O). Results for a total of 220 samples from between 1987 and 2003 are presented, nearly tripling the number of mass-spectrometric N2O isotope measurements in the stratosphere published to date. Cryogenic balloon samples were obtained at polar (Kiruna/Sweden, 68° N), mid-latitude (southern France, 44° N) and tropical sites (Hyderabad/India, 18° N). Aircraft samples were collected with a newly-developed whole air sampler on board of the high-altitude aircraft M55 Geophysica during the EUPLEX 2003 campaign. For mixing ratios above 200 nmol mol−1, relative isotope enrichments (δ values) and mixing ratios display a compact relationship, which is nearly independent of latitude and season and which can be explained equally well by Rayleigh fractionation or mixing. However, for mixing ratios below 200 nmol mol−1 this compact relationship gives way to meridional, seasonal and interannual variations. A comparison to a previously published mid-latitude balloon profile even shows large zonal variations, justifying the use of three-dimensional (3-D) models for further data interpretation.
In general, the magnitude of the apparent fractionation constants (i.e., apparent isotope effects) increases continuously with altitude and decreases from the equator to the North Pole. Only the latter observation can be understood qualitatively by the interplay between the time-scales of N2O photochemistry and transport in a Rayleigh fractionation framework. Deviations from Rayleigh fractionation behavior also occur where polar vortex air mixes with nearly N2O-free upper stratospheric/mesospheric air (e.g., during the boreal winters of 2003 and possibly 1992). Aircraft observations in the polar vortex at mixing ratios below 200 nmol mol−1 deviate from isotope variations expected for both Rayleigh fractionation and two-end-member mixing, but could be explained by continuous weak mixing between intravortex and extravortex air (Plumb et al., 2000). However, it appears that none of the simple approaches described here can capture all features of the stratospheric N2O isotope distribution, again justifying the use of 3-D models. Finally, correlations between 18O/16O and average 15N/14N isotope ratios or between the position-dependent 15N/14N isotope ratios show that photo-oxidation makes a large contribution to the total N2O sink in the lower stratosphere (possibly up to 100% for N2O mixing ratios above 300 nmol mol−1). Towards higher altitudes, the temperature dependence of these isotope correlations becomes visible in the stratospheric observations.
Balloon-borne stratospheric BrO measurements: comparison with Envisat/SCIAMACHY BrO limb profiles
(2006)
For the first time, results of all four existing stratospheric BrO profiling instruments, are presented and compared with reference to the SLIMCAT 3-dimensional chemical transport model (3-D CTM). Model calculations are used to infer a BrO profile validation set, measured by 3 different balloon sensors, for the new Envisat/SCIAMACHY (ENVIronment SATellite/SCanning Imaging Absorption spectroMeter for Atmospheric CHartographY) satellite instrument. The balloon observations include (a) balloon-borne in situ resonance fluorescence detection of BrO, (b) balloon-borne solar occultation DOAS measurements (Differential Optical Absorption Spectroscopy) of BrO in the UV, and (c) BrO profiling from the solar occultation SAOZ (Systeme d'Analyse par Observation Zenithale) balloon instrument. Since stratospheric BrO is subject to considerable diurnal variation and none of the measurements are performed close enough in time and space for a direct comparison, all balloon observations are considered with reference to outputs from the 3-D CTM. The referencing is performed by forward and backward air mass trajectory calculations to match the balloon with the satellite observations. The diurnal variation of BrO is considered by 1-D photochemical model calculation along the trajectories. The 1-D photochemical model is initialised with output data of the 3-D model with additional constraints on the vertical transport, the total amount and photochemistry of stratospheric bromine as given by the various balloon observations. Total [Bry]=(20.1±2.8)pptv obtained from DOAS BrO observations at mid-latitudes in 2003, serves as an upper limit of the comparison. Most of the balloon observations agree with the photochemical model predictions within their given error estimates. First retrieval exercises of BrO limb profiling from the SCIAMACHY satellite instrument agree to <±50% with the photochemically-corrected balloon observations, and tend to show less agreement below 20 km.
During SPURT (Spurenstofftransport in der Tropopausenregion, trace gas transport in the tropopause region) we performed measurements of a wide range of trace gases with different lifetimes and sink/source characteristics in the northern hemispheric upper troposphere (UT) and lowermost stratosphere (LMS). A large number of in-situ instruments were deployed on board a Learjet 35A, flying at altitudes up to 13.7 km, at times reaching to nearly 380 K potential temperature. Eight measurement campaigns (consisting of a total of 36 flights), distributed over all seasons and typically covering latitudes between 35° N and 75° N in the European longitude sector (10° W–20° E), were performed. Here we present an overview of the project, describing the instrumentation, the encountered meteorological situations during the campaigns and the data set available from SPURT. Measurements were obtained for N2O, CH4, CO, CO2, CFC12, H2, SF6, NO, NOy, O3 and H2O. We illustrate the strength of this new data set by showing mean distributions of the mixing ratios of selected trace gases, using a potential temperature – equivalent latitude coordinate system. The observations reveal that the LMS is most stratospheric in character during spring, with the highest mixing ratios of O3 and NOy and the lowest mixing ratios of N2O and SF6. The lowest mixing ratios of NOy and O3 are observed during autumn, together with the highest mixing ratios of N2O and SF6 indicating a strong tropospheric influence. For H2O, however, the maximum concentrations in the LMS are found during summer, suggesting unique (temperature- and convection-controlled) conditions for this molecule during transport across the tropopause. The SPURT data set is presently the most accurate and complete data set for many trace species in the LMS, and its main value is the simultaneous measurement of a suite of trace gases having different lifetimes and physical-chemical histories. It is thus very well suited for studies of atmospheric transport, for model validation, and for investigations of seasonal changes in the UT/LMS, as demonstrated in accompanying and elsewhere published studies.
During several balloon flights inside the Arctic polar vortex in early 2003, unusual trace gas distributions were observed, which indicate a strong influence of mesospheric air in the stratosphere. The tuneable diode laser (TDL) instrument SPIRALE (Spectroscopie InFrarouge par Absorption de Lasers Embarqués) measured unusually high CO values (up to 600 ppb) on 27 January at about 30 km altitude. The cryosampler BONBON sampled air masses with very high molecular Hydrogen, extremely low SF6 and enhanced CO values on 6 March at about 25 km altitude. Finally, the MIPAS (Michelson Interferometer for Passive Atmospheric Sounding) Fourier Transform Infra-Red (FTIR) spectrometer showed NOy values which are significantly higher than NOy* (the NOy derived from a correlation between N2O and NOy under undisturbed conditions), on 21 and 22 March in a layer centred at 22 km altitude. Thus, the mesospheric air seems to have been present in a layer descending from about 30 km in late January to 25 km altitude in early March and about 22 km altitude on 20 March. We present corroborating evidence from a model study using the KASIMA (KArlsruhe Simulation model of the Middle Atmosphere) model that also shows a layer of mesospheric air, which descended into the stratosphere in November and early December 2002, before the minor warming which occurred in late December 2002 lead to a descent of upper stratospheric air, cutting of a layer in which mesospheric air is present. This layer then descended inside the vortex over the course of the winter. The same feature is found in trajectory calculations, based on a large number of trajectories started in the vicinity of the observations on 6 March. Based on the difference between the mean age derived from SF6 (which has an irreversible mesospheric loss) and from CO2 (whose mesospheric loss is much smaller and reversible) we estimate that the fraction of mesospheric air in the layer observed on 6 March, must have been somewhere between 35% and 100%.
A new version of a digital global map of irrigation areas was developed by combining irrigation statistics for 10 825 sub-national statistical units and geo-spatial information on the location and extent of irrigation schemes. The map shows the percentage of each 5 arc minute by 5 arc minute cell that was equipped for irrigation around the year 2000. It is thus an important data set for global studies related to water and land use. This paper describes the data set and the mapping methodology and gives, for the first time, an estimate of the map quality at the scale of countries, world regions and the globe. Two indicators of map quality were developed for this purpose, and the map was compared to irrigated areas as derived from two remote sensing based global land cover inventories.
Flow velocity in rivers has a major impact on residence time of water and thus on high and low water as well as on water quality. For global scale hydrological modeling only very limited information is available for simulating flow velocity. Based on the Manning-Strickler equation, a simple algorithm to model temporally and spatially variable flow velocity was developed with the objective of improving flow routing in the global hydrological model of Water- GAP. An extensive data set of flow velocity measurements in US rivers was used to test and to validate the algorithm before integrating it into WaterGAP. In this test, flow velocity was calculated based on measured discharge and compared to measured velocity. Results show that flow velocity can be modeled satisfactorily at selected river cross sections. It turned out that it is quite sensitive to river roughness, and the results can be optimized by tuning this parameter. After the validation of the approach, the tested flow velocity algorithm has been implemented into the WaterGAP model. A final validation of its effects on the model results is currently performed.
Die folgende Arbeit ist eine von drei Dissertationen des interdisziplinären Forschungsvorhabens „Landschaftsarchäologie im Hessischen Ried“, das im Rahmen des Frankfurter Graduiertenkollegs „Archäologische Analytik“ stattfand. Das Projekt bestand aus einer archäologisch-historischen (MAURER 2003), einer bodenkundlichen (KANNENGIEßER Diss. in Arbeit) sowie dieser palynologischen Dissertation. Gemeinsam beschäftigen sich diese Arbeiten mit der Landschaftsrekonstruktion des nördlichen Hessischen Rieds. Die palynologischen Untersuchungen hatten das Ziel, die bisher weitgehend unbekannte ‚jüngere’ Vegetationsgeschichte von der vorrömischen Eisenzeit bis etwa zum 5. Jh. n. Chr. zu rekonstruieren. Zwischen der Eisenzeit und dem Frühmittelalter gab es im Hessischen Ried mehrere kulturelle Umbrüche. In der Spätlatènezeit siedelte eine keltische Bevölkerungsgruppe im nördlichen Hessischen Ried. Deren Spur verliert sich aber im 1. Jh. v. Chr. Erst nach einer ‚Fundlücke’ von etwa 50 Jahren findet man schließlich Überreste eine elbgermanische Population (LENZ-BERNHARD & BERNHARD 1991). Über Lebensweise und Anzahl dieser germanischen Bevölkerung wissen wir fast nichts. Zumindest ein Teil von ihnen aber diente im römischen Heer. Etwa ab dem Jahr 13/12 v. Chr. in augusteischer Zeit stand das Ried unter dem Einfluss des seitdem am Rhein stationierten römischen Militärs (MAURER 2003). Im Zuge der Okkupation kamen römische Soldaten mitsamt ihrem Tross von Angehörigen und Marketendern an den Rhein. Da sehr wenig über die zuvor ansässige Bevölkerung bekannt ist, ist es unklar, wie sich die Bevölkerungsstärke und damit der Bedarf an landwirtschaftlicher Nutzfläche während dieser Zeit veränderte. In der mittleren Kaiserzeit (ca. 70–260 n. Chr.) bildete das Hessische Ried das südöstliche Vorfeld der Provinzhauptstadt Mogontiacum (Mainz) bzw. das Umland des Auxiliarkastells/Zivilvicus Groß-Gerau-„Auf Esch“. In die sog. „agri decumates“ rechts des Rheins (Tacitus, GERMANIA 29, 3) gesellten sich nach und nach noch gallische Siedler zur römischen Bevölkerung. Es ist zu erwarten, dass sich die kulturellen Umbrüche dieser Zeit auch im Landschaftsbild widerspiegelten. Beispielsweise werden vielerorts den Römern die ersten großflächigen Waldrodungen und Raubbau an der Landschaft zugeschrieben (BEHRE 1988, CÜPPERS 1990, DUMAYNE 1993). In den letzten Jahren mehren sich allerdings die Indizien dafür, dass zumindest in einigen Gebieten einschneidende Landschaftseingriffe bereits in der Eisenzeit stattgefunden haben und die Landschaft bei Ankunft der Römer schon weitgehend entwaldet und anthropogen geprägt war (BUNNIK et al. 1995, STOBBE 1996, 2000, STOBBE & KALIS 2001, 2002, DÖRFLER et al. 2000, KOOISTRA 1996, DUMAYNE 1993, DUMAYNE-PEATY 1998). Auch für das nördliche Hessische Ried bestätigt die vorliegende Arbeit dieses Bild. Schon in der Eisenzeit entstand im Hessischen Ried eine weitgehend geöffnete Landschaft mit Grünlandflächen und Äckern. Die Vegetationsveränderungen beim Übergang von der Bronzezeit zur Eisenzeit (um 800 BC) sind dabei weit deutlicher als beim Übergang von der Eisenzeit zur Römischen Kaiserzeit. In der Römerzeit wurde zwar der Ackerbau intensiviert und einige typische Kulturpflanzen wurden eingeführt, doch das restliche Pollenspektrum verändert sich kaum. Beim Rückzug der römischen Armee vom Odenwaldlimes kam es zu einer leichten Regeneration der Buche im Umland. Während der Völkerwanderungszeit sieht man in den Profilen keine deutliche Waldregeneration, sondern nur einen leichten Rückgang der Bewirtschaftung.
Drevermanns Name ist in der Geologie nicht mit bahnbrechenden Ideen und Theorien verknüpft. Er hat nicht seine gesamte Energie auf seine Forschungen gerichtet. Stattdessen seine - manchmal auch schwache - Kraft (vgl. 3.6.) auf die Lehre (bei der Senckenbergischen Naturforschenden Gesellschaft und Universität), die Aufklärung des Volkes (in Vorträgen und „Natur und Museum“) und vor allem auf sein Museumsengagement aufgeteilt. Schon in seinem zweiten Senckenberg-Jahr zeichnete sich das Engagement für die Museumskunde ab. Er arbeitete sicher in der ersten Zeit eher angeleitet, später freier planend und ergänzend für die Vollständigkeit der Sammlung. Und schon 1911 leidet Drevermann daran, daß er zu wenig Zeit für seine eigene Arbeit hat. Er bat am 10. Oktober 1911 den Anfang seiner „Dienststunden auf 9 statt um 8“ festzusetzen, also die „Anzahl reduzieren von 42 auf 36“ Stunden. Als Grund nannte er: „Während der Arbeitszeit im Museum ist es wegen der fortwährenden und vielseitigen Inanspruchnahme meiner Tätigkeit nicht möglich, zu eigener wissenschaftlichen Tätigkeit zu gelangen.“ Er schreibt weiter, daß er dadurch hofft, „länger am Abend arbeiten“ zu können. Schon damals zeigt sich sein offensichtlicher Zeitmangel für seine eigenen Forschungsarbeiten. Dies sollte ihn sein ganzes Leben begleiten. Als fast tragisch ist deswegen zu werten, daß er seine schon 1915 begonnene Arbeit über Placodus trotz großer Anstrengungen in 1930 und 1931 nicht mehr beenden kann. Als ausschlaggebend für den Wandel und für die Abkehr von der eigenen devonischen Forschung und den Beginn des enormen Museumsengagements darf die Schenkung des Diplodocus gewertet werden. Dieses Museumsexponat verlegte Drevermanns Forschungsschwerpunkt zu den fossilen Wirbeltieren, im speziellen den Dinosauriern und Artverwandten, und damit hin zu einem für Drevermann und damit für das Senckenberg-Museum noch heute erfolgreichen Museumsthema. Drevermann ging damit den Weg vom klassischen Devon-Paläontologen hin zum Museumswissenschaftler. In seinen Schaffensjahren zeigt sich sein Werdegang zum Agitator, er setzte die Akzente und arbeitete für seine Museumsvorstellungen. Dazu ein Zitat Drevermanns aus seiner frühen Veröffentlichung über die Meersaurier im Senckenberg-Museum (1914): „Das Streben unseres Museums nach einer möglichst vollständigen Vertretung aller wichtigen Typen des Tierlebens der Vorzeit ist am ersten bei den Meersauriern mit Erfolg gekrönt worden. Durch das wiederholte verständnisvolle Eingreifen mehrerer Gönner des Museums ist es gelungen, in einem Jahrzehnt eine Sammlung zu schaffen, auf die das Museum stolz sein kann.“ Drevermann deutet hier nur versteckt an, daß das angesprochene Jahrzehnt sein erstes im Senckenberg-Museum war. Mit Hilfe von Gönnern, deren Wohlwollen er in der Lage war sich zu verschaffen, gelang es ihm durch Täusche und Käufe diese Sammlung aufzubauen. Er wurde zur prägenden Persönlichkeit. Deswegen machte ihn die Senckenbergischen Naturforschende Gesellschaft zum ersten Geologieprofessor der jungen Frankfurter Universität. Ein Ergebnis seiner intensiven engagierten Arbeit: 1924 wird er zum geschäftsführenden Direktor des Senckenberg-Museums ernannt. Drevermann betrieb als Museumswissenschaftler eine populäre Wissenschaft. Die Beispiele dafür sind mannigfaltig: seine Texte in der Frankfurter Zeitung, das Entwickeln der Zeitschrift „Natur und Museum“ und seine Veröffentlichungen und Fragenbeantwortung hierin, seine vielen Reden, seine Radio-Aktivitäten. Das außerordentliche Engagement Drevermanns für „sein“ Museums-Periodikum zeigt dabei deutlich, wie er als Museumswissenschaftler agierte und nicht als forschender Naturwissenschaftler. Und er ist als Museumswissenschaftler erfolgreich, weil er besondere Qualitäten als Autor und Redner hat. Er beschreibt anschaulich - auch für den Laien - , aber wissenschaftlich genau. Beschäftigt hat sich Drevermann tatsächlich mit geologisch und paläontologischer Forschung nur sekundär. Er war nicht der Spezialist, sondern der Generalist - er verstand viele geologische und paläontologische Fragestellungen. Denn er war immer auf der Höhe des disziplinären Diskussionen – auch wenn er selbst nur einen geringen Beitrag an Lösungen dazu lieferte. Er selbst liest die Veröffentlichungen über die Forschungsarbeiten anderer, spricht in seinen Vorlesungen und Reden darüber, stellt Bücher vor, greift auch in die fachliche Diskussion ein mit Stellungnahmen und Essays, aber entfacht keine solche. Letzteres war nur einmal der Fall: bei seinen Vorstellungen über das Museum der Zukunft. Dieses Thema ist das eigentliche Vermächtnis Drevermanns.
Der Dritte Bericht des Zwischenstaatlichen Ausschusses für Klimawandel (IPCC, 2001a, b) bestätigt den Einfluss des Menschen auf das globale Klima und warnt vor einem Temperaturanstieg und vor Niederschlagsveränderungen in den nächsten 100 Jahren, die gesellschaftlichen Wohlstand und Umwelt nachhaltig beeinträchtigen können. Dabei werden weitreichende Folgen des Klimawandels angenommen, vom Anstieg des Meeresspiegels und einer möglichen Degradation von Landflächen bis hin zum Verlust von Tier- und Pflanzenarten, der Verknappung von Wasserressourcen, einer Zunahme von natürlichen Katastrophen wie Überschwemmungen und Dürren, der Ausbreitung von Krankheiten sowie negativer Auswirkungen auf die Nahrungsversorgung der Bevölkerung. Klimawandel ist dabei nur ein Aspekt des weiter gefassten ‘Globalen Wandels’, der eine Vielzahl von anthropogen verursachten Veränderungen der Umwelt einschließt. So wird zum Beispiel erwartet, dass auch demographische und sozioökonomische Entwicklungen sowie vom Menschen verursachte Landnutzungsänderungen eine erhebliche Auswirkung auf den zukünftigen Zustand der globalen Umwelt haben werden. Zu den gravierendsten Folgen des Globalen Wandels gehört die Veränderung der räumlichen und zeitlichen Verteilung der lokalen und regionalen Wasserressourcen. Es müssen daher Strategien entwickelt werden, um sowohl die Bevölkerung als auch die Umwelt vor den möglichen negativen Auswirkungen von erhöhten oder erniedrigten Pegelständen in Fließgewässern zu schützen, oder sie auf eine Veränderung der verfügbaren Wassermengen vorzubereiten. Zur Entwicklung dieser Strategien wiederum werden wissenschaftliche Szenarien und Modellberechnungen benötigt, mit deren Hilfe sich zukünftige hydrologische Verhältnisse abschätzen lassen. Zahlreiche derartige Szenarienanalysen wurden bereits durchgeführt, um den Einfluss des Klima- und Globalen Wandels auf das Wasserdargebot und auf das hydrologische Abflussregime zu untersuchen. Da Flusseinzugsgebiete eine natürliche und angemessene Betrachtungseinheit für dieses Problem darstellen, konzentrieren sich die meisten dieser Studien auf mittlere bis große Einzugsgebiete oder auf bestimmte Regionen zusammenhängender Flussgebiete. In Europa gibt es dazu Beispiele aus den frühen neunziger Jahren, als die Resultate der ersten Klimamodelle verfügbar wurden (z.B. Ott et al., 1991: für die Mosel; Kwadijk und van Deursen, 1993: Rhein; Vehviläinen und Huttunen, 1994: Vuoksi; Broadhurst und Naden, 1996: Severn; Bergström, 1996: Einzugsgebiet der Ostsee). Für diese Studien wurden hydrologische Modelle des jeweiligen Einzugsgebiets entwickelt und der Einfluss des Klimawandels auf den Abfluss bestimmt. Krahe und Grabs (1996) haben ein Wasserbilanzmodell mit einer Auflösung von 0.5° x 0.5° für den gesamten mitteleuropäischen Raum entwickelt und es anhandder Abflussdaten des Rheins, der Weser, der Ems, der Elbe und des deutschen Teils der Donau validiert. Arnell (1994, 1999), bzw. Arnell et al. (2000) untersuchten die Auswirkung des Klimawandels auf europäische Wasserressourcen ebenfalls mithilfe rasterbasierter Modellansätze. Schließlich zeigten Stanners und Bourdeau (1995), EEA (1999), Parry (2000), oder auf globaler Ebene WBGU (1999) und IPCC (1992, 2001a, b), in allgemeineren und politisch orientierten Untersuchungen den gegenwärtigen Zustand sowie mögliche zukünftige Entwicklungen der Umwelt in Europa und weltweit auf, einschließlich verschiedener Aspekte der kontinentalen Wasserressourcen und der Hydrologie. Im Vergleich zu den zahlreichen einzugsgebietsorientierten Analysen und ihrem stetig steigenden wissenschaftlichen Anspruch bis hin zu äußerst detaillierten Fragestellungen sind die regionalen oder globalen Ansätze jedoch eher selten und bleiben meist relativ unspezifisch in ihren Schlussfolgerungen. Darüber hinaus wird die Auswirkung der Wassernutzung, die erheblich zur Veränderung der zukünftigen Wasserressourcen und Abflussmengen beitragen kann, in den meisten Fällen aufgrund des Fehlens entsprechender Daten nicht berücksichtigt. In Anbetracht dieser Mängel wurde 1999 am Wissenschaftlichen Zentrum für Umweltsystemforschung an der Universität Kassel das EuroWasser-Projekt initiiert, auf dessen Durchführung die vorliegenden Dissertation beruht. In einem integrierten Modellansatz wurden in EuroWasser die Folgen von Klimawandel und sozioökonomischen Veränderungen auf die natürliche Wasserverfügbarkeit und die Wassernutzung auf gesamteuropäischer Ebene untersucht (siehe Abschlussbericht, Lehner et al., 2001). Das EuroWasser-Projekt versucht dabei drei aus Sicht von Gesellschaft, Ökonomie und Umwelt kritische Fragen zu beantworten: (1) Wie hoch ist der gegenwärtige Wasserstress in verschiedenen Regionen Europas, und welche zukünftigen Veränderungen sind zu erwarten? (2) Wie wird sich der Globale Wandel auf das europäische Wasserkraftpotenzial auswirken? Und (3) In welchen "kritischen Gebieten" Europas muss, basierend auf den Ergebnissen verschiedener Szenarien des Globalen Wandels, damit gerechnet werden, dass die Hochwasser- und Dürregefahr in Zukunft zunimmt, und von welcher Größenordnung sind diese Veränderungen? ...
Die drei Atolle Glovers Reef, Lighthouse Reef und Turneffe Islands vor der belizischen Küste im Karibischen Meer unterscheiden sich in Geomorphologie, Lagunentiefe, Sedimentbeschaffenheit, Mangroven- und Seegrasbewuchs, Wellen- und Strömungseinfluss sowie in ihren Sedimentationsraten und ihrem Entstehungsalter. Um herauszufinden, ob die Bivalven-Vergesellschaftungen verschiedener Lagunenzonen diese Unterschiede widerspiegeln, wurden 32 bis 44 rezente Sedimentproben auf jedem Atoll entnommen (Gesamtprobenzahl: 111). Deren Datensatz von insgesamt 32 122 Bivalvenschalen wurde anschließend Q-Mode-Cluster-Analysen unterzogen. Neben der Verteilung charakteristischer Arten wurde auch die Verteilung von Bivalven unterschiedlicher Lebens- und Ernährungsweise untersucht. Chione cancellata, ein flach grabender Suspensionsfresser, besiedelt bevorzugt (1) flache, wellen- und strömungsbeeinflusste Lagunenzonen. Die Sedimente (2) sehr hoch energetischer Flachwasserbereiche enthalten zudem hohe Anteile tiefer grabender Suspensionsfresser der Gattung Ervilia. Im (3) Rückriffbereich und am Atollrand sind tief grabende, Detritus fressende Telliniden häufig. Gouldia cerina, wie Chione ein flach grabender Suspensionsfresser, ist typisch für (4) geschlossene Flachwasserbereiche, während die Chemosymbionten-tragende, ebenfalls flach grabende Parvilucina sp. A. vorwiegend in (5) geschlossenen, tiefen Lagunenzonen vorkommt. Charakteristisch für (6) Mangrovengebiete ist Crassinella lunulata, ein sehr flach grabender Suspensionsfresser. Die Anteile taphonomischer Signaturen auf den Schalen, wie Bohrspuren, Inkrustationen, Fragmentierung und Abrasion sowie Diversität, Evenness und Richness sind auf Glovers Reef am höchsten und nehmen über Lighthouse Reef nach Turneffe Islands ab. Da in die gleiche Richtung zunehmende Sedimentationsraten auf den drei Atollen zu verzeichnen sind (GISCHLER 2003), ist vermutlich der abnehmende Effekt des Time-averaging für diesen Trend verantwortlich. Neben der rezenten Fauna wurden auch die Bivalven aus Vibrationsbohrkernen (ein Kern von jedem Atoll) untersucht. Die fossilen Bivalven-Vergesellschaftungen der inneren Lagunen von Glovers Reef, Lighthouse Reef und Turneffe Islands zeigen seit deren Entstehung eine für das jeweilige Atoll typische Fauna, die sich seit ~7000 YBP weiter entwickelte. Sie reflektieren damit die bereits im Anfangsstadium charakteristischen Unterschiede der drei Atolle.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
Ca-Silikate als natürliche Einschlüsse in Diamanten sind so extrem selten und bislang wenig untersucht, daß der Weg, sie synthetisch herzustellen, um entsprechende Analysen durchführen zu können, gerechtfertigt wird. Um die Veränderungen über einen großen Druckbereich bis zu Bedingungen, die dem Unteren Erdmantel entsprechen, durchführen zu können, wurde ein neues Hochdrucklabor mit einer Multi-Anvil-Presse aufgebaut. In dieses Labor sind viele Erfahrungen aus eigenen Experimenten und aus anderen Arbeitsgruppen eingeflossen, sodaß eine leistungsfähige Hochdruckanlage zur Verfügung steht. Kernstück dieses Hochdrucksystems ist der innere Hochdruckaufbau, wobei nicht ein bereits etablierter Hochdruckaufbau kopiert, sondern - durch das Integrieren der Vorzüge von unterschiedlichen Systemen - ein eigenständiger Hochdruckaufbau entwickelt wurde. Das System ist für weitere Ausbaumöglichkeiten vorbereitet, sodaß z. B. großvolumige Kapseln zusammen mit den Ceramcast-Oktaedern bis 80 kbar eingesetzt werden können, bzw. der maximale Druckbereich mit einem 10/4 mm Aufbau bis über 200 kbar ausgeweitet werden kann. Die Untersuchung der Reaktionskinetik an den Ca-Silikatphasen stellt eine besondere Herausforderung dar. Aus vorangegangenen Experimenten und Untersuchungen ist die "nicht Quenchbarkeit" von Ca-Perovskit und die Amorphisierung von Ca-Walstromit bekannt, sodaß sich die Untersuchungen mittels der herkömmlichen Hochdruckmethoden für diese Fragestellung als nachteilig erweisen. Dank der Zusammenarbeit mit dem "Material Science Laboratory" am Synchrotron in Daresbury bot sich die Möglichkeit, in situ Hochdruckexperimente an den Ca-Silikatphasen durchzuführen. Es stand nur eine begrenzte Entwicklungszeit zur Verfügung, um die neuartige "fine-to-fine" Geometrie zu entwickeln und zu erproben. Mit diesem Hochdruckaufbau ist es gelungen, in situ Hochdruckexperimente bei bis zu 150 kbar und 1400°C durchzuführen und dabei Ca-Perovskit zu kristallisieren. Mit den kleineren 10mm MgO-Oktaedern und 5 bzw. 4 mm Truncation an den Wolframcarbid-Würfeln sind sogar bei gleicher Geometrie noch höhere Drücke realisierbar. Die Beobachtungen an den durchgeführten Experimente ermöglicht eine Aussage zur Reaktionskinetik der Phasenumwandlung bei Ca-Silikaten. Die Disproportionsreaktion von Ca-Perovskit zu den zwei Phasen Larnit und Si-Titanit läuft sehr rasch ab, wo hingegen die Rekombinationsreaktion dieser beiden Phasen zu Ca-Walstromit kinetisch gehemmt und innerhalb von Stunden keine Umwandlung beobachtet werden konnte. Darüber hinaus bestätigen die eigenen Experimente ein Einsetzen der Amorphisierung von Ca-Perovskit bei Drücken unterhalb von 10 kbar. Eine Amorphisierung von Ca-Walstromit wurde auch nach vollständiger Druckentlastung nicht beobachtet. Werden die Beobachtungen der kinetischen Experimente der Phasenumwandlung an Ca-Silikaten auf die natürlichen Bedingungen bei der Diamantentstehung und deren Aufstiegspfad übertragen, spricht dies für ein Modell des raschen Aufstiegs aus dem Unteren Mantel bzw. der Übergangszone und einem Steckenbleiben im Oberen Mantel bei moderaten Drücken. Der Weg an die Erdoberfläche findet dann zu einem späteren Zeitpunkt ebenfalls mit schnellen Aufstiegsgeschwindigkeiten statt. Die Ergebnisse der Löslichkeits-Hochdruckexperimente von Kalium und Phosphor bestätigen die Beobachtungen, die an den natürlichen Ca-Silikateinschlüssen gemacht wurden. In dem Zweiphasenfeld, in dem Larnit zusammen mit Si-Titanit koexsistiert, hebt sich vor allem die sehr hohe Löslichkeit von Kalium und Phosphor hervor. Zwar wurde bereits in den natürlichen Einschlüssen ein auffallend hoher Gehalt dieser Elemente beobacht, die Experimente zur maximalen Löslichkeit zeigen jedoch, daß sich weitaus höhere Gehalte im Larnit lösen können. Für diese Phase trifft die gekoppelte Substitution von Kalium und Phosphor gegen Calcium und Silicium im Verhältnis 1 : 1 zu. Interessant ist zudem die offenbare Druckhabhängigkeit der Löslichkeit in Larnit. Für eine geobarometrische Anwendung dieses Druckeffekts ist das Stabilitätsfeld mit nur 20 kbar relativ schmal, so daß der Druckgradient gering ist. Die Titanit-Struktur erweist sich im Gegensatz dazu als nicht kompatibel für diese Elemente. In Si-Titanit werden nur extrem geringe Gehalte an Kalium und Phosphor eingebaut. In den natürlichen Einschlüssen wurden gleichermaßen geringe Gehalte nachgewiesen. Damit kann vom Erreichen der maximalen Löslichkeit in den natürlichen Proben ausgegangen werden. Als potentieller Träger von Kalium und Phosphor in der Übergangszone ist die Phase Larnit. Sie kann sehr hohe Gehalte dieser Elemente aufnehmen, mit steigendem Druck nimmt die Löslichkeit jedoch ab. Direkte Messungen der Löslichkeit an Ca-Perovskit liegen bislang nicht vor. Die Experimente an der unteren Stabilitätsgrenze zeigen sehr geringe Gehalte an Kalium und Phosphor. Eine Substitution in dieser sehr dichten Struktur findet nicht statt. Die geringe Löslichkeit in Ca-Perovskit entspricht nicht dem erwarteten Ergebnis. Diese Phase galt bislang als möglicher Träger von Kalium und Phosphor im Unteren Mantel. Wenn davon ausgegangen wird, daß Einschlüsse, in denen Larnit und Si-Titanit nachgewiesen werden, möglicherweise ehemals Ca-Perovskit gewesen sind und damit eine Herkunft aus dem Unteren Mantel haben, so sprechen die hohen Gehalte an Kalium und Phosphor in Larnit gegen diese Annahme. Ein Einschluß, der als Ca-Perovskit im Unteren Mantel kristallisiert ist, kann nicht die großen Mengen an Kalium und Phosphor einbauen, wie sie dann im Larnit als direkte Umwandlungsphase nachgewiesen werden. Möglicherweise sind Einschlüsse, die hohe Gehalte an Kalium und Phosphor zeigen, in dem Zweiphasenstabilitätsfeld Larnit/Si-Titanit kristallisiert, und ein Hinweis darauf, daß sie kein Disproportionsprodukt aus vormaligem Ca-Perovskit sind. Bislang ungeklärt bleibt die Frage, ob mit höherem Druck die Löslichkeit von Kalium und Phosphor in Ca-Perovskit zunimmt. Wenn eine Druckabhängigkeit der Löslichkeit vorliegt, würde dies dafür sprechen, daß die Diamanten mit Ca-Perovskit-Einschlüssen aus dem Unteren Mantel stammen und nicht aus der Übergangszone. Die Annahme der Herkunft dieser speziellen Diamantparagenese aus dem Unteren Mantel wird auch durch das Auftreten von Ferro-Periklas und Stichovit zusammen mit Ca-Perovskit im gleichen Diamantkristall bekräftigt. Zukünftige Experimente bei höheren Drücken könnten die Frage klären, ob bei einer Druckerhöhung eine Zunahme der Löslichkeit in Ca-Perovskit beobachtet wird. Eine beachtliche Zunahme der Löslichkeit mit dem Druck würde das Modell der Herkunft der Ca-Silikateinschlüsse aus dem Unteren Mantel stützen. Die Löslichkeit von Kalium und Phosphor in Ca-Walstromit zeigt sowohl in den natürlichen Einschlüssen als auch in den Experimenten mittlere Gehalte dieser Elemente an. Abweichend von den Beobachtungen in den Einschlüssen ist jedoch der erhöhte Kaliumgehalt, der nicht den erwarteten stöchiometrischen Austausch von 1 : 1 wiedergibt. Untersuchungen an natürlichen Ca-Walstromit als Einschlüsse in Diamanten werden zukünftig von besonderem Interesse sein, da diese Einschlüsse entsprechend häufiger auftreten und als Probenmaterial vorliegen. Weitere Experimente im Ca-Walstromit-Stabilitätsfeld mit unterschiedlichen Gehalten an Spurenelementen und entsprechenden Strukturuntersuchungen können die Frage der Stabilität bzw. der Amorphisierung klären. Ein unmittelbares Amorphisieren von Ca-Walstromit nach der Druckentlastung wird nicht beobachtet und auch die energiereiche Strahlung der Mikrosonde bzw. des Synchrotrons hat keine Amorphisierung zur Folge. Beim Bestrahlen mit der sehr energiereichen Strahlung bei den TEM-Untersuchungen zeigt sich jedoch, daß Ca-Walstromit nicht sehr stabil ist und innerhalb weniger Minuten amorphisiert. Die TEM-Untersuchungen weisen auf mögliche Polymorphe von Ca-Walstromit hin. Wenn sich unterschiedliche Polymorphe nachweisen lassen, ist von abweichenden Löslichkeiten und unter Umständen anderen Einbaumechanismen in den Phasen auszugehen.
One possible approach to study systematically the influence of the deformation regime on the geometry of geological structures like folds and boudins is analogue modelling. For a complete understanding of the resulting structures, consideration of the third dimension is required. This PhD study deals with scaled analogue modelling under constriction and plane-strain conditions to improve our knowledge of folding and boudinage of lower crustal rocks in space and time. Plasticine is an appropriate analogue material for rocks in the lower crust. Therefore, this material was used for the experiments. The macroscopic behaviour of most types of plasticine is quite similar to rocks undergoing strain-rate softening and strain hardening regardless of the different microscopic aspects of deformation. Therefore, if one is aware that the stress exponent and viscosity increase with increasing strain, the original plasticine types used with stress exponents ranging from 5.8 to 8.0 are adequate for modelling geologic structures. The same holds for plasticine/oil mixtures. Thus, plasticine and plasticine/oil mixtures can be used to model the viscous flow of different rock types in the lower crust. If climb-accommodated dislocation creep and associated steady-state flow is assumed for the natural rocks, the plasticine/oil mixtures should be used, which flow under steady-state conditions. Three different experimental studies of plane-strain coaxial deformation of stiff layers, with viscosity η2 and stress exponent n2, embedded in a weak matrix, with viscosity η1 and stress exponent n1, have been carried out. The undeformed samples (matrix plus layer) were cubes with an edge length of 12 cm. All experimental runs have been carried out at T = 25 ± 1°C and varying strain rates ė, ranging from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1, until a finite longitudinal strain of 30% – 40% was achieved. The first experimental study improved the understanding about the evolution of folds and boudins when the layer is oriented perpendicular to the Y-axis of the finite strain ellipsoid. The rock analogues used were Beck’s green plasticine (matrix) and Beck’s black plasticine (competent layer), both of which are strain-rate softening modelling materials with stress exponent n = ca. 8. The effective viscosity η of the matrix plasticine was changed by adding different amounts of oil to the original plasticine. At a strain rate ė of 10 high -3 s high -1 and a finite strain e of 10%, the effective viscosity of the matrix ranges from 1.2 x 10 high 6 to 7.2 x 10 high 6 Pa s. The effective viscosity of the competent layer has been determined as 4.2 x 10 high 7 Pa s. If the viscosity ratio is large (> ca. 20) and the initial thickness of the competent layer is small, both folds and boudins develop simultaneously. Although the growth rate of the folds seems to be higher than the growth rate of the boudins, the wavelength of both structures is approximately the same as is suggested by analytical solutions. A further unexpected, but characteristic, aspect of the deformed competent layer is a significant increase in thickness, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. In the second experimental study, the impact of varying strain rates on growing folds and boudins under plane strain have been investigated. The strain rates used range from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1. The stiff layer and matrix consist of non-linear viscous Kolb grey and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials with power law exponents (n) and apparent viscosities (η) ranging from 6.5 to 7.9 and 8.5 x 10 high 6 to 7.2 x 10 high 6 Pa s, respectively. The effective viscosity (η) of the matrix plasticine was partly modified by adding oil to the original plasticine. At the strain rates used in the experiments the viscosity ratio between layer and matrix ranges between 3 and 10. Different runs have been carried out where the layer was oriented perpendicular to the principal strain axes (X>Y>Z). The results suggest a considerable influence of the strain rate on the geometry of the deformed stiff layer including its thickness. This holds for every type of layer orientation (S ┴ X, S ┴ Y, S ┴ Z). If the stiff layer is oriented perpendicular to the short axis Z of the finite strain ellipsoid, the number of the resulting boudins and the thickness of the stiff layer increase, whereas the length of boudins decreases with increasing strain rate. If the stiff layer is oriented perpendicular to the long axis, X, of the finite strain ellipsoid, enlargement of the strain rate results in increasing wavelength of folds, whereas the number of folds and the degree of thickening of the stiff layer decreased. If the stiff layer is oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid enlargement of the strain rate results in a decreasing number of boudins and folds associated with increasing wavelengths of both structures. The wavelength of folds is approximately half of the boudins wavelength. This is true for the case where folds and boudins develop simultaneously (S ┴ Y) and for cases where both structures develop independently (folds at S ┴ X and boudins at S ┴ Z). In the third experimental study, scaled analogue experiments have been carried out to demonstrate the growth of plane-strain folds and boudins through space and time. Previous 3D-studies are based only on finite deformation structures. Their results can therefore not be used to prove if both structures grew simultaneously or in sequence. Plane strain acted on a single stiff layer that was embedded in a weak matrix, with the layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. Two different experimental runs have been carried out using computer tomography (CT) to analyse the results. The first run was carried out without interruption. During the second run, the deformation was stopped in each case at longitudinal strain increments of 10%. Every experiment was carried out at a temperature T of 25°C and a strain rate, ė, of ca. 4 x 10 high -3 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 18.6 between the non-linear viscous layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine with 150 ml oil kg high -1). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 1.2 x 10 high 6 Pa s and 10.5. These new data that result from incremental analogue modelling corroborate previous suggestions that folds and boudins are coeval structures in cases of plane-strain coaxial deformation with the stiff layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. They will be of interest for all workers who are dealing with plane-strain boudins and folds, where the fold axes are parallel to the major axis (X) of the finite strain ellipsoid. As has been demonstrated by the first experimental study, coeval folding and boudinage under plane strain, with S ┴ Y, are associated with a significant increase in the thickness of the competent layer. The latter phenomenon does not occur in other cases of simultaneous folding and boudinage, such as bulk pure constriction. To study the impact of layer thickness on the geometry of folds and boudins under pure constriction, we carried out additional experiments using different types of plasticine for a stiff layer and a weaker matrix to model folding and boudinaging under pure constriction, with the initially planar layer oriented parallel to the Xaxis of the finite strain ellipsoid. The stiff layer and matrix consist of non-linear viscous Kolb brown and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials. Six runs have been carried out using thicknesses of the stiff layer of 1, 2, 4, 6, 8 and 10 ± 0.2 mm. All experimental runs were carried out at a temperature T of 30 ± 2°C and a strain rate, ė, of ca. 1.1 x 10 high -4 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 3.1 between the stiff layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 7.2 x 10 high 6 Pa s and 7.9. Our results suggest a considerable influence of the initial thickness of the stiff layer on the geometry of the deformed stiff layer. There is no evidence for folding in XY=XZ-sections if the initial thickness of the competent layer is larger than ca. 8 mm. If the initial thickness of the competent layer is set at ca. 10 ± 0.2 mm, both folds and boudins develop simultaneously. However, the growth rate of the boudins seems to be higher than the growth rate of the folds. A further expected, but characteristic, aspect of the deformed competent layer is no change in thickness of the competent layer, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. The model results are important for the analysis and interpretation of deformation structures in rheologically stratified rocks undergoing dislocation creep under bulk constriction. Tectonic settings where constrictional folds and boudins may develop simultaneously are stems of salt diapirs, subduction zones or thermal plumes. To make (paleo) viscosimetric statements possible, the rheological data of the different plasticine types were related to the geometrical data. When comparing the normalized dominant wavelength Wd obtained from the deformed layer of the models with the theoretical dominant wavelength (Ld) calculated using the Smith equation (1977, 1979), the latter probably also holds when folding and boudinage develop simultaneously (S ┴ Y) and when boudins develop independently (S ┴ Z), but can obviously not be applied at very low viscosity ratios as is indicated by the low-strain-rate experiments.
The present work was devised to address the systematic analysis of samples from a range of Roman non-ferrous metal artefacts from different archaeological contexts and sites in the Roman provinces of Germania Superior. One of the focal points of this study is the provenancing of different lead objects from five important Roman settlements between 15 BC and the beginning of fourth century AD. For this purpose, measurements were made on lead and copper ore samples from the Siegerland, Eifel, Hunsrück and Lahn-Dill area in Germany and supplemented with data from the literature to create a data bank of lead isotope ratios of European deposits. Compositional analysis of lead objects by Electron Microprobe analysis showed that Romans were able to purify lead from ore up to 99%. Multi-Collector Inductively Coupled Plasma Mass-Spectrometry was used to determine the source of lead, which played an important role in nearly all aspects of Roman life. Lead isotope ratios were measured for ore samples from German deposits from the eastern side of the Rhine (Siegerland, Lahn-Dill, Ems) and the western side of the Rhine (Eifel, Hunsrück), which contained enough ore reserves to answer the increasing local demand and are believed to have been mined during the Roman period. This data together with those from Mediterranean ore deposits from the literature was used to establish a data bank. The Mediterranean ore deposits range from Cambrian (high 207Pb/206Pb) to tertiary (lower 207Pb/206Pb) values. In particular, the Cypriot deposits are younger, while the Spanish deposits fall either with the younger Sardic ores or close to the older Cypriot ores. The lead isotope ratios of most German ore deposits fall in between the 208Pb/206Pb vs. 207Pb/206Pb ratios of Sardinia and Cyprus, where the lead isotope signature of ore deposits from France and Britain are also found. Over 240 lead objects were measured from Wallendorf (second century BC to first century AD) Dangstetten (15-8 BC), Waldgirmes (AD 1-10), Mainz (AD 1-300), Martberg (first to fourth centuries AD) & Trier (third to fourth centuries AD). Comparing the lead isotope ratios of lead objects and those from German ores shows that the source of over 85 percent of objects are Eifel ore deposits, but the Roman’s had also imported lead from the Southern Massif Central and from Great Britain. A further topic of this work was the systematic study of the variation of copper isotope ratios in different copper minerals and the mechanisms, which controls copper isotope fractionation in ores deposits. For this purpose, copper isotope analyses were made by Multi-Collector Inductively Coupled Plasma Mass-Spectrometry from a series of hydrothermal copper sulphides and their alteration products. Copper and lead isotope ratios were measured in coexisting phases of chalcopyrite and malachite and also coexisting malachite and azurite. No significant fractionation was observed in malachite-azurite phases, but in chalcopyrite-malachite coexisting phases, malachite always shows a positive fractionation to heavier isotope values. Zhu et al. and Larson et al. showed that isotopic variations in copper principally reflect mass fractionation in response to low temperature processes rather than source heterogeneity. The low temperature ore formation processes are mostly represented by weathering of primary sulphide ores to produce secondary carbonate phases and therefore are usually observed on the surface of ore deposits, which were probably removed during the early Bronze Age. Using this concept, copper isotope ratios were measured in some Early Bronze Age copper alloys and Roman copper alloys. However, no large copper isotope fractionation has been observed. Lead and copper isotope ratios were measured on samples from the Kupferschiefer. Two profiles were investigated; 1) Sangerhausen, which was not directly influenced by the oxidizing brines of Rote Fäule and 2) Oberkatz, where both Rote Fäule-controlled and structure-controlled mineralization were observed. Results from maturation studies of organic matter suggest the maximum temperature affecting the Kupferschiefer did not exceed 130°C. delta-65-Cu ranges between -0.78-+0.58‰, shows a positive correlation with copper concentration. Maximum temperature in the Kupferschiefer profile from Oberkatz is supposed to be around 150°C. delta-65Cu in this profile ranges between -0.71-+0.68‰. The pattern of copper isotope fractionation and copper concentration is same as the for profile of Sangerhausen. Origina lead isotope ratios are strongly overprinted by high concentrations of uranium in bottom of both profiles causing more radiogenic lead.
In Ostkreta tritt innerhalb der Phyllit-Quarzit-Serie ein in vier Einheiten untergliederbares präalpidisches Altkristallin auf. Das basale Kalavros-Kristallin (KCC) wurde während der permischen (Monazitalter) Barrow-Metamorphose (Staurolith-Zone) überprägt. Unter amphibolitfaziellen Metamorphosebedingungen bildeten sich liegende Isoklinalfalten sowie eine mylonitische Foliation. Die Verteilung der -c-Achsen von Quarzen belegt non-koaxiale Deformation durch Rhomben<a>- und Prismen<a>Gleitung, die sich in einer hochtemperierten Grenzflächenwanderung (GBM) äußerte. Zudem wuchsen vierphasige Granate, in denen die äußerste Zone auf einen nochmaligen Druckanstieg hindeutet. Die Granate wurden wiederum von Muskoviten, die aus einer Deformation mit Top-E- bis Top-NE-Scherung resultierten, überwachsen. Das überlagernde Myrsini-Kristallin (MCC) besteht aus Glimmerschiefern, Gneisen, Quarziten und Marmoren. Die Liefergebiete der Paragesteine (Zirkonaltersspektrum eines Paragneises) weisen Einflüsse der amazonischen- (2,8 Ga), eburnischen- (1,9 Ga), kibaran/sunsasischen- (0,9 - 1,1 Ga) und panafrikanischen- (0,9 - 0,5 Ga) Orogenese auf. Im Mittelkambrium intrudierten Granite in die sedimentären/kristallinen Gesteine (514 ±14 Ma zrn & 507 ±189 Ma mnz). Während des Unterkarbons (Monazitalter) fand eine Barrow-Metamorphose (Staurolith-Zone) mit non-koaxialer Top-N-Scherung statt. Hierbei bildeten sich geschlossene, liegende Falten sowie eine mylonitische Foliation. Die Quarz-c-Achsen belegen non-koaxiale Rhomben<a>- bis Prismen<a>Gleitung, die sich in Subkornrotations-Rekristallisation (SGR) und hochtemperierter Korngrenzwanderungs-Rekristallisation (GBM) äußerte. Im Gegensatz zu den Granaten des KCC bildeten sich nur dreiphasige Granate. Während des retrograden variszischen Deformationspfades entstanden Top-NE-Scherzonen. Der bis in die Unterkreide anhaltende Aufstieg der Gesteine wird von Zirkon-Spaltspurenaltern (150 ±14 Ma) dokumentiert. Das hangende Chamezí-Kristallin (CCC) besteht aus Gneisen und Glimmerschiefern. Auch hier intrudierten im Mittelkambrium (S-Typ-)Granite (511 ±16 Ma zrn & 521 ±28 Ma mnz). Relikte einer prävariszischen Orogenese stellen die Granatkerne und Margarite in den Glimmerschiefern dar. Das Alter der Barrow-Metamorphose (Granat-Zone) mit Top-N-Scherung konnte mangels geeigneter Minerale nicht bestimmt werden. Die Verteilung der Quarz-c-Achsen resultiert aus einer non-koaxialen Deformation bei der überwiegend Basis<a>- und Rhomben<a>Gleitung mit Subkornrotations-Rekristallisation (SGR) auftrat. Es bildete sich eine protomylonitische Foliation sowie liegende offene N-S Falten, die anschließend mehrphasig überprägt wurden. Für einen langsamen Aufstieg der Gesteine sprechen die semiduktilen Top-NE-Scherzonen und jurassischen Zirkon-Spaltspurenalter (158 ±16 Ma). Eine unbekannte Position innerhalb des Altkristallins nimmt das Vaí-Kristallin (VCC) ein. Während der Trias intrudierten hier granitoide Gesteine (223 ±11Ma zrn). Eine spätere amphibolitfazielle Überprägung zeigt Top-NW-Scherung. Der schnelle Aufstieg der Gesteine wird durch jurassische Zirkon-Spaltspurenalter dokumentiert (184 ±11 Ma). Die Kristallingerölle der hangenden skythischen Metakalkkonglomerate können auf Grund der permischen bis triassischen Metamorphose der kretischen Altkristalline, der triassischen Intrusion der Granite des Vaí-Kristallins sowie den jurassischen Zirkon-Spaltspurenaltern nicht aus der unterlagernden Altkristallin-Einheit stammen. Der Kontakt zwischen dem Altkristallin und dem Metakalkkonglomerat ist somit das Ergebnis der alpidischen Orogenese. Auch die Zirkone, Monazite und Rutile wurden von der Niedertemperatur/Hochdruck-Metamorphose der alpidischen Orogenese beeinflusst. Vor allem die Zirkone des Chamezí-Orthogneises zeigen einen Pb- und vermutlich auch einen U-Verlust sowie einen Austausch von radiogenem Pb durch rezentes Pb. Dieser niedergradige Fluidtransport äußerte sich zudem in einem Lösen der Zirkone sowie einer zerstörten Zirkonstruktur. Gleichzeitig fand ein Einbau von Ca2+, Mn2+ und Mg2+ statt, der von den Ca-reichen Fluiden, die auf Grund der Karbonat-reichen Deckenstapel auftraten, forciert wurde. Keinen Einfluss auf den Blei-Verlust der Zirkone zeigt dagegen die amphibolit- bis grünschieferfazielle präalpidische Überprägung. Auf Grund der Altersspektren der Zirkone sowie der tektonischen Transportrichtungen werden die Kristallinkomplexe als Fragmente von Gondwana interpretiert. Im Rahmen der spät-panafrikanischen Metamorphose und Deformation erfolgte der Aufstieg der Plutonite, an die sich eine Riftingphase anschließt, während der sich die Fragmente abspalteten. Im Karbon bis Perm kollidierten unter Top-N-Kinematik das MCC, CCC und KCC mit Gondwana. In der Trias erfolgte letztlich der Aufstieg der Plutonite des VCC und dessen anschließende Überprägung. Die Heraushebung der Gesteine erfolgte im Jura.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
This is a short movie about the research project No. 297 41 132 of the German Federal Environmental Agency. It is comissioned by the German Ministry for the Environment, Nature Conservation and Nuclear Safety and the German Federal Environmental Agency, Division II 6.2.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Die Induzierte Polarisation (IP) ist ein geoelektrisches Verfahren und wurde ursprünglich zur Exploration von Erzvorkommen entwickelt. Neben metallischen Leitern, tragen auch Tonminerale, der Porenraum und die chemische Zusammensetzung der Porenlösung zur Polarisierbarkeit eines Unter-grundes bei. Die spektrale Induzierte Polarisation (SIP) untersucht die Polarisierbarkeit in einem Frequenzbereich von 1 mHz bis 1 kHz und nutzt diese aufgezeichneten Spektren zur Unterscheidung von Materialien. Früher mit einem enormen messtechnischen Aufwand verbunden, führte der gerätetechnische Fort-schritt in den letzten beiden Jahrzehnten dazu, dass die SIP vermehrt in der Umweltgeophysik zum Einsatz kommt. Zu den Fragestellungen gehören die Detektion von Altlasten und der Grundwasser-schutz. In der Archäologie ist die Induzierte Polarisation bislang ein kaum verwendetes Verfahren. Im Rahmen des Graduiertenkollegs „Archäologische Analytik“ der J. W. Goethe- Universität wurde die Entwicklung einer Multielektroden-Apparatur SIP-256 begonnen. Ziel der vorliegenden Arbeit war die Fortführung dieser Entwicklung. Da sich die wissenschaftliche Fragestellung während dieser Promotion auf die Erkundung archäologischer Objekte beschränkt, galt es zunächst automatisierte Messabläufe zu realisieren, die es erlauben, die komplexe elektrische Leitfähigkeit kleinräumiger 2D- bzw. 3D-Strukturen zu erfassen. Die Verwendung der SIP-256 führte zu einer erheblichen Ver-kürzung der Messzeit und war entscheidend für die Realisierung dieser Arbeit. Den zweiten Schwerpunkt der Arbeit bildet die Suche nach Anwendungsgebieten für die SIP innerhalb der archäologischen Prospektion. Basierend auf den Ursachen von Polarisationseffekten werden im Rahmen dieser Arbeit drei Anwendungsgebiete vorgestellt. Das erste Anwendungsgebiet nutzt die Vorteile der SIP bei der Prospektion von Erzen. Auf einem mittelalterlicher Verhüttungsplatz bei Seesen am Harz konnten im Vergleich zu einer konventionellen Widerstandsmessung mehr Schlackegruben lokalisiert werden. Während einer deutsch-bulgarischen Grabungskampagne in Pliska (Bulgarien) 1999 gelang es, durch eine flächenhafte Anwendung der IP einen Siedlungshorizont über Lehmablagerungen nachzuweisen. Die Überreste eines Gebäudes erzeugten einen messbaren Polarisationseffekt. Die frühmittelalterlichen Siedlungsreste befinden sich mit 2 bis 3 m in relativ großer Tiefe und konnten bei einer anschließenden Ausgrabung freigelegt werden. Eine Kernfrage war, ob Holzobjekte mit Hilfe der SIP zu detektieren sind. Mit Hilfe von Labormessungen an der TU Clausthal konnte geklärt werden, dass Holz ein polarisierbares Material ist. Zu den untersuchten Proben gehören Hölzer aus einem bronzezeitlichen Bohlenweg, die von Ausgrabungen im Federseemoor (Kreis Biberach) stammen. Durch die Untersuchungen im Labor motiviert, folgte eine Feldmessung über dem Bohlenweg. Es gelang, erstmals ein Holzobjekt mit spektraler Induzierter Polarisation zu detektieren. Holz spielt durch die dendrochronologische Datierung von Fundstellen eine wichtige Rolle, konnte aber bislang noch mit keiner geophysikalischen Methode zufriedenstellend prospektiert werden. Abschließend kann gesagt werden, dass sich die spektrale Induzierte Polarisation als wertvolle Methode in der archäologischen Prospektion etablierte. Strukturen, welche mit einer konventionellen Widerstandsmessung nicht zu erkennen waren, konnten durch die SIP eindeutig identifiziert werden. Natürlich müssen die vorliegenden Ergebnisse noch durch weitere Messungen bestätigt werden, jedoch zeichnet sich ab, dass sich mit der fortschreitenden gerätetechnischen Entwicklung, welche zu schnelleren Messabläufen führt, wichtige Zusatzinformationen durch die spektrale Induzierte Polarisation gewinnen lassen.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Chlorine monoxide (ClO) plays a key role in stratospheric ozone loss processes at midlatitudes. We present two balloonborne in situ measurements of ClO conducted in northern hemisphere midlatitudes during the period of the maximum of total inorganic chlorine loading in the atmosphere. Both ClO measurements were conducted on board the TRIPLE balloon payload, launched in November 1996 in Le´on, Spain, and in May 1999 in Aire sur l’Adour, France. For both flights a ClO daylight and night time vertical profile could be derived over an altitude range of approximately 15–31 km. ClO mixing ratios are compared to model simulations performed with the photochemical box model version of the Chemical Lagrangian Model of the Stratosphere (CLaMS). Simulations along 24-h backward trajectories were performed to study the diurnal variation of ClO in the midlatitude lower stratosphere. Model simulations for the flight launched in Aire sur l’Adour 1999 show a good agreement with the ClO measurements. For the flight launched in Le´on 1996, a similar good agreement is found, except at around ~ 650 K potential temperature (~26km altitude). However, a tendency is found that for solar zenith angles greater than 86°–87° the simulated ClO mixing ratios substantially overestimate measured ClO by approximately a factor of 2.5 or more for both flights. Therefore we conclude that no indication can be deduced from the presented ClO measurements that substantial uncertainties exist in midlatitude chlorine chemistry of the stratosphere. An exception is the situation at solar zenith angles greater than 86°–87° where model simulations substantial overestimate ClO observations.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Wenn sich beim Klimagipfel in Den Haag [genauer bei der nun schon 6. Vertragstaatenkonferenz zur Klimaschutzkonvention der Vereinten Nationen] nun wieder die Delegationen aus fast allen Staaten der Welt treffen, um über Klimaschutzmaßnahmen zu beraten, dann schwingt auch immer die Frage mit: Sind solche Maßnahmen wirklich notwendig? Sollen wir nicht einfach warten, bis wir mehr, ja vielleicht alles wissen? ...
Die Zunahme der Konzentration von CO2 und anderen "Treibhausgasen" in der Atmosphäre ist unzweifelhaft, und ebenso unzweifelhaft reagiert das Klima darauf. Christian-Dietrich Schönwiese, Professor für Meteorologische Umweltforschung und Klimatologie an der Universität Frankfurt am Main, sieht dringenden politischen Handlungsbedarf und plädiert gleichzeitig dafür, die Debatte rund um den Klimaschutz zu versachlichen.
Die öffentliche Klimadebatte scheint sich zu verselbständigen. Abgehoben von den Erkenntnissen der Fachwissenschaftler reden die einen von der "Klimakatastrophe", die uns demnächst mit voller Wucht treffen wird, wenn wir nicht sofort alles ganz anders machen; Panik ist ihnen das rechte Mittel, Aufmerksamkeit zu erregen. Die anderen sehen im "Klimaschwindel" einen Vorwand für Forschungsgelder und zusätzliche Steuerbelastung der Wirtschaft; ihre Strategie ist Verwirrung und Verharmlosung. Mit der Fixierung auf solche Extrempositionen werden wir den Herausforderungen der Zukunft sicherlich nicht gerecht. Höchste Zeit für eine Versachlichung und für einen klärenden Beitrag zum Verwirrspiel "Klima".
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
Excitation functions for quasi-elastic scattering have been measured at backward angles for the systems 32,34S+197Au and 32,34S+208Pb for energies spanning the Coulomb barrier. Representative distributions, sensitive to the low energy part of the fusion barrier distribution, have been extracted from the data. For the fusion reactions of 32,34S with 197Au couplings related to the nuclear structure of 197Au appear to be dominant in shaping the low energy part of the barrier distibution. For the system 32S+208Pb the barrier distribution is broader and extends further to lower energies, than in the case of 34S+208Pb. This is consistent with the interpretation that the neutron pick-up channels are energetically more favoured in the 32S induced reaction and therefore couple more strongly to the relative motion. It may also be due to the increased collectivity of 32S, when compared with 34S.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies an develop into learning economies which are based on intra-regional production linkages, interactive technological learning processes, flexibility and proximity (Storper, 1992; Lundvall and Johnson, 1994; Gregersen and Johnson, 1997). In the next section of this paper, I will discuss some of the theoretical issues regarding localized learning processes, learning economies and learning regions (see, also, Bathelt, 1999). I will then describe the methodology used. What follows is a brief overview of how Boston s economy has specialized in high technology production. The main part of the paper will then focus on recent trends in Boston s high technology industries. It will be shown that the high technology economy consists of different subsectors which are not tied to a single technological development path. The various subsectors are, at least partially, dependent on different forces and unrelated processes. There is, however, tentative evidence which suggests that cooperative behavior and collective learning in supplierproducer- user relations have become important factors in securing reproductivity in the regional structure. The importance of these trends will be discussed in the conclusions.
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Obwohl Böden unzweifelhaft ein signifikanter Pool von organischem Kohlenstoff sind, ist ihre Bedeutung als potenzielle langfristige Senke für atmosphärischen Kohlenstoff keineswegs klar. Trotz bedeutender wissenschaftlicher Forschritte aus den letzten Jahren zur Klärung der Kohlenstoffdynamik in Böden gibt es nach wie vor offene Fragen insbesondere hinsichtlich der spezifischen geochemischen Mechanismen, die für die Stabilisierung organischen Kohlenstoffs in Böden verantwortlich sind. Vor diesem Hintergrund besteht ein wesentliches Ziel der vorliegenden Dissertation darin, in unterschiedlichen Bodentypen die Konzentration von organischem Kohlenstoff und Stickstoff sowie die mineralogische Zusammensetzung zu untersuchen, um Hinweise auf einen möglichen Einfluss der Tonmineralogie, der spezifischen Oberfläche und der Oxidkonzentration auf die Stabilisierung organischen Materials zu ermitteln. Die Ergebnisse sollen einen Beitrag dazu liefern, die Mechanismen der Fixierung organischer Substanz in Böden besser zu verstehen und das vorhandene Wissen hierüber zu erweitern. Hierzu wurden fünf verschiedene Bodenprofile aus Hessen mit unterschiedlicher mineralogischer Zusammensetzung untersucht. Um die Auswirkungen verschiedener physikalischer und geochemischer Faktoren auf den Gehalt organischer Substanz in den untersuchten Böden festzustellen, wurden folgende Parameter untersucht: -Tonmineralogie, -organische Kohlenstoff- und Stickstoff-Konzentrationen, -%-Kationensättigung, -spezifische Oberfläche, -dithionit- und oxalatlösliche Gehalte an Fe, Al und Mn. Anhand dieser Parameter wurden weiterführende statistische Analysen unter Verwendung der Statistiksoftware SPSS für Windows durchgeführt, um mögliche statistische Zusammenhänge aufzudecken, die für die Stabilisierung von organischem Kohlenstoff in den betrachteten Böden verantwortlich sind. Die im Rahmen der vorliegenden Dissertation ermittelten Ergebnisse zeigen, dass der Tonanteil und die Tonmineralogie der untersuchten Böden nur einen begrenzten Einfluss auf die Stabilisierung organischer Substanz haben. Weiterhin wird gezeigt, dass die in der Literatur propagierte Beziehung zwischen spezifischer Oberfläche und der Konzentration organischen Kohlenstoffs nicht auf alle Böden anwendbar ist. Die Ergebnisse deuten darauf hin, dass die Präsenz von amorphen Eisen- und Aluminiumoxiden der wichtigste Einflussfaktor für die Fixierung von organischem Material in den untersuchten Böden ist. Die größeren Konzentrationen von organischem Kohlenstoff in den kleinsten Fraktionen (Feinschluff und Ton) der Profile sind vor allem darauf zurückzuführen, dass Oxide ebenfalls in diesen Fraktionen aufzufinden sind. Tonminerale haben demnach eine sekundäre Bedeutung, indem sie Komplexe mit den Oxiden bilden, die zur Stabilisierung von organischer Substanz führen können. Insgesamt deuten die Ergebnisse daraufhin, dass Böden keine geeignete Senke für die langfristige Speicherung von organischem Kohlenstoff sind. Obwohl Mechanismen wie die Adsorption von organischer Substanz an Oxide die Stabilisierung organischen Materials unterstützen, scheinen diese nicht stark genug zu sein, um eine permanente Speicherung von organischem Kohlenstoff zu bewirken.
Zur Erkundung der Depotfunktion von quellfähigen Tonmineralen für organische Umweltchemikalien und der möglichen Verdrängung dieser Chemikalien durch biogene Tenside wurden kinetische Untersuchungen mit Hilfe von Batch-Experimenten durchgeführt. Dabei wurde zunächst das Adsorptions- und Desorptionsverhalten von ausgesuchten Umweltchemikalien an mineralische Festphasen und danach die Verdrängung dieser Chemikalien durch biogene Tenside untersucht. Als Umweltchemikalien dienten in den Experimenten Di-(n-butyl)phthalat (DBP) und Di-(2-ethylhexyl)phthalat (DEHP), die in industriellem Maßstab hauptsächlich als Weichmacher in Kunststoffen verwendet werden und fünf ausgewählte polycyclische aromatische Kohlenwasserstoffe (PAK), die bei pyrolytischen Prozessen sowie der unvollständigen Verbrennung organischen Materials entstehen. In den durchgeführten Versuchsreihen dienten ein smektitreicher Bentonit, Quarzsand und Gemische aus diesen beiden Stoffen mit verschiedenen Gewichtsanteilen der Bentonit- und Sandphase sowie Seesand als Adsorbermedium für die Umweltchemikalien. Diese Variationen sollten das unterschiedliche Verhalten der verschiedenen Festphasen bezüglich der drei untersuchten Prozesse (Adsorption, Desorption und Austausch) mit den Chemikalien verdeutlichen. Untersuchungen am verwendeten Bentonit ergaben, daß sein Hauptbestandteil ein Calcium- Montmorillonit war. Der Montmorillonit ist ein quellfähiges, dioktaedrisches Tonmineral aus der Gruppe der Smektite. Die Quellfähigkeit dieses Smektits wurde in Quellversuchen mit Ethylenglykol und Glycerin mittels Röntgendiffraktometrie festgestellt. Die chemische Zusammensetzung des Minerals wurde mit Röntgenfluoreszenzmessungen analysiert. Mit dem Greene-Kelly-Test wurde der Montmorillonit als smektitischer Anteil im Bentonit identifiziert. Im Laufe einer jeden Versuchsreihe sind nacheinander drei Prozesse mit jeder Probe im Labor untersucht worden: 1. Adsorption von Umweltchemikalien (Phthalate und PAK) an Sandproben mit unterschiedlichen Tongehalten und an reinen Tonproben. 2. Desorption der adsorbierten Umweltchemikalien aus den Sand/Ton-Gemischen und Tonproben in vier Schritten. 3. Austausch dieser Chemikalien aus den Sand/Ton-Gemischen und Tonproben gegen biogene Tenside. Im ersten Schritt der Batch-Experimente wurden die beiden Phthalate bzw. die PAK (Naphthalin, Acenaphthen, Fluoren, Phenanthren und Fluoranthen) aus einer wässrigen Lösung an die mineralischen Festphasen adsorbiert. Die Phthalate wurden in einem 1:1 Verhältnis in den Experimenten eingesetzt, die fünf PAK als ein Gemisch oder auch einzeln. Für die PAKAdsorption wurde auch eine Wasser-Aceton-Mischung beim Adsorptionsversuch verwendet, da sich dadurch ihre Löslichkeit erheblich verbessern ließ und die kinetischen Reihenversuche bezüglich der Gleichgewichtseinstellung wesentlich gleichmäßiger verliefen. Die Proben wurden 20 Stunden lang bis zur Einstellung des Gleichgewichts im Überkopfmischer geschüttelt. Die festen Phasen wurden danach von den wässrigen Phasen getrennt und zur Ermittlung der Einstellung des Desorptionsgleichgewichts weiterverwendet. Die wässrigen Phasen wurden mit organischen Lösemitteln extrahiert und der Gehalt an Umweltchemikalien gaschromatographisch quantifiziert. Die verbliebenen Festphasen wurden jeweils viermal mit frischem, destilliertem Wasser 20 Stunden lang zur Ermittlung des Gleichgewichts der Desorption geschüttelt, wobei nach Abtrennung der wässrigen Phasen diese auf ihren Organikgehalt hin wie oben beschrieben untersucht wurden. An diese vier Desorptionsschritte schloß sich das Verdrängungsexperiment einer Versuchsreihe an. Hierbei wurden verseifte, langkettige biogene Tenside (Alkoholate und Carbonsäuresalze mit geradzahliger Anzahl der Kohlenstoffatome) zu jeder Probe hinzugegeben und jede Festphase nochmals mit frischem Wasser im Überkopfmischer geschüttelt. In diesem Schritt sollte überprüft werden, ob die in den Festphasen verbliebenen Phthalate und PAK durch Zugabe von biogenen Tensiden in höherem Maße in der wässrigen Phase wiedergefunden werden als dies aus dem jeweiligen Desorptionsgleichgewicht zu erwarten war. Mit den Ergebnissen konnten Adsorptionsisothermen (nur für Phthalate) aufgenommen und Angaben zur Einstellung des Desorptionsgleichgewichts oder dessen Störung nach Austauschexperimenten gemacht werden. Die Auswertung der Adsorptionsexperimente ergab, daß Festphasen mit Bentonitanteil befähigt sind, einen höheren Anteil an Phthalaten und PAK zu adsorbieren als reine Sandproben. Bei kleinen Phthalatkonzentrationen wurde DEHP aufgrund einer stärkeren Affinität zur Festphase besser adsorbiert als DBP. Stiegen die Phthalatzugaben, so wurde DBP in höherem Maße als DEHP adsorbiert. Dies wurde durch eine bessere Einlagerung der DBP-Moleküle in die innerkristallinen Zwischenschichten des Montmorillonit-Minerals ermöglicht (Interkalation). Röntgenographisch wurde ein deutlich vergrößerter Wert für den Schichtabstand im Montmorillonit nachgewiesen als im ursprünglichem Zustand (bis zu 18 Å gegenüber 15,3 Å). Die Desorptionsisothermen zeigten für Festphasen mit Quarzsandanteilen häufig ein ungleichmäßiges Verhalten. So wurde häufig im zweiten und dritten Desorptionsschritt eine unerwartet hohe Menge an Phthalaten in der wässrigen Lösung gefunden. Reine Bentonitproben zeigten dagegen eine gleichmäßige Konzentrationsabnahme der Phthalate nach jedem Desorptionsschritt. Der eingesetzte Bentonit war in der Lage, Phthalate stärker von der Desorption zurückzuhalten als Quarzsand. Die Einstellung des Desorptionsgleichgewichts erfolgte mit reinem Bentonit schneller als bei Sandproben oder Sand-Bentonit Gemischen. Bei Austauschexperimenten, in denen die ursprünglich eingesetzte Menge an Phthalaten unter 1 mg lag, wurden keine Verdrängungsprozesse festgestellt. Stiegen die Konzentrationen der Phthalate (bis zu ca. 200 mg), so kam es aufgrund der größeren Oberflächenbelegung im Montmorillonit zu Verdrängungsprozessen der Phthalate durch biogene Tenside. Die Extraktion der wässrigen Lösung ergab nach dem Austauschexperiment eine höhere Menge an Phthalaten als es aus dem Desorptionsexperimenten erwartet worden war. Insgesamt wurde mehr DBP als DEHP nach den Austauschexperimenten in der wässrigen Lösung gefunden. Da DBP besser als DEHP in die Zwischenschichten des Montmorillonits eingebaut wurde, konnte auch diese Feststellung damit erklärt werden, daß biogene Tenside die Phthalate aus den innerkristallinen Zwischenschichten verdrängen. Bei PAK wurden Verdrängungsprozesse nur im Falle von Phenanthren festgestellt. Bei anderen in den Experimenten eingesetzten PAK (vorwiegend Naphthalin, Acenaphthen und Fluoren) war offenbar der Dampfdruck so groß, daß vor dem Austauschexperiment nicht mehr genügend organisches Material in der Bodenprobe adsorbiert war. Bei parallel durchgeführten Versuchen mit reinem Quarzsand und mit Seesand als Festphase wurde dagegen weder bei Phthalaten noch PAK eine wesentliche Störung des Desorptionsgleichgewichts in der Größenordnung der bentonithaltigen Proben nach dem Verdrängungsexperiment festgestellt. Dies ist ein Hinweis darauf, daß Verdrängungsprozesse bevorzugt auf Oberflächen von Tonmineralen stattfinden. Insgesamt konnte mit dieser Arbeit gezeigt werden, daß Gleichgewichtseinstellungen von Umweltchemikalien an Tonmineralen durch biogene Tenside gestört werden können. Durch die Einwirkung der biogenen Tenside kommt es zu einer verstärkten Desorption der Umweltchemikalien aus den Tonmineralen.
The focus of this study were Celtic gold coins excavated from the Martberg, a Celtic oppidium and sanctuary, occupied in the first century B.C. by a Celtic tribe known as the Treveri. These coins and a number of associated coinages, were characterised in terms of their alloy compositions and their geochemical and isotopic signatures so as to answer archaeological and numismatic questions of coinage development and metal sources. This required the development of analytical methods involving; Electron Microprobe (EPMA), Laser Ablation-ICP-MS, solution Multicollector-ICPMS and LA-MC-ICP-MS. The alloy compositions (Au-Ag-Cu-Sn) were determined by EPMA on a small polished area on the edge of the coins. A large beam size, 50µm (diameter), was used to overcome the extreme heterogeneity of these alloys. These analyses were shown to be representative of the bulk composition of the coins. The metallurgical development of the coinages was defined and showed that the earlier coinages followed a debasement trend, which was superceded by a trend of increasing copper at the expense of sliver while gold compositions remained stable. This change occurred with the appearance of the inscribed "POTTINA" coinage, Scheers 30/V. Two typologically different coinages, Scheers 16 and 18 ("Armorican Types") were found to have markedly different compositions which do not fit into the trends described above. A Flan for a gold coin, which may indicate the presence of a mint at the Martberg, was found to have an identicle weight and composition as the Scheers 30/I coins, which preceeded the majority of the coins found at the Martberg in the coin development chronology. The trace element anaylses were made by Laser Ablation-ICPMS using an AridusTM desolvating nebuliser to introduce matrix matched solution standards to calibrate the measurements, which were then normalised to 100%. Quantitative results were obtained for the following elements: Sc, Ti, Cr, Mn, Co, Ni, Cu, Zn, Se, Ru, Rh, Pd, Ag, Sb, Te, W, Ir, Pt, Pb, Bi. The remaining elements remain problematic as they produced incorrect standardisations mainly due to chemical effects in solution such as adsorption onto the beaker walls or oxidation : V, Fe, Ga, Ge, As, Mo, Sn, Re, Os, Hg. Changes in the sources of Au, Ag and Cu were observed during the development of the coinages through the variation of trace elements, which correlate positively with the major components of the coin alloys. Changes in the Pt/Au ratios show that the Scheers 23 coins contain distinctly different gold from the later coinages and that the Scheers 18 gold source was also different. Te/Ag was used to show that the Sch.23 coins also contained different silver and some subgroups were observed in the Sch. 30/V coins. A major change in copper source is indicated by the sudden increase of Sb and Ni with the introduction of the Sch. 30/V coins (POTTINA), which can be linked to a similar change in copper observed in the contemporary silver coinage, Sch. 55 (with a ring). Lead isotopic analyses were made by solution- and Laser Ablation - MC-ICP-MS, The laser technique proved to be in good agreement with the solution analyses with precisions between 1 and 0.1%o (per mil). The development of the laser method opens the way for easy and virtually non-destructive Pb isotopic determinations of ancient gold coins. The results showed that Sch. 23 is very different from the following coinages, Sch. 16 and 18 are also different, forming their own group, and all the later "Eye" staters (Sch. 30/I-VI) lie on a mixing line controlled by the addition of copper from a Mediterranean source, probably Sardinia or Spain. An indication of gold and silver sources should be possible with further analyses of the Sch. 23 and Rainbow Cup gold coins and the Sch. 54 and 55 silver coinages. Copper Isotopic analyses were made by solution- and Laser Ablation - MC-ICP-MS. Both techniques require further development to produce more reproducible results. The results show that there appears to be a trend to more positive d Cu65 values for the later coinages and that the link between the copper used in the Sch. 30/V (POTTINA) coins and the silver Sch. 55 (with a ring) coins is also shown by similarly postive d Cu65 values. The full suite of analyses were also made on samples of gold from the region. They were mostly composed of "placer gold", alluvial gold found in rivers. It was found that when a study is restricted to a limited number of deposits or areas then it is possible to distinguish between deposits based on the concentration of those elements which are least affected by transport related alteration processes. These elements include; the PGE's, due to their refractory nature, and those elements which are usually present in high enough concentrations to remain relatively unaffected, eg: Cu, Pb and Sb. Due to the nature of the coin alloy it is not possible to link the gold used in the coins studied here with gold deposits, as the large amounts of Ag and Cu, added to the coin alloys, have masked the Au signature. However, further Pb isotopic analyses of gold deposits should prove useful in determining from which regions Celtic gold was derived.
In dieser Arbeit wurde der chemische Ozonverlust in der arktischen Stratosphäre über elf Jahre hinweg, zwischen 1991 und 2002, mit Hilfe der so genannten "Ozon-Tracer Korrelationstechnik" (TRAC), untersucht. Bei dieser Methode werden Korrelationen zwischen Ozon und langlebigen Spurenstoffen im Verlauf des Winters im Polarwirbels beobachtet und so der jährliche akkumulierte Ozonverlust berechnet. Die Ergebnisse dieser Arbeit basieren im wesentlichen auf Messdaten der Satelliteninstrumente: HALOE (Halogen Occultation Experiment) auf UARS (Upper Atmosphere Research Satellite) und ILAS (Improved Limb Atmospheric Spectrometer) Instrument auf ADEOS (Advanced Earth Observing Satellite). Das HALOE Instrument misst seit Oktober 1991 kontinuierlich alle zwei bis drei Monate für einige Tage in höheren nördlichen Breiten. ILAS lieferte ausschließlich für den Winter 1996-97 Messungen, die über sieben Monate hinweg in hohen Breiten aufgenommen wurden. Aufgrund der eingeführten Erweiterungen und Verbesserungen der Methode in dieser Arbeit, konnte die Methode anhand einer detaillierten Studie für den Winter 1996-97 validiert werden. Die ILAS Messreihe wurde dazu verwendet, erstmals die Untersuchung der zeitlichen Entwicklung von Ozon-Tracer Korrelationen kontinuierlich für die gesamte Lebensdauer des Polarwirbels durchzuführen. Dabei wurden auch Korrelationen während der Bildung des Wirbels untersucht und im Besonderen mögliche Mischungsvorgänge zwischen Wirbelluft und Luftmassen außerhalb des Wirbels. Ausserdem wurde ein Vergleich der Ergebnisse von ILAS und HALOE Messdaten durchgeführt und Unterschiede in den Ergebnissen tiefgreifend analysiert. Basierend auf HALOE Messungen konnte die erweiterte TRAC Methode über elf Jahren hinweg angewendet werden. Damit war erstmals eine konsistente Analyse von Ozonverlust und Chloraktivierung über diesen Zeitraum möglich. Die Erweiterungen führten zu einer Verringerung und genauen Quantifizierung von Unsicherheiten der Ergebnisse. Ein deutlicher Zusammenhang zwischen meteorologischen Bedingungen, Chloraktivierung und dem chemischen Ozonverlust wurde deutlich. Weiterhin zeigte sich eine Abhängigkeit zwischen den meteorologischen Bedingungen und der Homogenität des Ozonverlustes innerhalb eines Winters, sowie der mögliche Einfluss von horizontaler Mischung auf Luftmassen in einem schwach ausgeprägten Polarwirbel. In dieser Arbeit wurde eine positive Korrelation zwischen den über die gesamte Lebensdauer des Wirbels auftretenden möglichen PSC-Flächen und den akkumulierten Ozonverlusten für die elf untersuchten Jahre deutlich. Es konnte darüber hinaus gezeigt werden, dass der Ozonverlust von deutlich mehr Einflüssen als nur von der Fläche möglichen PSC Auftretens bestimmt wird, sondern zum Beispiel von der Stärke der Sonneneinstrahlung abhängt. Außerdem lassen sich Auswirkungen von Vulkanausbrüchen, wie zum Beispiel im Jahr 1991 der des Mount Pinatubo, identifizieren.
Der 300 km breite Eucla Schelf Südaustraliens gehört zu den weltgrößten modernen nicht-tropischen Ablagerungssystemen. Während des Pleistozäns wurde hier ein etwa 500 m mächtiger pleistozäner Sedimentstapel abgelagert, der sich aus progradierenden Klinoformen zusammensetzt. Die Ocean Drilling Program Sites 1127, 1129 und 1131 bilden ein proximal-distal Profil entlang des Eucla Shelfs-Kontinentalhangs. Die dabei erbohrten pleistozänen Periplattform-Ablagerungen bestehen überwiegend aus bioklastenreichen, fein- bis grobkörnigen, unlithifizierten bis teilweise lithifizierten Pack-, Wacke- und Grainstones. Eine ausgeprägte sedimentäre Zyklizität der analysierten Ablagerungen drückt sich in Fluktuationen der Korngröße und der mineralogischen Zusammensetzung, der natürlichen Radioaktivität, der stabilen Isotope sowie in Veränderungen der Fazies aus. Zur Untersuchung der sedimentären Zyklizität dieser nicht-tropischen Sedimente wurden sechs Sedimentintervalle früh- bis mittelpleistozänen Alters innerhalb der Bohrungen Site 1127, 1129 und 1131 ausgewählt. Die früh- bis mittelpleistozäne Periplattform-Sedimentabfolge des Eucla Schelfs wird durch die Stapelung genetischer Sequenzen gebildet. Diese entstehen als eine Folge hochfrequenter Meeresspiegelschwankungen, die unmittelbare Auswirkungen auf den Grad der Überflutung und damit auf den Sedimentexport vom Eucla Schelf ins angrenzende Becken haben. Eine genetische Sequenz weist eine Mächtigkeit von etwa 25 m unmittelbar beckenwärts der Schelfkante auf. Die maximale Mächtigkeit von ca. 30 m wird in beckenwärtigeren Bereichen erreicht, bevor die genetische Sequenz erneut auskeilt und in den hier untersuchten distalsten Ablagerungsbereichen Mächtigkeiten von 10-15 m aufweist. Die Begrenzungen der genetischen Sequenzen werden durch abrupte Korngrößenwechsel oder durch Umkehrpunkte in Korngrößentrends gebildet. Innerhalb einer genetischen Sequenz werden Hochstands-Ablagerungen durch grobkörnige bioklastenreiche Pack- bis Grainstones charakterisiert, die wiederum große Mengen an Tunikaten Spikulae, braunen hoch-Mg Bioklasten und Bryozoen-Detritus beinhalten. Tiefstands-Ablagerungen andererseits werden durch feinkörnige Packstones mit erhöhten Gehalten an Schwammnadeln und Mikrit charakterisiert. Die metastabilen Karbonatmodifikationen Aragonit und Hoch-Mg Kalzit können jeweils bis zu 34 % der Gesamtprobe ausmachen und sind in Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands angereichert. Hauptaragonitbildner sind dabei Tunikaten Spikulae. Dolomit ist auf Ablagerungen des beginnenden Meeresspiegel-Anstiegs beschränkt. Die primäre Verteilung der metastabilen Karbonatmodifikationen innerhalb der genetischen Sequenzen führt so während späterer Versenkungsstadien möglicherweise zu einer differentiellen Diagenese. Die sedimentäre Zyklizität der Ablagerungen des späten Mittelpleistozäns unterscheidet sich von der Zyklizität des frühen- bis mittleren Pleistozäns durch eine Zunahme der Häufigkeit allochthoner Schelfkomponenten wie Rotalgen-Detritus und brauner Hoch-Mg Kalzit-Bioklasten. Zugleich zeigt sich ein Häufigkeits-Rückgang autochthoner Schwammnadeln. Diese Variationen während des frühen und mittleren Pleistozäns werden als eine Folge der Progradation der Schelfkante und der sich daraus ergebenden verändernden relativen Position zur Schelfkante sowie des sich verändernden Nährstoffeintrags interpretiert. Site 1127 zeigt darüberhinaus eine Verdopplung der Zyklenmächtigkeiten der mittelpleistozänen Ablagerungen. Dies ist höchstwahrscheinlich auf Veränderungen der Erdorbitalparameter (Milankovitch-Zyklizität) zurückzuführen. Im letzten Teil der Arbeit werden die sedimentären Zyklizitäten dieser nicht-tropischen Periplattform-Karbonate mit pleistozänen tropischen Ablagerungen der westlichen Flanke der Großen Bahama Bank verglichen (ODP Site 1009). Die Gliederung in Coarsening Upward-Zyklen ist dabei ein wesentliches Merkmal sowohl der nicht-tropischen als auch der tropischen Periplattform-Karbonate. Im Gegensatz zu den untersuchten nicht-tropischen Karbonaten werden jedoch tropische Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands durch feinkörniges, mikritreiches Material. Maxima des Aragonit- bzw. Minima des Hoch-Mg Kalzitgehalts charakterisiert. Die Mächtigkeit einzelner Zyklen von ca. 10 m ist darüberhinaus aufgrund geringfügig niedrigerer Sedimentationsraten geringer als in den untersuchten nicht-tropischen Karbonaten, in denen die minimalen Zyklenmächtigkeiten 10-15 m betragen.
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
Im Rahmen der vorliegenden Arbeit wurde zunächst ein Vorschlag für eine Direktive zur Anwendung von Monitored Natural Attenuation (MNA) an Grundwasserschadensfällen durch Mineralölprodukte unter Berücksichtigung der in Deutschland geltenden Vorgaben für eine konkrete technische Durchführung erarbeitet. Das darin enthaltene Untersuchungs- und Auswertungsprogramm zum Nachweis von Natural Attenuation (NA) berücksichtigt die gesetzlichen Regelungen des Bundes-Bodenschutzgesetzes (BBodSchG) und der BundesBodenschutz- und Altlastenverordnung (BBodSchV). Das entwickelte Untersuchungs- und Auswertungsprogramm wurde in einem weiteren Schritt an einer laufenden MNA-Maßnahme aus der Praxis überprüft. Hierfür wurde ein Kerosin-kontaminierter Teilbereich am Standort des ehemaligen Militärflughafens Wegberg-Wildenrath in Nordrhein-Westfalen ausgewählt. Im Grundwasser liegt eine Kontamination überwiegend aus aromatischen Kohlenwasserstoffen (BTEX und weitere alkylierte Aromaten) sowie MKW (H18) vor. Anhand des Praxisbeispiels wurde die generelle Verwendbarkeit von bereits im Rahmen der bisherigen Altlastenbearbeitung erhobenen Daten im Sinne des erarbeiteten Untersuchungsprogramms aufgezeigt. Hydrogeologische Untersuchungen belegten eine Abhängigkeit der Konzentration von Schadstoffen im Wasser von einem bis zu /- 1,7 m schwankenden Grundwasserstand, wodurch ein instationäres Fahnenverhalten vorlag. Aufbauend auf den Erkenntnissen der hydrogeologischen Erkundung und der Auswertung von hydrochemischen Daten wurden für den Standort zwei sich ergänzende konzeptionelle Modellvorstellungen (ein hydrochemisches Modell sowie ein hydrodynamisches Modell) bezüglich der Prozesse, die das Fahnenverhalten steuern, entwickelt. Beim hydrochemischen Modell erfolgt durch schwankende Grundwasserstände ein Recycling der Elektronenakzeptoren S042- und Fe3 für den Schadstoffabbau im herdnahen Bereich. Bei hohem Grundwasserstand werden reduzierte Eisenspezies als unlösliche Eisenmonosulfide ausgefällt. Bei niedrigem Grundwasserstand werden diese Eisenmonosulfide in Folge von Belüftung zu löslichen Fe3 /SO42-haltigen Mischkristallen oxidiert. Bei einem erneuten Anstieg des Grundwassers steht dieser Elektronenakzeptorpool für einen weiteren Schadstoffabbau zur Verfügung, was wiederum zur Ausfällung der reduzierten Eisenspezies führt. Beim hydrodynamischen Modell werden die beobachteten Konzentrationsänderungen im Grundwasser hauptsächlich durch Schadstoff-Phasenübergänge und der Größe der dabei zur Verfügung stehenden Grenzflächen hervorgerufen. Der Austausch von Schadstoffen aus der NAPL (non-aqueous phase liquids)-Phase in die Bodenluft bei niedrigen Grundwasserständen ist erheblich größer im Vergleich zum Austausch der NAPL-Phase in die (Grund)wasserphase bei hohen Grundwasserständen. Daraus resultieren höhere Schadstoffgehalte im Schadenszentrum bei niedrigen Grundwasserständen und geringere Gehalte bei hohen Grundwasserständen. Eine wichtige Erkenntnis dieser Arbeit war die Herausarbeitung der Art des Einflusses schwankender Grundwasserstände auf die Fahnendynamik. Anhand der Untersuchung auf aromatische Säuren (Metabolite), die im (my)g/l-Bereich nachzuweisen waren, konnte der direkte Beweis für einen aktiven Bioabbau am Standort erbracht werden. Durch einen Vergleich des Aromatenspektrums mit dem vorgefundenen Metabolitenspektrum wurden Aussagen zum Abbauverhalten von einzelnen aromatischen Schadstoffgruppen ermöglicht. Die Abbauprognose ist aufgrund des instationären Fahnenverhaltens mit größeren Unsicherheiten behaftet. Attenuations- bzw. Abbauraten zwischen 0,0003 * 1/d und 0,001 * 1/d wurden anhand von zwei unterschiedlichen Verfahren ermittelt.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Die Chemie und der Strahlungshaushalt der Erdatmosphäre werden durch die nur in relativ geringen Konzentrationen vorhandenen Spurengase und Aerosolpartikel beherrscht. Mit den zunehmenden anthropogenen Emissionen von atmosphärischen Spurengasen, verursacht durch die wachsende Weltbevölkerung und die zunehmende Industrialisierung, wurde in den letzten Dekaden ein globaler Wandel bei der Zusammensetzung der Erdatmosphäre festgestellt: Konzentrationen von atmosphärischen Spurenstoffen verändern sich nicht mehr auf vergleichsweise langsamen geologischen Zeitskalen, sondern mit viel höheren Geschwindigkeiten, in einzelnen Fällen von bis zu einem Prozent pro Jahr. Die wohl bekanntesten Folgen dieser Veränderungen sind die globale Erwärmung durch die ansteigenden Emissionen von Treibhausgasen und der mit dem antarktischen 'Ozonloch" entdeckte drastische Ozonverlust in der Stratosphäre durch anthropogene Fluor-Chlor-Kohlenwasserstoffe (FCKW). Die Verteilung der für Ozonchemie und Klima relevanten Spurengase in der Atmosphäre hängt dabei nicht nur von der Verteilung ihrer Quellen und Senken ab, sondern wird maßgeblich durch verschiedene Transportprozesse beeinflußt. Der Austausch zwischen der mit anthropogenen Emissionen belasteten Troposphäre und den höheren Atmosphärenschichten Stratosphäre und Mesosphäre spielt dabei eine zentrale Rolle. Im Rahmen der Dissertation wurde zum besseren Verständnis von Stratosphären-Troposphären-Austauschprozessen die Verteilung von langlebigen Spurengasen in den beiden atmosphärischen Kompartimenten Troposphäre und Stratosphäre untersucht. Dazu wurde bei einer Meßkampagne im Sommer 1998 im Rahmen des von der Europäischen Union geförderten Forschungsprojektes STREAM 98 der flugzeuggetragene Gaschromatograph GhOST (Gas chromatograph for the Observation of Stratospheric Tracers) an Bord einer Cessna Citation II der TU Delft in Höhen bis 13 km eingesetzt. Dabei konnten bei zwanzig Meß- und Transferflügen über Kanada, dem Atlantik und Westeuropa umfangreiche Messungen der langlebigen Spurengase N20, F11 und F12 in der oberen Troposphäre und der Untersten Stratosphäre durchgeführt werden. Unter Flugbedingungen wurde mit GhOST während der Kampagne eine Reproduzierbarkeit (1 o) von besser als 0,6 % und eine absolute Genauigkeit von besser als 2 % für alle nachgewiesenen Spurengase erreicht. Diese hohe Meßpräzision konnte durch zahlreiche Vergleichsmessungen mit anderen Meßgeräten und Meßverfahren - im Flugbetrieb und im Labor sichergestellt werden; die Linearität des Geräts wurde zudem mit Hilfe einer barometrisch hergestellten Verdünnungsreihe untersucht. Die mit GhOST bei STREAM 98 gewonnenen Meßwerte wurden zusammen mit Messungen und Modelldaten der am Projekt beteiligten Arbeitsgruppen zur Untersuchung von Spurengasverteilungen und Stratosphären-Troposphären-Austauschprozessen herangezogen. Untersucht wurden dabei unter anderem die Verteilung und Variabilität von N20, F11 und F12 in der Troposphäre und in der Untersten Stratosphäre der mittleren Breiten, Austausch- und Mischungsprozesse in der Tropopausenregion und die Variabilität von Tracer/Tracer-Korrelationen in der Untersten Stratosphäre. Aufbauend auf den Erfahrungen bei STREAM 98 wurde für das vom BMBF geförderte Projekt SPURT im Rahmen dieser Doktorarbeit der in-situ-Gaschromatograph GhOST II entwickelt. Unter Beibehaltung der gaschromatographischen Komponenten von GhOST wurden zur Messung der Spurengase SF6 und CO zwei zusätzliche Detektoren integriert und zahlreiche technische Verbesserungen durchgeführt. Für die vollautomatische rechnergestützte Elektronik zur Steuerung des neuen Gerätes wurden zusammen mit der institutseigenen Elektronikwerkstatt verschiedene Baugruppen zur Signalführung und -verarbeitung, zur Temperaturmessung und zur Ansteuerung von Leistungskomponenten entwickelt. Während einer Testkampagne im April 2001 wurde GhOST II erfolgreich mechanisch und elektrisch auf einem Learjet 35A integriert und kam bei zwei Meßflügen der Meßkampagne SPURT 1 im November 2001 zum Einsatz.
Aerosolpartikel sind in der Atmosphäre insbesondere für die Strahlungsübertragung und die Wolkenbildung von wichtiger Bedeutung. Aufgrund ihrer kurzen Lebensdauer, der Variabilität ihrer Quellen und Senken und ihrer Einbindung in den atmosphärischen Wasserkreislauf sind Partikel in allen ihren Eigenschaften sehr veränderlich. Die Zusammenhänge dieser Variabilität mit den meteorologischen Bedingungen und ihre Auswirkungen in der meteorologischen Anwendung sind bisher nur ungenügend durch Meßdaten belegt, so daß die Ergebnisse von Modellen, in denen die meteorologischen Wirkungen von Partikeln berücksichtigt werden (z.B. Klimamodelle), mit großen Unsicherheiten behaftet sind. Ziel dieser Arbeit war es, auf der Grundlage von Messungen einen Beitrag zur Charakterisierung der bodennahen troposphärischen Aerosolpartikel zu leisten. Im Hinblick auf die meteorologischen Anwendungen wurden die chemische Zusammensetzung und die Masse der Partikel in Abhängigkeit von ihrer Größe gemessen, da sie wesentliche Einflußgrößen für die Strahlungswirkung von Partikeln und die Wasserdampfkondensation in der Atmosphäre sind. Auf der Basis eines Datensatzes der physikalisch-chemischen Partikeleigenschaften und meteorologischer Meßgrößen wurde zunächst die Abhängigkeit der Partikeleigenschaften und ihrer Variabilität von den meteorologischen Umgebungsbedingungen analysiert sowie die Bedeutung der Variabilität der Partikeleigenschaften in der meteorologischen Anwendung untersucht. Dazu wurden Absorptionskoeffizienten der Partikel und Erwärmungsraten durch Absorption solarer Strahlung durch Partikel sowie das Wachstum der Partikel mit der relativen Feuchte in Abhängigkeit von ihrer chemischen Zusammensetzung berechnet. Die Messungen fanden während fünf drei- bis achtwöchiger Meßkampagnen 1991, 1993 und 1994 in Melpitz bei Torgau (Sachsen) und 1993 und 1994 auf dem Hohen Peißenberg (Oberbayern) statt. Mit einem Berner-Impaktor wurden die Partikel gesammelt. Es wurden die Konzentrationen der Gesamtmasse der Partikel sowie der Ionen in Abhängigkeit von ihrer Größe bestimmt. Die Rußkonzentrationen wurden mit einem Aethalometer gemessen. Parallel zu den Partikelmessungen fanden Messungen von Temperatur, relativer Feuchte, Windgeschwindigkeit, Windrichtung, Globalstrahlung und diffuser Himmelsstrahlung statt. Die Messungen liefern folgende Ergebnisse: Bei allen Messungen waren Nitrat, Sulfat und Ammonium die Hauptkomponenten der kleinen Partikel, und die Massenkonzentrationen der kleinen Partikel (0,04 µm < aed < 1,72 µm) waren wesentlich größer als die der großen Partikel (1,72 µm < aed < 21µm). Die Partikel sind also überwiegend anthropogener Herkunft. Die großen Partikel enthielten zusätzlich Natrium und Kalzium, lediglich bei einzelnen Messungen in Melpitz wurde auch Chlorid als Hinweis auf Seesalzpartikel gefunden. Die Massenkonzentrationen aller Partikelbestandteile waren in Melpitz in der Regel etwas größer als auf dem Hohen Peißenberg, da die Partikelkonzentrationen mit zunehmender Höhe abnehmen und da Melpitz näher an Ballungsräumen liegt als der Hohe Peißenberg. Die Unterschiede zwischen den verschiedenen Meßkampagnen an einem Ort sind jedoch größer als die zwischen den beiden Orten. Die Variabilität sowohl der Massenkonzentrationen der Partikelbestandteile als auch der Gesamtmasse liegt im Bereich von zwei Größenordnungen und ist damit wesentlich größer als die Unterschiede zwischen den Meßkampagnen. Der mittlere Anteil der löslichen Masse an der Gesamtmasse beträgt für die kleinen Partikel 57 %, für die großen 30 %. Dieser Anteil variiert sehr stark (10-100 % bzw. 5-80 %). Ruß hat einen mittleren Anteil von 5 % an der Gesamtmasse (1-18 %). Wesentliche Parameter, die zu Veränderungen der Partikeleigenschaften führen, sind: - Luftmassen unterschiedlicher Herkunft und Geschichte - Veränderungen der Mächtigkeit und Struktur der atmosphärischen Grenzschicht - Emissionen lokaler Quellen - lokale meteorologische Parameter (Temperatur, Windrichtung, -geschwindigkeit) Die unterschiedliche Häufigkeit und Ausprägung dieser Einflußfaktoren führt zu Unterschieden zwischen den Ergebnissen der einzelnen Meßkampagnen. Die einzelnen Faktoren sind nicht voneinander unabhängig, da durch die großräumige Wettersituation und die Luftmassen die Ausprägung der lokalen Parameter bestimmt wird. Um eine Zusammenfassung von Messungen unter vergleichbaren meteorologischen Bedingungen zu erreichen, wurde eine Klassifikation der Daten auf der Basis von Rückwärtstrajektorien vorgenommen. Es wurden fünf Klassen unterschieden: vier Klassen umfassen Richtungssektoren mit jeweils 90 ° um die Haupthimmelsrichtungen (Nord, Ost, Süd, West), einer fünften (X) werden kurze Trajektorien zugeordnet. Dieser Ansatz wurde gewählt, weil ähnliche Luftmassen und damit meteorologische Bedingungen hinsichtlich Temperatur, Feuchte, Stabilität und Luftbeimengungen meistens durch ähnliche Trajektorien gekennzeichnet sind, die eine Aussage über die Herkunft und den Weg der Luft ermöglichen, die wiederum für die Ausprägung der Partikeleigenschaften maßgeblich sind. Eine weitere Unterteilung nach Tageszeiten (morgens, mittags, abends) wurde vorgenommen, da einige Meßgrößen deutliche Tagesgänge zeigten. Die Ergebnisse lassen sich wie folgt zusammenfassen: Die Klassifikation der meteorologischen Meßgrößen liefert sowohl im Hinblick auf die Charakterisitika der Trajektorienklassen (Herkunft der Luft) als auch für die Tagesgänge meteorologisch sinnvolle Ergebnisse. Die Lage der Stationen in einer Ebene und auf einem Berg führt zu einer unterschiedlichen Ausprägung von Tagesgängen der Temperatur und der Windgeschwindigkeit besonders während stabiler Hochdruckwetterlagen. Es zeigt sich, daß bedingt durch die Entwicklung der Grenzschicht auf dem Hohen Peißenberg vor allem bei Hochdruckwetterlagen im Tagesverlauf in zwei verschiedenen Atmosphärenschichten gemessen wird. Die starke Streuung der lokalen Windrichtungen innerhalb einer Trajektorienklasse führt dazu, daß der Einfluß lokaler bzw. regionaler Quellen durch die Klassifikation nur bedingt erfaßt wird, und liefert einen Hinweis auf die lokale Wetterlage. Die Klassifikation der Partikelmeßdaten liefert meteorologisch sinnvolle Ergebnisse, da die Konzentrationsunterschiede zwischen den einzelnen Klassen mit der Wetterlage und dem Einfluß regionaler Quellen zu begründen waren. Die Absolutwerte ließen sich allerdings nicht vergleichen, und es wurden im Detail meßkampagnenspezifische Begründungen gefunden. Es ergab sich jedoch für alle Meßkampagnen die Unterteilung in Klassen mit antizyklonalen Wetterlagen und kontinentaler Luft mit hohen Konzentrationen (Klassen Ost, Süd, West) und zyklonalen Wetterlagen und maritimer Luft mit geringeren Konzentrationen (Klassen Nord, West). Abweichungen von dieser Einteilung waren vor allem mit der geographischen Lage der Meßorte zu begründen. Ausgeprägte Tagesgänge mit Maxima bei den Morgenmessungen ergaben sich nur für Nitrat, bei einigen Messungen auch für Chlorid in den kleinen Partikeln durch temperaturabhängige Gleichgewichtsreaktionen instabiler Partikelkomponenten mit der Gasphase sowie für Ruß durch die Anreicherung von Emissionen lokaler Quellen bei geringer Grenzschichthöhe. Während sich die mittleren absoluten Konzentrationen in den einzelnen Klassen erheblich unterscheiden, ist die mittlere relative chemische Zusammensetzung der Partikel in allen Klassen ähnlich; die Variabilität der Anteile ist aber ebenfalls sehr groß. Mit Ausnahme der Advektion von Seesalzpartikeln sowie der temperaturbedingten Verschiebung der Anteile von Nitrat und Sulfat, lassen sich Unterschiede zwischen den Klassen nicht mit den durch die Klassifikation erfaßten Einflußfaktoren oder geographischen Besonderheiten begründen. Durch die Klassifikation nimmt die Variabilität sowohl der meteorologischen Meßgrößen als auch der Partikeleigenschaften ab. Für die meteorologischen Meßgrößen verringert sich die Variabilität durch die Klassifikation nach Trajektorien weniger als durch die nach Tageszeiten, für die Konzentrationen der Partikelbestandteile und der Masse führt hingegen die Klassifikation nach Trajektorien zu einer größeren Verminderung der Variabilität als die nach Tageszeiten. Die Anwendung beider Klassifikationskriterien führt zu einer Abnahme der Variabilität um im Mittel 55 % für die meteorologischen Meßgrößen und um 50 % bzw. 25 % für die Konzentrationen der Bestandteile und der Masse der kleinen bzw. der großen Partikel. Die Variabilität der Werte in einer Klasse bleibt jedoch auch nach Klassifikation größer als Unterschiede zwischen den Klassen. Sie wird vor allem durch die spezifische meteorologische Situation bedingt. Um die Auswirkungen der Variabilität der Partikeleigenschaften in meteorologischen Anwendungen abschätzen zu können, wurden aus den Meßdaten der Absorptionskoeffizient der Partikel und die daraus resultierenden Erwärmungsraten sowie das Partikelwachstum mit der relativen Feuchte berechnet und wie die Meßdaten klassifiziert. Die Ergebnisse lassen sich folgendermaßen zusammenfassen: Für die Absorptionskoeffizienten der trockenen Partikel wurden Werte zwischen 0,1·10-6/m und 97·10-6/m berechnet. Für die beiden Meßkampagnen im Herbst (Melpitz 1993 und 1994) ergaben sich etwa um den Faktor 2 größere mittlere Absorptionskoeffizienten als für die Meßkampagnen im Sommer, die maximalen Absorptionskoeffizienten waren in Melpitz aufgrund der starken lokalen Quellen um den Faktor 2-3 größer als auf dem Hohen Peißenberg. Für die maximalen Erwärmungsraten wurden Werte zwischen 0,003 und 0,128 K/h, für die Gesamterwärmung über die Tageslichtperiode zwischen 0,02 K und 0,81 K berechnet. Die Partikel liefern in Abhängigkeit von den Umgebungsbedingungen selbst während Meßkampagnen an zwei ländlichen Orten in Mitteleuropa einen vernachlässigbar geringen bis deutlichen Beitrag zum Strahlungsantrieb. In Melpitz waren sowohl die maximalen Erwärmungsraten als auch die Gesamterwärmung im Mittel um den Faktor 1,5 geringer als auf dem Hohen Peißenberg, da die maximalen Absorptionskoeffizienten zu einer Zeit bestimmt wurden, als das Strahlungsangebot noch gering war, während auf dem Hohen Peißenberg die Maxima von Absorptionskoeffizient und Strahlungsangebot zeitlich näher zusammenliegen. Die Klassifikation nach Rückwärtstrajektorien ergab deutliche Unterschiede (Faktor 3-5) zwischen den einzelnen Klassen, da in Klassen mit den höchsten Rußkonzentrationen auch das Strahlungsangebot am höchsten war und in Klassen mit niedrigen Rußkonzentrationen meistens starke Bewölkung vorherrschte. Zwischen maximaler Erwärmungsrate und Gesamterwärmung über die Tageslichtperiode wird ein linearer Zusammenhang gefunden, der sich aber aufgrund der verschiedenen Tagesgänge des Absorptionskoeffizienten für die Meßkampagnen in Melpitz und auf dem Hohen Peißenberg unterscheidet. Sowohl für den exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung als auch für das Partikelwachstum bei fester relativer Feuchte ergeben sich im Mittel nur geringe Unterschiede zwischen kleinen und großen Partikeln sowie einzelnen Klassen durch die chemische Zusammensetzung des wasserlöslichen Anteils der Partikel. Unterschiede sind vielmehr durch den Anteil der wasserlöslichen Masse an der Gesamtmasse bedingt. Es ergibt sich ein linearer Zusammenhang zwischen dem exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung und dem Anteil der wasserlöslichen Masse an der Gesamtmasse der Partikel. Die Unterschiede zwischen den einzelnen Klassen lassen sich nicht auf einzelne meteorologische oder geographische Einflußfaktoren zurückführen. Sowohl für die Absorption solarer Strahlung als auch für das Wachstum der Partikel mit der relativen Feuchte ist die Variabilität der abgeleiteten Größen geringer als die der Ausgangsgrößen, sie ist aber immer noch mindestens so groß wie die Unterschiede zwischen den einzelnen Klassen. Zusammenfassend läßt sich festhalten, daß in dieser Arbeit ein Datensatz aus Messungen von meteorologischen Parametern und Partikeleigenschaften zusammengestellt wurde, der zusammen mit der Klassifikationsmethode nach Rückwärtstrajektorien und Tageszeiten eine Untersuchung der Zusammenhänge zwischen der Variabilität der Meßgrößen und den meteorologischen Bedingungen ermöglicht und eine Abschätzung der Auswirkungen der Variabilität der Partikeleigenschaften, insbesondere der chemischen Zusammensetzung, in meteorologischen Anwendungen zuläßt. Der Klassifikationsansatz nach Rückwärtstrajektorien ist prinzipiell geeignet, um die Abhängigkeit der Partikeleigenschaften von den meteorologischen Bedingungen zu beschreiben. Es ist jedoch nicht möglich, einen Einflußfaktor als den wichtigsten hervorzuheben oder sogar quantitative Beziehungen zwischen Partikeleigenschaften und meteorologischen Parametern herzustellen. Die Herkunft der Luft liefert einen Hinweis auf die zu erwartenden meteorologischen Bedingungen und Partikeleigenschaften, die lokale meteorologische Situation bestimmt jedoch die genaue Ausprägung der Meßgrößen. Eine Berücksichtigung des Einflusses der lokalen Wetterlage sowie lokaler bzw. regionaler Quellen könnte durch die Einbeziehung der Windrichtung vorgenommen werden. Auf der Basis längerer Meßreihen sollte überprüft werden, ob die Unterteilung in fünf Trajektorienklassen modifiziert werden muß. Der große Einfluß der spezifischen Wetterlage auf die Meßergebnisse führt dazu, daß die Ergebnisse von Meßkampagnen weder für einen längeren Zeitraum noch für ein größeres Gebiet repräsentativ sein können. Ebenso ist die Verwendung von Mittelwerten über längere Zeiträume ist nicht sinnvoll, da die Variabilität der Meßgrößen während eines Tages sowie von Tag zu Tag sehr groß ist. Aufgrund der komplexen Zusammenhänge zwischen Partikeleigenschaften und meteorologischen Bedingungen erscheint es unbedingt nötig, längere Meßreihen aller wichtigen Aerosoleigenschaften durchzuführen, damit statistisch belastbare Daten über eine hinreichend große Zahl von Messungen unter verschiedensten meteorologischen Bedingungen zu allen Jahreszeiten vorliegen, die Aussagen über Zusammenhänge mit Witterungsbedingungen, Tagesgänge, Jahresgänge aber auch die Vertikalverteilung der Partikeleigenschaften zulassen. Dabei ist es wichtig, alle interessierenden Größen gleichzeitig zu messen, da nur dann eine Untersuchung des Einflusses der Variabilität verschiedener Parameter auf die für die Anwendung wichtigen Größen möglich ist.
Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs
(2002)
In der vorliegenden Arbeit wurde im Rahmen des DFG-Schwerpunktprogrammes 546 ,,Geochemische Prozesse mit Langzeitfolgen im anthropogen beeinflussten Sickerwasser und Grundwasser" der Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs untersucht. Ausgewählt wurden verschiedene Vertreter der Stoffklassen Antioxidantien und Phosphorsäureester sowie die beiden Xenoöstrogene Bisphenol A und 4-Nonylphenol, denen eine endokrine (hormonähnliche) Wirkung auf Organismen zugeschrieben wird. Solche Umweltchemikalien werden seit ca. 40 Jahren in großen Mengen für verschiedene Zwecke in Industrie und Privathaushalten eingesetzt oder sie entstehen durch photochemischen oder mikrobiologischen Abbau unter Umweltbedingungen. Die Chemikalien gelangen durch Produktion und Verwendung in die Abwässer und werden durch Direkteinleitungen geklärter Abwässer in die Oberflächengewässer eingetragen. Durch den Prozess der Uferfiltration werden im Oderbruch organische Verbindungen von der Oder ins Grundwasser des angrenzenden Aquifers transportiert. Viele Umweltkontaminanten sind unter aeroben Bedingungen gut biologisch abbaubar. Wie sie sich aber in einer sauerstofffreien Umgebung verhalten, ist bis heute relativ unerforscht. Es ist notwendig, die Prozesse bei der Uferfiltration zu kennen, da heute zunehmend mehr Trinkwasser aus Uferfiltrat gewonnen wird und Umweltchemikalien somit eine potentielle Gefahr für die Trinkwasserversorgung darstellen. Eine zweite Eintragsquelle stellen die Niederschläge dar. Viele organische Verbindungen besitzen die Fähigkeit, aufgrund ihrer physikalischen Paramter von freien Wasser- und Bodenoberflächen oder aus den Produkten, in denen sie enthalten sind, in die Atmosphäre zu verdampfen. Über den Regen gelangen sie schließlich zurück auf die Erde und können so mit dem Sickerwasser bis in tiefere Zonen des Aquifers transportiert werden. Für Vergleichszwecke wurden auch andere Fließgewässer in Deutschland bezüglich der Belastung durch die ausgewählten Umweltchemikalien untersucht. In Ergänzung und Fortsetzung bisheriger Publikationen wurde mit der vorliegenden Arbeit die Konzentrationsentwicklung dieser Stoffe in den Flüssen Rhein, Main, Elbe, Nidda und Schwarzbach dokumentiert. Ein weiterer Schwerpunkt dieser Arbeit lag darin, die Frage nach dem Eintrag dieser Umweltchemikalien in die Flüsse zu beantworten. Dazu wurde Abwasser und Regenwasser auf die Anwesenheit der entsprechenden Verbindungen untersucht. Das Hauptuntersuchungsgebiet stellte die Oder im Grenzbereich Deutschland-Polen sowie der anaerobe Grundwasserleiter des Oderbruchs dar. Dieses Gebiet westlich der Oder im Bundesland Brandenburg wurde ausgewählt, da hier die besondere hydrologische Situation gegeben ist, dass das Flusswasser der Oder mit Geschwindigkeiten von 0,2-5 m/d in den angrenzenden Aquifer infiltriert. Da im Aquifer des Oderbruchs durchweg reduzierende Verhältnisse herrschen, eignet sich dieser in besonderer Weise, das Verhalten organischer Substanzen unter anaeroben Bedingungen zu untersuchen. Hydrogeologisch betrachtet sind im quartären Untergrund des Oderbruchs zwei Hauptgrundwasserleiter ausgebildet. Beide Horizonte werden durch eine undurchlässige Schicht aus Geschiebemergel voneinander getrennt. Gegenstand der vorliegenden Untersuchungen war ausschließlich der obere Hauptgrundwasserleiter, in dem durchweg anaerobe Bedingungen herrschen. Bei einer durchschnittlichen Mächtigkeit von 20-30 m wird der Aquifer im wesentlichen aus holozänen und pleistozänen Sanden und Kiesen aufgebaut. Charakteristisch für das Oderbruch ist der sogenannte ,,Auelehm". Es handelt sich hierbei um flächenhaft verbreitete bindige Deckschichten mit unterschiedlichen Mächtigkeiten. In einigen Bereichen des Oderbruchs fehlen diese undurchlässigen Deckschichten völlig, weshalb das Niederschlagswasser ungehindert in den Aquifer eindringen kann. In anderen Bereichen variiert die Mächtigkeit des Auelehms lokal. Mit zunehmender Entfernung von der Oder nimmt sie stark ab. In Bereichen ab ca. 3000 m Entfernung vom Fluss sind die Auelehmdeckschichten nicht mehr vorhanden, weshalb hier der Eintrag organischer Stoffe mit den Niederschlägen in einen Aquifer begünstigt wird. Im Vorfeld dieser Arbeit hat die Auswertung der zur Schadstoffbelastung der Oder vorliegenden Literatur gezeigt, dass sich die wenigen Untersuchungen vor allem mit dem Auftreten sogenannter persistenter organischer Schadstoffe wie polychlorierte Biphenyle (PCB), Dioxine, Furane und Chlorpestizide beschäftigten. Umweltchemikalien wie Antioxidantien, Phosphorsäureester und Xenoöstrogene, die unter aeroben Bedingungen gut biologisch abgebaut werden, treten oft in den Hintergrund der Betrachtung, da von einer vollständigen Eliminierung dieser Substanzen ausgegangen wird. Diese Industriechemikalien, die Gegenstand dieser Arbeit sind, werden in so hohen Mengen produziert und eingesetzt, dass die Abbaukapazität in Böden und Gewässern häufig überschritten wird. In der vorliegenden Arbeit wurde zunächst eine empfindliche Messmethode zur Bestimmung von mittelpolaren organischen Umweltkontaminanten aus matrixreichen Wasser- und Abwasserproben im unteren Nanogramm/Liter-Bereich entwickelt. Die Analysenmethode basierte auf der Extraktion der Wasserproben mittels Festphasenextraktion (SPE) sowie dem hochempfindlichen Nachweis der Analyten mittels Kapillargaschromatographie/ Massenspektrometrie (GC/MS). Damit konnten zahlreiche Verbindungen mit einem relativ geringen Arbeitsaufwand im Routinebetrieb mit Wiederfindungsraten von 68 bis 95 % in den Wasserproben identifiziert und quantifiziert werden. Die Bestimmungsgrenzen für die einzelnen Verbindungen lagen zwischen 3-53 ng/l. Insgesamt sind in diesem Projekt von März 1999 bis Juli 2001 sechs Beprobungskampagnen im halbjährlichen Rhythmus durchgeführt worden. Zur Beprobung standen die im Rahmen dieses Schwerpunktprogrammes von Mitarbeitern der FU Berlin sowie des ZALF in Müncheberg im Oderbruch installierten Grundwassermessstellen der Transsekten Bahnbrücke und Nieschen zu Verfügung. Im Bereich der Transsekte Bahnbrücke ist der ,,Auelehm" weit verbreitet, allerdings mit lokal variierenden Mächtigkeiten. Mit zunehmender Entfernung von der Oder nimmt die Mächtigkeit dieser Deckschicht ab, bis sie in einer Entfernung von ca. 5000 m überhaupt nicht mehr vorhanden ist. Vereinzelt sind den überwiegend sandig bis kiesigen Sedimentfolgen, die den Aquifer im Bereich der Transsekte Bahnbrücke überwiegend aufbauen, in unmittelbarer Nähe der Oder geringmächtige Tonlagen zwischengeschaltet. Dadurch wird der Aquifer in flussnähe in zwei Teilbereiche gegliedert. Der untere Teilbereich steht im direkten hydraulischen Kontakt zur Oder und wird so maßgeblich durch das Uferfiltrat beeinflusst. Im Hangenden dieses grundwasserleitenden Horizontes folgt ein zweiter Teilbereich, der durch eine stauende Tonschicht an der Basis hydraulisch von der Oder getrennt ist und so überwiegend von infiltrierendem Niederschlagswasser sowie vom Oderwasser bei Überschwemmungen geprägt wird. Im Bereich der Transsekte Nieschen besteht der Grundwasserleiter ausschließlich aus sandig-kiesigen Sedimentfolgen. Außerdem fehlt hier der Auelehm und damit eine den Aquifer schützende Deckschicht. Daher ist im Bereich der Transsekte Nieschen der Einfluss von infiltrierendem Niederschlagswasser auf den Grundwasserchemismus besonders stark ausgeprägt, da dieses ungehindert in den Aquifer eindringen kann. Parallel zu jeder Grundwasserprobennahme wurde an ausgewählten Standorten in Deutschland eine Beprobung verschiedener Oberflächengewässer durchgeführt sowie Dachablaufproben gesammelt. Bei der letzten Beprobungskampagne wurden im Oderbruch eine Niederschlagsprobe sowie zwei Dachablaufproben genommen. Zum gleichen Zeitpunkt wurden Zu- und Abläufe der Kläranlage einer Stahlverarbeitungsfirma sowie dreier kommunaler Kläranlagen in der Umgebung des Oderbruchs beprobt. Sämtliche beprobten Kläranlagen leiten ihre geklärten Abwässer in die Oder. Folgende organische Verbindungen wurden in den Proben identifiziert und in drei Gruppen eingeteilt: Die Gruppe der Antioxidantien mit den Vertretern 3,5-Di-tert.-butyl-4-hydroxytoluol (BHT), 3,5-Di-tert.-butyl-4-hydroxybenzaldehyd (BHT-CHO) und 1,2-Bis(3,5-di-tert.- butyl-4-hydroxy-phenyl)ethan (2-BHT), die Gruppe der Phosphorsäureester mit den Vertretern Tributylphosphat (TBP), Tris(2-chloroethyl)phosphat (TCEP) und Tris(2- butoxyethyl)phosphat (TBEP) sowie die Gruppe der Xenoöstrogene mit den Vertretern 2,2- Bis-(4-hydroxyphenyl)propan (BPA) und 4-Nonylphenol (4-NP). Die organischen Verbindungen BHT, TBP, TCEP, TBEP und BPA sind weltweit eingesetzte, industriell hergestellte Chemikalien. 4-NP ist ein Abbauprodukt nichtionischer Tenside (Nonylphenolpolyethoxylate = NPnEO), die als Detergentien in Waschmitteln eingesetzt werden. Bei der Verbindung BHT-CHO handelt es sich um ein Abbauprodukt des Antioxidationsmittels BHT und bei 2-BHT um ein Dimeres von BHT. Sämtliche organische Umweltchemikalien und Metabolite konnten in kommunalen und industriellen geklärten und ungeklärten Abwässern, im Niederschlag und im Dachablauf, in Oberflächengewässern sowie im Grundwasser nachgewiesen werden. Abwasser: In den kommunalen Zuläufen betrug die mittlere BHT-Konzentration 392 ng/l und in den Abläufen 132 ng/l. Für BHT-CHO lag die mittlere Konzentration in den kommunalen Zuläufen bei 113 ng/l und in den Abläufen bei 70 ng/l. Auch die drei Phosphorsäureester wurden in allen untersuchten kommunalen Zuläufen mit mittleren Konzentrationen von 15404 ng/l für TBP, 986 ng/l für TCEP und 12835 ng/l für TBEP nachgewiesen. Die Durchschnittskonzentration in den Abläufen der drei kommunalen Kläranlagen lag bei 622 ng/l für TBP, 352 ng/l für TCEP und 2955 ng/l für TBEP. Das Xenoöstrogen BPA wurde in den Zuläufen mit durchschnittlich 6579 ng/l und in den Abläufen mit 1656 ng/l bestimmt. Die Verbindung 4-NP trat hingegen nur in den Abläufen der kommunalen Kläranlagen mit durchschnittlich 385 ng/l auf. Die Konzentrationen von BHT, TBP, TCEP und TBEP im Zulauf der betriebseigenen Kläranlage einer Stahlverarbeitungsfirma bei Eisenhüttenstadt waren durchweg geringer als die mittleren Konzentrationen dieser Stoffe in den Zulaufproben der kommunalen Kläranlagen. Diese Industriechemikalien finden vor allem in Haushaltsprodukten Verwendung und werden so hauptsächlich durch die Abwassereinleitungen kommunaler Kläranlagen in die Oberflächengewässer eingetragen. Im Gegensatz dazu wurden im Abwasser der industriellen Kläranlage die höchsten Konzentrationen für die beiden Xenoöstrogene BPA und 4-NP festgestellt, da diese Stoffe bei der Metallverarbeitung als Zusatzstoff bzw. als Reinigungsmittel eingesetzt werden. Sämtliche hier zur Diskussion stehenden Verbindungen, mit Ausnahme von 4-NP, wurden durch den Klärprozess mit Raten von 29,1-96,0 % eliminiert. Die Substanzen TBP und TBEP, die in höheren Konzentrationen von mehreren Mikrogramm/l im ungeklärten Abwasser enthalten waren, wurden effektiver durch den Klärprozess eliminiert, als dies bei Substanzen mit geringeren Konzentrationen wie BHT und TCEP der Fall war. Eine besondere Stellung im Eliminierungsprozess in den Kläranlagen nimmt 4-NP ein. Diese endokrin wirksame Substanz konnte ausschließlich in den Ablaufproben der kommunalen Kläranlagen nachgewiesen werden, was darauf hindeutet, dass sie erst während des Klärprozesses durch biologischen Abbau von NPnEO gebildet wird. Da allerdings kommunale Kläranlagen neben Abwasser auch einen großen Anteil an Oberflächenabfluss und damit Niederschlagswasser aufnehmen, stellt sich an dieser Stelle die Frage, warum 4-NP in den Zulaufproben nicht oberhalb der Nachweisgrenze nachgewiesen werden konnte. Niederschlag- und Dachablauf enthielten immerhin durchschnittlich 942 ng/l 4-NP. Hier besteht weiterhin Klärungsbedarf. Das Auftreten aller Substanzen in sämtlichen Ablaufproben zeigt, dass die Direkteinleitungen geklärter Abwässer in die Flüsse eindeutig eine Eintragsquelle für das gesamte untersuchte Stoffspektrum in die aquatische Umwelt darstellen. Ein weiterer Schadstoffeintrag ist durch die Aufbringung von Klärschlamm auf landwirtschaftliche Nutzflächen gegeben. Aufgrund der hohen Werte der Octanol/Wasserverteilungskoeffizienten (logPOW) der hier untersuchten Verbindungen muss eine Adsorption der Substanzen an Klärschlamm und ein damit verbundener Eintrag ins Grundwasser durch Remobilisierungserscheinungen ebenfalls als Eintragsquelle in Betracht gezogen werden. Generell gingen in den letzten Jahren die Mengen an BHT, die über die Einleitungen geklärter Abwässer in die Oberflächengewässer gelangen, zurück. Vor fast 30 Jahren gelangte in den USA vereinzelt noch ungefähr die 100fache Menge der Substanz über Abwassereinleitungen in die Vorfluter. Für TBP, TCEP und TBEP war im geklärten Abwasser deutscher Kläranlagen in den letzten 20 Jahren ebenfalls eine Konzentrationsabnahme zu beobachten. Der Grund hierfür liegt in der Ausweitung des Kläranlagennetzes sowie in der Verbesserung vorhandener Abwasserreinigungsanlagen (vor allem in den neuen Bundesländern). Dagegen ist die BPA-Konzentration im geklärten Abwasser in der Bundesrepublik Deutschland in den letzten drei Jahren geringfügig gestiegen, was auf die steigenden Produktionszahlen dieser Massenchemikalie zurückgeführt werden kann. Für 4-NP wurde in der BRD in den letzten fünf Jahren ein leichter Konzentrationsrückgang im geklärten Abwasser beobachtet. Dies kann damit in Zusammenhang gebracht werden, dass die deutsche Wasch- und Reinigungsmittelindustrie im Jahr 1986 eine freiwillige Verzichterklärung bezüglich des Einsatzes von NPnEO abgegeben hat. Durch den geringeren Einsatz dieser nichtionischen Tenside in den Produkten gelangen weniger NPnEO mit dem Abwasser in die Kläranlagen. Folglich wird im Verlauf der Abwasserbehandlung auch weniger 4-NP durch biologischen Abbau gebildet. Trotz dieser Verzichterklärung kann 4-NP dennoch bis heute in deutschen Kläranlagenabläufen nachgewiesen werden. Im internationalen Vergleich mit Österreich, Italien, England, Schottland, Schweiz, Kanada und den USA sind die 4-NP-Konzentrationen im geklärten Abwasser in Deutschland allerdings relativ gering. Niederschlag und Dachablauf Alle ausgewählten Verbindungen konnten sowohl in der Niederschlagsprobe aus dem Oderbruch als auch in den Dachablaufproben nachgewiesen werden. Aufgrund ihrer physikalischen Eigenschaften wie Dampfdruck und Henry-Konstante ist die Voraussetzung für einen Eintrag in die Atmosphäre für alle im Rahmen dieser Arbeit untersuchten Substanzen generell gegeben. BHT und BHT-CHO konnten mit durchschnittlich 510 ng/l bzw. 171 ng/l in Niederschlag- und Dachablauf nachgewiesen werden (n=5). Der Maximalwert für BHT lag dabei bei 1797 ng/l in einer Dachablaufprobe und für BHT-CHO bei 474 ng/l in der Niederschlagsprobe. Die mittlere Konzentration der Phosphorsäureester in den untersuchten Niederschlags- und Dachablaufproben lag bei 951 ng/l für TBP, bei 151 ng/l für TCEP und bei 338 ng/l für TBEP. Dabei erreichte TBP ein Maximum von 1344 ng/l, TCEP von 327 ng/l und TBEP von 448 ng/l (die Maximalwerte der Phosphorsäureester wurden jeweils in einer Dachablaufprobe bestimmt). 4-NP wurde mit einer mittleren Konzentration von 942 ng/l im Niederschlag- und Dachablauf gemessen. Das 4-NP- Maximum lag bei 1231 ng/l (Dachablauf). BPA konnte mit durchschnittlich 1251 ng/l in Niederschlag- und Dachablauf nachgewiesen werden. Die maximale BPA-Konzentration lag dabei bei 4085 ng/l in der Niederschlagsprobe aus dem Oderbruch. Die hohen Konzentrationen von BPA im Regen konnten im Rahmen dieser Arbeit nicht erklärt werden. Die Verbindung besitzt einen sehr niedrigen Dampfdruck (0,000005 Pa bei 25°C), der nicht ausreicht, um solch hohe Konzentrationen in der Atmosphäre hervorzurufen. Eine Verunreinigung der Regenwasserproben bei der Probennahme ist hier als Grund für die hohen BPA-Konzentrationen in Betracht zu ziehen und durch die Analyse weiterer Niederschlags- und Dachablaufproben zu überprüfen. Die Substanzen BHT, BHT-CHO, TBP und 4-NP waren im Vergleich zum geklärten Abwasser in höheren Konzentrationen in Niederschlag und Dachablauf enthalten. Diese Stoffe werden somit verstärkt über die Atmosphäre mit den Niederschlägen in die Umwelt eingetragen. Hier besteht Klärungsbedarf bezüglich dessen, dass 4-NP zwar im Regenwasser nicht aber in den Zuläufen der kommunalen Kläranlagen nachgewiesen werden konnte. Die mittleren Regenwasserkonzentrationen von BHT, BHT-CHO, TBP und 4-NP lagen ebenfalls über den mittleren Konzentrationen in Oberflächen- und Grundwasser. Zwei der Dachablaufproben stammten aus dem Rhein-Main Gebiet. In solchen Ballungszentren sind häufig höhere Gehalte an organischen Umweltchemikalien im Regenwasser enthalten als in ländlichen Gebieten, was einen Anstieg der Durchschnittskonzentration in sämtlichen Regenwasserproben zur Folge hat. Hinzu kommt, dass sich Verbindungen wie 4-NP, die einen hohen Dampfdruck aufweisen, relativ gleichmäßig in der Atmosphäre verteilen und so auch in Gebiete gelangen, die nicht durch hohe Schadstoffemissionen gekennzeichnet sind. Dies hat ebenfalls relativ hohe Konzentrationen im Regenwasser zur Folge. Ein dritter Grund für die höheren Konzentrationen im Regenwasser im Vergleich zum Oberflächen- und Grundwasser könnte die Adsorption organischer Umweltchemikalien mit hohen Octanol/ Wasserverteilungskoeffizienten an Sedimentpartikel, Schwebstoffe und/oder organische Substanz in Fluss und Aquifer sein. Die mittleren Konzentrationen der beiden Phosphorsäureester TCEP, TBEP und BPA waren im Vergleich zum geklärten Abwasser der kommunalen Kläranlagen im Regenwasser deutlich niedriger. Der Eintrag über die Atmosphäre ist folglich für diese Verbindungen von geringerer Bedeutung. Am Beispiel des Phosphorsäureester TBEP konnte dennoch demonstriert werden, dass der atmosphärische Eintrag organischer Verbindungen mit relativ geringen Dampfdrücken nicht zu vernachlässigen ist, da solche Substanzen die Tendenz zeigen, an Aerosolpartikel zu adsorbieren und mit dem Aerosol transportiert zu werden. Oberflächenwasser Die untersuchten Umweltchemikalien konnten in fast allen Wasserproben aus den untersuchten Oberflächengewässern mit zum Teil erheblichen Konzentrationsschwankungen nachgewiesen werden. Für BHT lagen die Konzentrationen in den Oberflächengewässern zwischen Werten unterhalb der Nachweisgrenze (<1 ng/l) und 1594 ng/l. Der Metabolit BHT- CHO wies dagegen mit einem Konzentrationsbereich von Werten unterhalb der Nachweisgrenze (<5 ng/l) bis 236 ng/l durchweg geringere Konzentrationen in den Oberflächenwasserproben auf. Der Mittelwert lag für BHT bei 233 ng/l und für BHT-CHO bei 89 ng/l (n = 47). Die Konzentrationen der Phosphorsäureester TBP, TCEP und TBEP in den untersuchten Oberflächenwasserproben schwankten zwischen Gehalten unterhalb der Nachweisgrenzen (<7 ng/l für TBP, <5 ng/l für TCEP und <6 ng/l für TBEP) und 1510 ng/l für TBP. Dabei wiesen TBP und TBEP mit Mittelwerten von 481 bzw. 465 ng/l die höchsten Konzentrationen in den untersuchten Oberflächengewässern auf. Der Mittelwert der Substanz TCEP in allen untersuchten Oberflächenwasserproben lag dagegen nur bei 165 ng/l. Die Konzentrationen der Xenoöstrogene BPA und 4-NP reichten bis maximal 1672 bzw. 1220 ng/l. Die Nachweisgrenze für BPA lag bei 10 ng/l und für 4-NP bei 6 ng/l. 4-NP trug mit einem Mittelwert von 464 ng/l am meisten von allen untersuchten Verbindungen zur Gewässerverunreinigung bei. Der Mittelwert für BPA in den Oberflächengewässern lag bei 351 ng/l. In den hier untersuchten Flüssen in der BRD war die maximale BHT-Konzentration (1594 ng/l) um das 10fache geringer als die maximale BHT-Konzentration, die noch vor 30 Jahren in deutschen Oberflächengewässern gemessen wurde (14000 ng/l). Im Vergleich zu BHT- Gehalten in japanischen (1980) und amerikanischen (1975) Oberflächengewässern lagen die aktuellen BHT-Gehalte in deutschen Flüssen deutlich darunter. Die Konzentrationen für TBP und TCEP in deutschen Oberflächengewässern sind in der Vergangenheit ebenfalls deutlich zurückgegangen. Im internationalen Vergleich liegt die BRD in Bezug auf TBP-Gehalte in Oberflächengewässern mit an der Spitze. In der Elbe konnte für die Substanz TBEP in den letzten 15 Jahren ein leichter Konzentrationsanstieg beobachtet werden. Die TBEP- Konzentration in deutschen Oberflächengewässern ist im Vergleich zu Gehalten in japanischen und amerikanischen Flüssen sowie im Trinkwasser aus Kanada gering. Der BPA- Gehalt im Rhein ist in den letzten 10 Jahren geringfügig angestiegen. Im Vergleich mit Japan und Tschechien liegen die BPA-Konzentrationen in deutschen Flüssen innerhalb von Ballungsgebieten auf einem ähnlich hohen Niveau. Die Konzentrationsentwicklung des Xenoöstrogens 4-NP war seit 1986 in deutschen Oberflächengewässern stark rückläufig, was mit der freiwilligen Verzichterklärung in diesem Jahr zusammenhängt. Trotzdem tritt 4-NP auch heute noch in Konzentrationen im Nanogramm/Liter-Bereich in deutschen Flüssen auf. Die deutschen Werte lagen allerdings deutlich unterhalb der 4-NP-Konzentrationen in Oberflächengewässern der Schweiz, England, den USA und Taiwan.. Grundwasser Das Antioxidans BHT sowie sein Abbauprodukt BHT-CHO konnten in den meisten Grundwasserproben aus dem Oderbruch mit Gehalten bis zu 2156 bzw. 541 ng/l nachge- wiesen werden. Der Mittelwert für BHT im Grundwasser lag bei 353 ng/l und für BHT-CHO bei 105 ng/l (n=76). Die Verbindung 2-BHT wurde ausschließlich im Grundwasser nachgewiesen. Dies zeigt, dass die anaeroben Bedingungen im Aquifer des Oderbruchs zur Bildung des Dimeren von BHT geführt haben. Ob diese Vermutung stimmt, dass 2-BHT tatsächlich aus dem Antioxidans BHT gebildet wird, soll in naher Zukunft anhand mikrobiologischer Abbauversuche von BHT unter anaeroben Bedingungen geklärt werden. Die Gehalte der Phosphorsäureester im Grundwasser bewegten sich in Konzentrationsbereichen bis zu 1605 ng/l (TBP), bis zu 754 ng/l (TCEP) und bis zu 2010 ng/l (TBEP) mit einem Mittelwert für TBP von 276 ng/l, für TCEP von nur 80 ng/l und für TBEP von 289 ng/l. Der Maximalwert für BPA in den Grundwasserproben betrug 4557 ng/l. Der Mittelwert für diese Verbindung im Grundwasser lag bei 630 ng/l. Betrachtet man die BPA- Konzentration in den Grundwasserproben, fällt auf, dass diese sehr starken Schwankung unterliegt, die an dieser Stelle nicht erklärt werden können. Es besteht der Verdacht einer BPA-Kontamination der Grundwasserproben bei der Probennahme, da die beprobten Messstellen im Oderbruch zur Förderung des Grundwassers mit Kunststofflinern ausgestattet wurden, die eventuell BPA als Antioxidans enthalten. In Zukunft sind daher weitere Grundwasseranalysen mit einer verbesserten Probennahmetechnik notwendig, um eine Kontamination mit BPA auszuschließen. In den Grundwasserproben war das Isomerengemisch 4-NP, ebenso wie in den Oberflächenwasserproben, im Mittel mit der höchsten Konzentration vertreten (724 ng/l). Das 4-NP-Maximum lag dabei bei 2542 ng/l. Alle ausgewählten organischen Industriechemikalien konnten in den odernahen Bereichen innerhalb der Transsekte Bahnbrücke sowohl im Grundwasser aus dem Teilbereich des Aquifers, der nur durch infiltrierendes Oderwasser gespeist wird, als auch im Grundwasser aus dem Teilbereich des Aquifers, der überwiegend von infiltrierendem Niederschlagswasser beeinflusst wird, nachgewiesen werden. Die anthropogenen Stoffe gelangen also im Bereich der Transsekte Bahnbrücke sowohl über das Uferfiltrat als auch durch Niederschlagsinfiltration ins Grundwasser. Durch die Uferfiltration spiegelten sich die Konzentrationen der vor wenigen Tagen infiltrierten organischen Verbindungen aus dem Oderwasser direkt im Grundwasser aus odernahen Bereichen wieder. Auch weiter vom Fluss entfernt liegende Aquiferbereiche innerhalb der Transsekte Bahnbrücke wurden noch von infiltriertem Oderwasser beeinflusst. Die jahreszeitlichen Konzentrationsschwankungen demonstrieren hier jedoch die Flusskonzentrationen vor einigen Jahren, da das Oderwasser mehrere Jahre braucht, um in diese Bereiche zu gelangen. Weiterhin ist auch ein Stoffeintrag ins Grundwasser mit dem Oderwasser bei Hochwasserereignissen zu berücksichtigen. Generell nahmen die Konzentrationen der organischen Umweltchemikalien mit zunehmender Entfernung von der Oder ab, was den fehlenden Niederschlagseinfluss im Aquiferbereich der Transsekte Bahnbrücke bedingt durch die schützenden undurchlässigen Deckschichten demonstriert. Im Grundwasser, das aus dem Aquiferbereich in unmittelbarer Nähe der Entwässerungsgräben stammte, war häufig eine Konzentrationsabnahme der organischen Umweltchemikalien zu beobachten. Dies beweist den hydraulischen Zusammenhang zwischen Fluss und Entwässerungsgräben. Das infiltrierte Flusswasser steigt nach der Aquiferpassage in Grabennähe auf, was zu Verdünnungseffekten im Grundwasser verbunden mit einer Konzentrationsabnahme führt. Weiterhin wurden die ausgewählten Stoffe auch in den Grundwasserproben aus dem Aquiferbereich der Transsekte Nieschen nachgewiesen, der durch das Fehlen undurchlässiger Deckschichten gekennzeichnet ist. Da hier aufgrund der Entfernung dieser Transsekte von der Oder der hydraulische Kontakt zum Fluss stark eingeschränkt ist, sind die im Grundwasser auftretenden organischen Umweltchemikalien auf einen Eintrag mit dem infiltrierenden Niederschlagswasser zurückzuführen. Für einen Eintrag der Substanzen mit dem Niederschlagswasser spricht auch die Tatsache, dass die mittleren Konzentrationen der organischen Verbindungen in den Grundwasserproben aus der Transsekte Nieschen im Gegensatz zu denen aus der Transsekte Bahnbrücke trotz eines fehlenden hydraulischen Kontakts zur Oder erhöht waren. Die starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen können zum einen auf einen Eintrag dieser Substanzen mit dem Niederschlag zurückgeführt werden. Der Aquifer im Oderbruch ist heterogen ausgebildet, was den Eintrag organischer Stoffe mit den Niederschlägen ins Grundwasser lokal fördert oder hemmt und es dadurch zu unterschiedlichen Konzentrationen kommt. Zum anderen kann angenommen werden, dass die Konzentrationsschwankungen in diesem Aquiferbereich Folge einer Aufkonzentrierung der gelösten organischen Stoffe durch Verdunstung des oberflächennahen Grundwassers waren. Diese Annahme bestätigen die erhöhten Konzentrationen der Stoffe im Grundwasser im November 2000 und im März 2001 im Vergleich zum März 2000. Zu beiden Zeitpunkten waren die Niederschläge gering, was sich im Niedrigwasserstand der Oder wiederspiegelte. Vor allem in niederschlagsarmen Gebieten wie das Oderbruch, kann dieser Prozess der Aufkonzentrierung organischer Stoffe im Grundwasser durch Evaporation von Bedeutung sein. Die Frage, ob letztendlich der Niederschlagseintrag oder der umgekehrte Prozess, die Evaporation des Grundwassers, zu den starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen geführt hat, kann an dieser Stelle nicht beantwortet werden. Sicher ist, dass bei fehlenden undurchlässigen Deckschichten ein atmosphärische Eintrag organischer Umweltchemikalien in den Aquifer stattfindet. Auch in den Messstellen, die außerhalb der beiden Transsekten Nieschen und Bahnbrücke ca. 3000 bzw. 5000 m entfernt von der Oder liegen, konnten die organischen Verbindungen zum Teil in erheblichen Konzentrationen nachgewiesen werden. Dies ist zum einen wiederum mit einem Eintrag durch Niederschlagswasser und dem Transport der organischen Umweltchemikalien in größere Tiefen des Aquifers mit dem Sickerwasser zu erklären. Die undurchlässige Auelehmschicht ist in diesem Bereich nicht mehr vorhanden, so dass das Niederschlagswasser ungehindert in den Aquifer infiltrieren kann. Ein Einfluss des Oderfiltrats in dieser Entfernung vom Fluss kann ausgeschlossen werden, da in den mittleren Bereichen des Oderbruchs 50-100 Jahre für einen vollständigen Grundwasseraustausch realistisch sind und die Produktion sämtlicher Industriechemikalien, die Gegenstand dieser Arbeit sind, zu diesen Zeiten ohne Bedeutung war. Eine Remobilisierung der organischen Umweltchemikalien aus Klärschlamm, der im Land Brandenburg noch häufig auf Agrarflächen aufgebracht wird, muss als Eintragsquelle hier ebenfalls in Betracht gezogen werden, da Stoffe mit einem hohen Octanol/ Wasserverteilungskoeffizienten häufig die Tendenz zeigen, an Klärschlamm zu akkumulieren. Der photochemische Abbau des Antioxidationsmittels BHT zu seinem Metabolit BHT-CHO in der Atmosphäre war im Sommer höher als im Herbst und im Frühjahr, wobei der Metabolit selbst ebenfalls Abbauprozessen unterlag. Im Gegensatz dazu spielte der photochemische Abbau von TBP, TCEP, TBEP und 4-NP zu keinen Zeitpunkt eine große Rolle. Solange keine nennenswerten Direkteinleitungen in die Oder zu verzeichnen waren, konnte flussabwärts eine Konzentrationsabnahme für alle organischen Verbindungen festgestellt werden, welche auf aeroben Abbau der Substanzen zurückgeführt werden kann. Im Frühjahr war der Sauerstoffgehalt im Fluss mit 12,05 mg/l aufgrund der geringen Wassertemperatur (6,9 °C) und des Hochwasserereignisses am höchsten. Dies hatte höhere aerobe Abbauraten von BHT zu BHT-CHO zu diesem Zeitpunkt zur Folge. Ob es sich tatsächlich um einen biologischen Abbau der organischen Substanzen handelt oder ob Adsorptionseffekte an Schwebstoffe und Sedimente bei der Eliminierung dieser Stoffe ebenfalls eine Rolle spielen, muss anhand zukünftiger Analysen von Odersedimenten- und Schwebstoffen auf solche Substanzen geklärt werden. Der Abbau unter anaeroben Bedingungen, wie sie im Grundwasserleiter des Oderbruchs durchweg herrschen, spielte dagegen im Bezug auf alle untersuchten Verbindungen keine große Rolle, da diese in allen Tiefen des Aquifers (bis 21 m) noch nachgewiesen werden konnten. Sind sie einmal in das Grundwasser gelangt, werden sie aufgrund ihrer relativ guten Wasserlöslichkeit also leicht mit diesem in tiefere Bereiche transportiert. Sie sind damit relativ mobil. Die organischen Umweltchemikalien werden auch nicht wesentlich durch Adsorption an Sediment und/oder organischer Substanz zurückgehalten und dadurch aus dem Grundwasser eliminiert. Solche Faktoren wie ein schlechter anaerober Abbau, eine gute Wasserlöslichkeit und eine geringe Adsorption an Boden und Sediment einiger Schadstoffe müssen bei der Trinkwasserförderung aus tieferen Aquiferbereichen berücksichtigt werden. Chemikalien mit guten Wasserlöslichkeiten, wie beispielsweise die beiden Phosphorsäureester TCEP und TBEP, zeigten sogar die Tendenz sich besonders in den tieferen Aquiferbereichen anzureichern. Die Ergebnisse dieser Arbeit zeigen auch, dass es selbst in Gebieten wie dem Oderbruch, in denen die Grundwasserneubildung durch Niederschlag eine eher geringe Rolle spielt, durchaus zu einen nicht zu vernachlässigenden Eintrag von Stoffen durch Niederschlagswasser kommt und eine hohe Verdunstungsrate zu einer Aufkonzentrierung führt. Dies bedeutet, dass bei einer Betrachtung von hydrochemischen Prozessen in einem Grundwasserleiter, der hauptsächlich durch Uferfiltrat gespeist wird, keine einfache räumliche Struktur zugrunde gelegt werden kann. Zum lateralem Zustrom des infiltrierenden Flusswassers kommt der vertikale Einfluss des Sickerwassers. Dies muss neben Faktoren wie anaerober Abbau, Adsorption und Verdünnungseffekte bei der Interpretation des Schadstoffeintrags- und Transports im Grundwasser berücksichtigt werden.
Diese Arbeit beschreibt Entwürfe zur Anwendung einer nicht-interpolierenden Advektionsmethode in numerischen Wettervorhersagemodellen. Es wird an verschiedenen Beispielen dargestellt, in welcher Weise eine solche nicht-interpolierende Methode anstelle von herkömmlichen Differenzen- oder interpolierenden Lagrangeschen Verfahren einsetzbar ist. Die in der meteorologischen Modellierung neuartige nicht-interpolierende Advektionsmethode verwendet das Partikel-Lagrangesche Konzept von Steppeler (1990a), das die Verlagerung von atmosphärischen Größen mittels Partikeln berechnet, wobei die Partikeln als Luftpakete zu verstehen sind, die sich entlang der Trajektorien bewegen und dabei den Wert der prognostischen Größen erhalten. Diese Eigenschaft der Methode kommt vor allem dann zum Tragen, wenn die Verteilung der prognostischen Größen durch Sprungfunktionen beschrieben wird, da Näherungsfehler der bislang verwendeten Methoden, wie Oszillation und Glättung, an solchen Gradienten verstärkt auftreten. Die Untersuchung der Genauigkeit und Anwendbarkeit der nicht-interpolierenden Partikel-Lagrangeschen Methode findet durch Modellstudien statt. Die Methode selbst wird am Beispiel verschiedener Anfangswert-Aufgaben für ein dichtekonstantes barotropes Flachwasser-System beschrieben, gefolgt von der Nachbildung von zwei Ausbreitungsszenarien für chemisch träge Stoffe in einer hydrostatischen Modellatmosphäre, sowie des trocken- und feuchtadiabatischen Aufstiegs einer warmen Luftblase unter nicht- hydrostatischen Bedingungen. Im Hinblick auf numerische Fehler wird gefordert, daß die numerische Lösung monoton bleibt, wobei unter Monotonität ein oszillationsfreier Verlauf der Lösung verstanden wird. Mittels Vergleich zwischen den numerischen Lösungen wird festgestellt, daß die Genauigkeit der nicht-interpolierenden numerischen Lösung mit Ausnahme einer Anfangswert-Aufgabe gleich oder höher ist als bei den mit herkömmlichen Methoden erzielten Resultaten. Eine herausragende Steigerung der Genauigkeit ist dann zu beobachten, wenn die Advektion im Vergleich zu anderen Prozessen eine viel stärkere Rolle spielt, wie z.B. im Falle der Konvektion in trockener Atmosphäre.
Die vorliegende Arbeit liefert einen Beitrag zum Verständnis der Rolle des RO x bei der troposphärischen Ozonbildung. Troposphärisches Ozon (O 3 ) spielt eine wichtige Rolle bei der Selbstreinigung der Atmosphäre. Andererseits führen erhöhte Ozonkonzentrationen zu gesundheitlichen Beeinträchtigungen beim Menschen und Schäden an Pflanzen und Umwelt. Die Anwesenheit von flüchtigen organischen Verbindungen (VOCs) führt zur Bildung von Peroxyradikalen (RO x ), die das normale photochemische Gleichgewicht zwischen Ozon und Stickoxiden zu Gunsten erhöhter OzonKonzentrationen verschieben. Im Rahmen der Arbeit wurde ein chemischer Verstärker zur Messung der GesamtPeroxyradikalkonzentration gebaut. RO x reagiert im Einlass des Gerätes mit hinzugefügtem NO und CO in einer Kettenreaktion und bildet dabei NO 2 . Dieses wird mit einem Luminoldetektor nachgewiesen. Der Detektor wird alle 2 Stunden kalibriert. Die Kettenlänge wird durch eine Kalibrierung des Gerätes mit HO 2 Radikalen bestimmt, die durch die Photolyse von H 2 O gebildet werden. Der Verstärkungsfaktor wurde in Bezug auf eine Querempfindlichkeit gegen Wasserdampf korrigiert. Die Messgenauigkeit ist etwa 70% bei 60% relativer Feuchte. Messungen am Taunus Observatorium auf dem Kleinen Feldberg in den Sommermonaten der beiden Jahre 1998 und 1999 werden vorgestellt. Die Ozon und RO x Konzentrationen sind gut miteinander korreliert. Allerdings ist die Tagestemperatur die für die Ozon und RO x Konzentrationen bei weitem wichtigste Einflussgröße und ist daher der beste Parameter zur statistischen Beschreibung von photochemischen Vorgängen. Auf der Grundlage der Messungen am Kleinen Feldberg wurde ein einfaches statistisches Modell zur Vorhersage des Ozonmaximums erstellt. Mit den Parametern Temperatur und Ozonkonzentration am Vortag konnte das statistische Modell bereits 80% der Variation der Ozonkonzentration erklären. Durch die Berücksichtigung der RO x Messungen am Vormittag konnte lediglich eine Verbesserung der erklärten Varianz um 0.5% erzielt werden. Um einen Hinweis auf den Einfluss anthropogener Emissionen zu bekommen, wurde der Wochengang von Ozon, RO x und NO x ebenfalls untersucht. Die Zunahme des Ozonmischungsverhältnisses am Wochenende bei gleichzeitigem Rückgang des Mischungsverhältnisses der Stickoxide wird damit erklärt, dass am Kleinen Feldberg eine VOClimitierte Situation vorgefunden wurde. Die Ozonbildungsrate auf Basis der Reaktion zwischen RO x und NO wurde für Tage mit einem Maximum der Globalstrahlung über 600 W m tdatensatz niedrig (r = 0,46). Die beobachtete Änderung des Ozonmischungsverhältnisses wurde mit dem berechneten mittleren Tagesgang der Ozonbildungsrate verglichen. Die Ozonbildungsrate lag um die Mittagszeit bei etwa 5 ppbv h Verlustprozesse zu erklären. Am Abend werden etwa 2 ppbv O 3 pro Stunde abgebaut. Im Rahmen einer Messkampagne im Juni/Juli 2000 am Meteorologischen Observatorium Hohenpeißenberg fanden Messungen der Konzentrationen von RO x , OH, einer Reihe von VOCs, und anderen relevanten Spurengasen statt. Die Messdaten werden mit Hilfe eines auf der Annahme des lokalen photostationären Gleichgewichts der Radikale basierenden Modells interpretiert. Die Modellergebnisse stimmten sehr gut mit den Messungen überein. Die Überschätzung der Konzentration an 2 Tagen wurde durch den Einfluss sauerstoffhaltiger VOCs erklärt. Das '' Recycling" der HO 2 Radikale (die Reaktion zwischen HO 2 und NO) ist die wichtigste Quelle für OH und die wichtigste Senke für RO x . Durch die erhöhte NOKonzentration am Vormittag wird HO 2 sehr schnell in OH umgewandelt, das wiederum für die VOCOxidation und RO x Bildung verantwortlich ist. Die wichtigste OHSenke und RO x Quelle ist die Oxidation von Isopren und den Terpenen. Um die Rolle der photochemischen Ozonbildung auf regionaler Skala zu untersuchen, wurden Ozonmessungen aus ganz Deutschland auf unterschiedlichen zeitlichen und räumlichen Skalen statistisch untersucht. Die Netto Änderungsrate der Ozonkonzentration war tagsüber an 3 nahe zusammenliegenden Stationen sehr ähnlich. Die OzonMessdaten von 277 deutschen Messstationen wurden mit den an einer Waldmessstelle nahe Königstein gemessenen Ozonwerten korreliert. Die Ozonmessungen in Königstein erklären 50% der Varianz der sommerlichen Ozonmessungen zwischen 11:00 und 16:00 MEZ an Stationen, die in einem Umkreis von etwa 250 km von Königstein liegen. Auf das ganze Jahr bezogen, liegt diese ''charakteristische Entfernung" bei etwa 350 km. Diese Ergebnisse deuten darauf hin, dass die Prozesse, die einen wichtigen Einfluss auf die Ozonkonzentration ausüben, auf regionalen Skalen von einigen hundert Kilometern aktiv sind. Zusammenfassend lässt sich sagen, dass die gemessenen RO x Konzentrationen mit den aufgrund der Oxidation der VOCs durch OH berechneten Konzentrationen konsistent sind. Obwohl die RO x Konzentationen für die chemische Modellierung von Bedeutung sind, tragen RO x Messungen nur wenig zu einer Verbesserung der Qualität von kurzfristigen statistischen Ozonprognosen bei. Keywords: Ozone, Troposphere, Peroxy Radicals, Free Radicals, Photochemistry, Chemical Amplifier