550 Geowissenschaften
Refine
Year of publication
Document Type
- Article (907)
- Doctoral Thesis (194)
- Contribution to a Periodical (32)
- Book (26)
- Working Paper (22)
- Part of Periodical (21)
- Conference Proceeding (18)
- Part of a Book (9)
- Diploma Thesis (8)
- diplomthesis (7)
Language
Keywords
- climate change (11)
- Climate change (8)
- Klima (8)
- Klimaänderung (7)
- Modellierung (7)
- COSMO-CLM (6)
- Klimawandel (6)
- Palaeoclimate (6)
- precipitation (6)
- Atmospheric chemistry (5)
Institute
- Geowissenschaften (778)
- Geowissenschaften / Geographie (148)
- Biodiversität und Klima Forschungszentrum (BiK-F) (62)
- Geographie (61)
- Senckenbergische Naturforschende Gesellschaft (57)
- Präsidium (44)
- Extern (28)
- Biowissenschaften (22)
- Institut für Ökologie, Evolution und Diversität (10)
- Physik (8)
Measurements of OH, total peroxy radicals, non-methane hydrocarbons (NMHCs) and various other trace gases were made at the Meteorological Observatory Hohenpeissenberg in June 2000. The data from an intensive measurement period characterised by high solar insolation (18-21 June) are analysed. The maximum midday OH concentration ranged between 4.5x106 molecules cm-3 and 7.4x106 molecules cm-3. The maximum total ROx (ROx =OH+RO+HO2+RO2) mixing ratio increased from about 55 pptv on 18 June to nearly 70 pptv on 20 and 21 June. A total of 64 NMHCs, including isoprene and monoterpenes, were measured every 1 to 6 hours. The oxidation rate of the NMHCs by OH was calculated and reached a total of over 14x106 molecules cm-3 s-1 on two days. A simple photostationary state balance model was used to simulate the ambient OH and peroxy radical concentrations with the measured data as input. This approach was able to reproduce the main features of the diurnal profiles of both OH and peroxy radicals. The balance equations were used to test the effect of the assumptions made in this model. The results proved to be most sensitive to assumptions about the impact of unmeasured volatile organic compounds (VOC), e.g. formaldehyde (HCHO), and about the partitioning between HO2 and RO2. The measured OH concentration and peroxy radical mixing ratios were reproduced well by assuming the presence of 3 ppbv HCHO as a proxy for oxygenated hydrocarbons, and a HO2/ RO2 ratio between 1:1 and 1:2. The most important source of OH, and conversely the greatest sink for peroxy radicals, was the recycling of HO2 radicals to OH. This reaction was responsible for the recycling of more than 45x106 molecules cm-3 s-1 on two days. The most important sink for OH, and the largest source of peroxy radicals, was the oxidation of NMHCs, in particular, of isoprene and the monoterpenes.
Subvisible cirrus clouds (SVCs) may contribute to dehydration close to the tropical tropopause. The higher and colder SVCs and the larger their ice crystals, the more likely they represent the last efficient point of contact of the gas phase with the ice phase and, hence, the last dehydrating step, before the air enters the stratosphere. The first simultaneous in situ and remote sensing measurements of SVCs were taken during the APE-THESEO campaign in the western Indian ocean in February/March 1999. The observed clouds, termed Ultrathin Tropical Tropopause Clouds (UTTCs), belong to the geometrically and optically thinnest large-scale clouds in the Earth´s atmosphere. Individual UTTCs may exist for many hours as an only 200--300 m thick cloud layer just a few hundred meters below the tropical cold point tropopause, covering up to 105 km2. With temperatures as low as 181 K these clouds are prime representatives for defining the water mixing ratio of air entering the lower stratosphere.
We have used the SLIMCAT 3-D off-line chemical transport model (CTM) to quantify the Arctic chemical ozone loss in the year 2002/2003 and compare it with similar calculations for the winters 1999/2000 and 2003/2004. Recent changes to the CTM have improved the model's ability to reproduce polar chemical and dynamical processes. The updated CTM uses σ-θ as a vertical coordinate which allows it to extend down to the surface. The CTM has a detailed stratospheric chemistry scheme and now includes a simple NAT-based denitrification scheme in the stratosphere.
In the model runs presented here the model was forced by ECMWF ERA40 and operational analyses. The model used 24 levels extending from the surface to ~55km and a horizontal resolution of either 7.5° x 7.5° or 2.8° x 2.8°. Two different radiation schemes, MIDRAD and the CCM scheme, were used to diagnose the vertical motion in the stratosphere. Based on tracer observations from balloons and aircraft, the more sophisticated CCM scheme gives a better representation of the vertical transport in this model which includes the troposphere. The higher resolution model generally produces larger chemical O3 depletion, which agrees better with observations.
The CTM results show that very early chemical ozone loss occurred in December 2002 due to extremely low temperatures and early chlorine activation in the lower stratosphere. Thus, chemical loss in this winter started earlier than in the other two winters studied here. In 2002/2003 the local polar ozone loss in the lower stratosphere was ~40% before the stratospheric final warming. Larger ozone loss occurred in the cold year 1999/2000 which had a persistently cold and stable vortex during most of the winter. For this winter the current model, at a resolution of 2.8° x 2.8°, can reproduce the observed loss of over 70% locally. In the warm and more disturbed winter 2003/2004 the chemical O3 loss was generally much smaller, except above 620K where large losses occurred due to a period of very low minimum temperatures at these altitudes.
Number concentrations of total and non-volatile aerosol particles with size diameters >0.01 μm as well as particle size distributions (0.4–23 μm diameter) were measured in situ in the Arctic lower stratosphere (10–20.5 km altitude). The measurements were obtained during the campaigns European Polar Stratospheric Cloud and Lee Wave Experiment (EUPLEX) and Envisat-Arctic-Validation (EAV). The campaigns were based in Kiruna, Sweden, and took place from January to March 2003. Measurements were conducted onboard the Russian high-altitude research aircraft Geophysica using the low-pressure Condensation Nucleus Counter COPAS (COndensation PArticle Counter System) and a modified FSSP 300 (Forward Scattering Spectrometer Probe). Around 18–20 km altitude typical total particle number concentrations nt range at 10–20 cm−3 (ambient conditions). Correlations with the trace gases nitrous oxide (N2O) and trichlorofluoromethane (CFC-11) are discussed. Inside the polar vortex the total number of particles >0.01 μm increases with potential temperature while N2O is decreasing which indicates a source of particles in the above polar stratosphere or mesosphere. A separate channel of the COPAS instrument measures the fraction of aerosol particles non-volatile at 250°C. Inside the polar vortex a much higher fraction of particles contained non-volatile residues than outside the vortex (~67% inside vortex, ~24% outside vortex). This is most likely due to a strongly increased fraction of meteoric material in the particles which is transported downward from the mesosphere inside the polar vortex. The high fraction of non-volatile residual particles gives therefore experimental evidence for downward transport of mesospheric air inside the polar vortex. It is also shown that the fraction of non-volatile residual particles serves directly as a suitable experimental vortex tracer. Nanometer-sized meteoric smoke particles may also serve as nuclei for the condensation of gaseous sulfuric acid and water in the polar vortex and these additional particles may be responsible for the increase in the observed particle concentration at low N2O. The number concentrations of particles >0.4 μm measured with the FSSP decrease markedly inside the polar vortex with increasing potential temperature, also a consequence of subsidence of air from higher altitudes inside the vortex. Another focus of the analysis was put on the particle measurements in the lowermost stratosphere. For the total particle density relatively high number concentrations of several hundred particles per cm3 at altitudes below ~14 km were observed in several flights. To investigate the origin of these high number concentrations we conducted air mass trajectory calculations and compared the particle measurements with other trace gas observations. The high number concentrations of total particles in the lowermost stratosphere are probably caused by transport of originally tropospheric air from lower latitudes and are potentially influenced by recent particle nucleation.
We report measurements of the deuterium content of molecular hydrogen (H2) obtained from a suite of air samples that were collected during a stratospheric balloon flight between 12 and 33 km at 40º N in October 2002. Strong deuterium enrichments of up to 400 permil versus Vienna Standard Mean Ocean Water (VSMOW) are observed, while the H2 mixing ratio remains virtually constant. Thus, as hydrogen is processed through the H2 reservoir in the stratosphere, deuterium is accumulated in H2 . Using box model calculations we investigated the effects of H2 sources and sinks on the stratospheric enrichments. Results show that considerable isotope enrichments in the production of H2 from CH4 must take place, i.e., deuterium is transferred preferentially to H2 during the CH4 oxidation sequence. This supports recent conclusions from tropospheric H2 isotope measurements which show that H2 produced photochemically from CH4 and non-methane hydrocarbons must be enriched in deuterium to balance the tropospheric hydrogen isotope budget. In the absence of further data on isotope fractionations in the individual reaction steps of the CH4 oxidation sequence, this effect cannot be investigated further at present. Our measurements imply that molecular hydrogen has to be taken into account when the hydrogen isotope budget in the stratosphere is investigated.
Balloon-borne measurements of CFC11 (from the DIRAC in situ gas chromatograph and the DESCARTES grab sampler), ClO and O3 were made during the 1999/2000 Arctic winter as part of the SOLVE-THESEO 2000 campaign, based in Kiruna (Sweden). Here we present the CFC11 data from nine flights and compare them first with data from other instruments which flew during the campaign and then with the vertical distributions calculated by the SLIMCAT 3D CTM. We calculate ozone loss inside the Arctic vortex between late January and early March using the relation between CFC11 and O3 measured on the flights. The peak ozone loss (~1200ppbv) occurs in the 440-470K region in early March in reasonable agreement with other published empirical estimates. There is also a good agreement between ozone losses derived from three balloon tracer data sets used here. The magnitude and vertical distribution of the loss derived from the measurements is in good agreement with the loss calculated from SLIMCAT over Kiruna for the same days.
Turbulent fluxes of carbonyl sulfide (COS) and carbon disulfide (CS2) were measured over a spruce forest in Central Germany using the relaxed eddy accumulation (REA) technique. A REA sampler was developed and validated using simultaneous measurements of CO2 fluxes by REA and by eddy correlation. REA measurements were conducted during six campaigns covering spring, summer, and fall between 1997 and 1999. Both uptake and emission of COS and CS2 by the forest were observed, with deposition occurring mainly during the sunlit period and emission mainly during the dark period. On the average, however, the forest acts as a sink for both gases. The average fluxes for COS and CS2 are -93 ± 11.7 pmol m-2 s-1 and -18 ± 7.6 pmol m-2 s-1, respectively. The fluxes of both gases appear to be correlated to photosynthetically active radiation and to the CO2 and \chem{H_2O} fluxes, supporting the idea that the air-vegetation exchange of both gases is controlled by stomata. An uptake ratio COS/CO2 of 10 ± 1.7 pmol m mol-1 has been derived from the regression line for the correlation between the COS and CO2 fluxes. This uptake ratio, if representative for the global terrestrial net primary production, would correspond to a sink of 2.3 ± 0.5 Tg COS yr-1.
A comprehensive set of stratospheric balloon and aircraft samples was analyzed for the position-dependent isotopic composition of nitrous oxide (N2O). Results for a total of 220 samples from between 1987 and 2003 are presented, nearly tripling the number of mass-spectrometric N2O isotope measurements in the stratosphere published to date. Cryogenic balloon samples were obtained at polar (Kiruna/Sweden, 68° N), mid-latitude (southern France, 44° N) and tropical sites (Hyderabad/India, 18° N). Aircraft samples were collected with a newly-developed whole air sampler on board of the high-altitude aircraft M55 Geophysica during the EUPLEX 2003 campaign. For mixing ratios above 200 nmol mol−1, relative isotope enrichments (δ values) and mixing ratios display a compact relationship, which is nearly independent of latitude and season and which can be explained equally well by Rayleigh fractionation or mixing. However, for mixing ratios below 200 nmol mol−1 this compact relationship gives way to meridional, seasonal and interannual variations. A comparison to a previously published mid-latitude balloon profile even shows large zonal variations, justifying the use of three-dimensional (3-D) models for further data interpretation.
In general, the magnitude of the apparent fractionation constants (i.e., apparent isotope effects) increases continuously with altitude and decreases from the equator to the North Pole. Only the latter observation can be understood qualitatively by the interplay between the time-scales of N2O photochemistry and transport in a Rayleigh fractionation framework. Deviations from Rayleigh fractionation behavior also occur where polar vortex air mixes with nearly N2O-free upper stratospheric/mesospheric air (e.g., during the boreal winters of 2003 and possibly 1992). Aircraft observations in the polar vortex at mixing ratios below 200 nmol mol−1 deviate from isotope variations expected for both Rayleigh fractionation and two-end-member mixing, but could be explained by continuous weak mixing between intravortex and extravortex air (Plumb et al., 2000). However, it appears that none of the simple approaches described here can capture all features of the stratospheric N2O isotope distribution, again justifying the use of 3-D models. Finally, correlations between 18O/16O and average 15N/14N isotope ratios or between the position-dependent 15N/14N isotope ratios show that photo-oxidation makes a large contribution to the total N2O sink in the lower stratosphere (possibly up to 100% for N2O mixing ratios above 300 nmol mol−1). Towards higher altitudes, the temperature dependence of these isotope correlations becomes visible in the stratospheric observations.
Balloon-borne stratospheric BrO measurements: comparison with Envisat/SCIAMACHY BrO limb profiles
(2006)
For the first time, results of all four existing stratospheric BrO profiling instruments, are presented and compared with reference to the SLIMCAT 3-dimensional chemical transport model (3-D CTM). Model calculations are used to infer a BrO profile validation set, measured by 3 different balloon sensors, for the new Envisat/SCIAMACHY (ENVIronment SATellite/SCanning Imaging Absorption spectroMeter for Atmospheric CHartographY) satellite instrument. The balloon observations include (a) balloon-borne in situ resonance fluorescence detection of BrO, (b) balloon-borne solar occultation DOAS measurements (Differential Optical Absorption Spectroscopy) of BrO in the UV, and (c) BrO profiling from the solar occultation SAOZ (Systeme d'Analyse par Observation Zenithale) balloon instrument. Since stratospheric BrO is subject to considerable diurnal variation and none of the measurements are performed close enough in time and space for a direct comparison, all balloon observations are considered with reference to outputs from the 3-D CTM. The referencing is performed by forward and backward air mass trajectory calculations to match the balloon with the satellite observations. The diurnal variation of BrO is considered by 1-D photochemical model calculation along the trajectories. The 1-D photochemical model is initialised with output data of the 3-D model with additional constraints on the vertical transport, the total amount and photochemistry of stratospheric bromine as given by the various balloon observations. Total [Bry]=(20.1±2.8)pptv obtained from DOAS BrO observations at mid-latitudes in 2003, serves as an upper limit of the comparison. Most of the balloon observations agree with the photochemical model predictions within their given error estimates. First retrieval exercises of BrO limb profiling from the SCIAMACHY satellite instrument agree to <±50% with the photochemically-corrected balloon observations, and tend to show less agreement below 20 km.
During SPURT (Spurenstofftransport in der Tropopausenregion, trace gas transport in the tropopause region) we performed measurements of a wide range of trace gases with different lifetimes and sink/source characteristics in the northern hemispheric upper troposphere (UT) and lowermost stratosphere (LMS). A large number of in-situ instruments were deployed on board a Learjet 35A, flying at altitudes up to 13.7 km, at times reaching to nearly 380 K potential temperature. Eight measurement campaigns (consisting of a total of 36 flights), distributed over all seasons and typically covering latitudes between 35° N and 75° N in the European longitude sector (10° W–20° E), were performed. Here we present an overview of the project, describing the instrumentation, the encountered meteorological situations during the campaigns and the data set available from SPURT. Measurements were obtained for N2O, CH4, CO, CO2, CFC12, H2, SF6, NO, NOy, O3 and H2O. We illustrate the strength of this new data set by showing mean distributions of the mixing ratios of selected trace gases, using a potential temperature – equivalent latitude coordinate system. The observations reveal that the LMS is most stratospheric in character during spring, with the highest mixing ratios of O3 and NOy and the lowest mixing ratios of N2O and SF6. The lowest mixing ratios of NOy and O3 are observed during autumn, together with the highest mixing ratios of N2O and SF6 indicating a strong tropospheric influence. For H2O, however, the maximum concentrations in the LMS are found during summer, suggesting unique (temperature- and convection-controlled) conditions for this molecule during transport across the tropopause. The SPURT data set is presently the most accurate and complete data set for many trace species in the LMS, and its main value is the simultaneous measurement of a suite of trace gases having different lifetimes and physical-chemical histories. It is thus very well suited for studies of atmospheric transport, for model validation, and for investigations of seasonal changes in the UT/LMS, as demonstrated in accompanying and elsewhere published studies.
During several balloon flights inside the Arctic polar vortex in early 2003, unusual trace gas distributions were observed, which indicate a strong influence of mesospheric air in the stratosphere. The tuneable diode laser (TDL) instrument SPIRALE (Spectroscopie InFrarouge par Absorption de Lasers Embarqués) measured unusually high CO values (up to 600 ppb) on 27 January at about 30 km altitude. The cryosampler BONBON sampled air masses with very high molecular Hydrogen, extremely low SF6 and enhanced CO values on 6 March at about 25 km altitude. Finally, the MIPAS (Michelson Interferometer for Passive Atmospheric Sounding) Fourier Transform Infra-Red (FTIR) spectrometer showed NOy values which are significantly higher than NOy* (the NOy derived from a correlation between N2O and NOy under undisturbed conditions), on 21 and 22 March in a layer centred at 22 km altitude. Thus, the mesospheric air seems to have been present in a layer descending from about 30 km in late January to 25 km altitude in early March and about 22 km altitude on 20 March. We present corroborating evidence from a model study using the KASIMA (KArlsruhe Simulation model of the Middle Atmosphere) model that also shows a layer of mesospheric air, which descended into the stratosphere in November and early December 2002, before the minor warming which occurred in late December 2002 lead to a descent of upper stratospheric air, cutting of a layer in which mesospheric air is present. This layer then descended inside the vortex over the course of the winter. The same feature is found in trajectory calculations, based on a large number of trajectories started in the vicinity of the observations on 6 March. Based on the difference between the mean age derived from SF6 (which has an irreversible mesospheric loss) and from CO2 (whose mesospheric loss is much smaller and reversible) we estimate that the fraction of mesospheric air in the layer observed on 6 March, must have been somewhere between 35% and 100%.
A new version of a digital global map of irrigation areas was developed by combining irrigation statistics for 10 825 sub-national statistical units and geo-spatial information on the location and extent of irrigation schemes. The map shows the percentage of each 5 arc minute by 5 arc minute cell that was equipped for irrigation around the year 2000. It is thus an important data set for global studies related to water and land use. This paper describes the data set and the mapping methodology and gives, for the first time, an estimate of the map quality at the scale of countries, world regions and the globe. Two indicators of map quality were developed for this purpose, and the map was compared to irrigated areas as derived from two remote sensing based global land cover inventories.
Flow velocity in rivers has a major impact on residence time of water and thus on high and low water as well as on water quality. For global scale hydrological modeling only very limited information is available for simulating flow velocity. Based on the Manning-Strickler equation, a simple algorithm to model temporally and spatially variable flow velocity was developed with the objective of improving flow routing in the global hydrological model of Water- GAP. An extensive data set of flow velocity measurements in US rivers was used to test and to validate the algorithm before integrating it into WaterGAP. In this test, flow velocity was calculated based on measured discharge and compared to measured velocity. Results show that flow velocity can be modeled satisfactorily at selected river cross sections. It turned out that it is quite sensitive to river roughness, and the results can be optimized by tuning this parameter. After the validation of the approach, the tested flow velocity algorithm has been implemented into the WaterGAP model. A final validation of its effects on the model results is currently performed.
Der vorliegende Hand-Atlas von Afrika ist in besonderer Beziehung auf das Werk über allgemeine vergleichende Geographie von C. Ritter herausgegeben. Die darin enthaltenen Karten und Pläne sollen zunächst als Beilagen für dies Werk betrachtet werden, bilden aber dem unerachtet auch ein für sich Bestehendes. Außer den eigentlichen Karten sind noch einige Ansichts - und Durchschnittszeichnungen zur besseren Versinnlichung besonders merkwürdiger Ländertheile hinzugefügt. Die 14 Blatt des Atlasses enthalten die Darstellung folgender geographischer Gegenstände : 1. Karte von Afrika, als Übersicht der Speciablätter. Auf dieser sind die Reisen von Clapperton im Norden und die der Portugiesen im Süden, welche seit der Erscheinung der 2ten Auflage des Theiles I. der Allgemeinen Erdkunde von C. Ritter bekannt wurden, bloß durch farbige Linien angedeutet: ihre nähere Erklärung soll später erfolgen, und zwar in den künftig erscheinenden Beiträgen und Nachträgen zur Erdkunde von Afrika (s. C. Ritter´s Erdkunde 2te Aufl. Th. I. Vorwort S. XIII. ). 2. Karte vom Südende Afrikas, vom Kap der guten Hoffnung landeinwärts, bis zum äußersten Ziele europäischer Reisenden, unter 25´ Südbreite, zu Seite 91. bis 136. der allgemeinen Erdkunde Th. I. 2te Aufl. Auf dieser Karte ist die spätere naturhistorische Reise Burchell´s um Litalcu, ohne nähere Bezeichnung, bloß durch einen hellgrünen Strich angedeutet, und wird von dieser Reise, ebenfalls in den oben erwähnten Nachträgen, Bericht erstattet werden. Beigegeben ist ein Pla n der Halbinsel des Vorgebirges, nach einer vortrefflichen Handzeichnug, deren gütige Mittheilung wir dem Herrn Professor Lichtenstein verdanken. 3. Äthiopisches Hochland, Alpenland Habesch und Vorstufe von Darfur und Sennaar; zu Seite 167. bis 255., und zu Seite 517. bis 571. des erwähnten Buches. Dies Blatt reichet im Norden bis zur Nilkatarakte von Dulga, wo das Blatt No. 5., das lste des Nillaufes, beginnt. 4. Karte von Hochsudan, welche Nordguinea, nebst den Senegal-Ländern, bis zur Sahara begreift, so wie auch den obern Lauf des Niger bis gegen Tombuktu. Zu Seite 330. bis 387. und Seite 401. bis 428. 5. Lauf des Nils von der Katarakte von Dulga bis Vady Halfa zu S. 594. bis 620. 6. Lauf des Nils von Wady Halfa bis Kous, zu S. 620. bis 757. Beigegeben ist eine landschaftliche Zeichnung und ein Grundriß des Felsentempels zu Ebsambol. 7. Lauf des Nils von Kous bis Kairo, zu Seite 757. bis 882. 8. Die Nilkatarakten von Syene zu Seite 680. und folgende. Beigegeben ist, in dreimal größerem Maßstabe, der Plan derjenigen Stelle des Hauptplans,; welche mit Chellal oder Kataracte bezeichnet ist, und zwar so, wie sie bei hohem Wasser sich darstellt, wo die, im Hauptplane hervorragenden Sandbänke und niedrigen Klippen vom Wasser bedeckt sind. 9. Plan der Gegend von Theben, zu Seite731.und folgende. 10. Karte von Unter-Ägypten, zu Seite 814. 11. und 12. Plan von Kairo und Umgegend, bis zu den Ruinen des alten Memphis, nebst der Lage der grorsen Pyramiden von Gizeh und der Pyramidengruppen von Sakkarah; zu Seite 814. usw. Beigegeben ein Querdurchschnitt des Nilthals bei Kairo. Die nähere Beschreibung in den Nachträgen zur Erdkunde von Afrika. 13. a) Plan von Alexandria, zu S. 863. b) Querdurchschnitt des Nilthales bei Stout, zu Seite 772. und folgende c) Kurve, welche das Steigen und Fallen des Wassers bei den Nilschwellen darstellt, zu S. 837. d) Nilmesser und Denkmale, an welchen die Erhühungen des Nilbettes beobachtet sind, zu Seite 840. usw. 14. Karte der Nordküste Afrikas, von Alexandria bis Tunis; also das Land der Cyrenais und des alten Karthago mit inbegriffen, zu Seite 912. bis 1015. Dabei der Entwurf eines berichtigten Planes der alten punischen und der romischen Koloniestadt Karthago, zu Seite 914. bis 921.
Das Klima, insbesondere der Niederschlag ist einer der wichtigsten natürlichen Gestaltungsfaktoren für die Savannenregion Westafrikas. Morphodynamik, Bodenbildung, Abflußregime sowie Wasserhaushalt werden direkt vom Klima bestimmt. Der Niederschlag ist zudem das begrenzende Element für das Wachstum von Flora und Fauna. Jede Änderung der Niederschlagsmenge hat gravierende Folgen für die Landschaft und seine Bewohner. Die Untersuchung langfristiger klimatischer Veränderungen ist ein Beitrag die Entstehung und den Wandel der Landschaft zu verstehen. Hierdurch können parallele Entwicklungen zwischen Natur- und Kulturraum im langfristigen Zusammenhängen gesehen werden. Ziel ist, das Klima des Tschadseegebietes seit dem Beginn regelmäßiger Aufzeichnung von Klimadaten mit Hilfe verschiedener statistischer Verfahren zu beschreiben. Des weiteren sollen Wechselwirkungen und Zusammenhänge zu externen Faktoren (Globale Zirkulation, Ozeantemperatur, Solarstrahlung,...) aufgezeigt werden.
Le phénomène du cuirassement reste une "curiosité" et une énigme pour le pays de la zone intertropicale. A cause de ses caractéristiques lithologiques et structurales assez particulières de ses roches (roches riches en éléments ferromagnésiens), le Burkina Faso est une véritable zone de prédilection des cuirasses. Malgré l'effort des chercheurs pour élucider le phénomène du cuirassement, force est de reconnaître que de nos jours, certains points d'ombre subsistent toujours; ce qui invite à une analyse plus poussée ... Loin de négliger les problèmes liés à la reconstitution de la génèse de la cuirasse, nous proposons ici une analyse assez originale des cuirasses sur la base des connaissances déjà acquises et de nos multiples observations sur le terrain burkinabé.
Maiduguri, an important city in the Sudano-Sahelian zone of West Africa, experiences both drought and floods. Although droughts are more popular, floods are a seasonal occurrence in parts of the city in the average rainy season. Both hazards exert a heavy toll on their victims. Present response to the hazard problems is characterised by a fire-fighting approach which does little about future occurrence. Much of the perception and response is spiritual and stops short of needed structural and organisational programmes for effective mitigation of hazards. Future occurrences of drought and flood may have more adverse effects as land use in the city becomes more complex and agricultural and water supply system comes to depend heavily on surfacial sources. Future effects will also depend on the socio-economic conditions of the people at risk and the capacity of those who help them. Governments and people need to work together to reduce drought and flood hazards.
Les débuts de l’exploitation du fer de gisement sont encore mal connus en Afrique en général et au Burkina Faso en particulier. Pourtant, pendant la colonisation française, plusieurs auteurs ont dit leur émerveillement en découvrant l’industrie métallurgique de certains peuples des pays du Burkina Faso, celle des Moose, Bwaba et Sénoufo par exemple. Selon ces auteurs, les peuples ci-dessus ont développé des technologies qui leur assuraient une bonne production de fer métal. Pour en savoir plus, nous conduisons depuis 1983 un programme sur la métallurgie du fer au Burkina Faso. L’accent a été particulièrement mis sur les aspects relatifs à la métallurgie lourde du fer. C’est pourquoi l’étude des anciennes mines présente pour nous un intérêt très spécial. Notre propos ici est de rapporter rapidement certaines informations rassemblées concernant le site et la situation des mines, les modes d’extraction, les types de minerai et les questions relatives à l’appropriation et aux conditions d’exploitation de ces mines.
Die folgende Arbeit ist eine von drei Dissertationen des interdisziplinären Forschungsvorhabens „Landschaftsarchäologie im Hessischen Ried“, das im Rahmen des Frankfurter Graduiertenkollegs „Archäologische Analytik“ stattfand. Das Projekt bestand aus einer archäologisch-historischen (MAURER 2003), einer bodenkundlichen (KANNENGIEßER Diss. in Arbeit) sowie dieser palynologischen Dissertation. Gemeinsam beschäftigen sich diese Arbeiten mit der Landschaftsrekonstruktion des nördlichen Hessischen Rieds. Die palynologischen Untersuchungen hatten das Ziel, die bisher weitgehend unbekannte ‚jüngere’ Vegetationsgeschichte von der vorrömischen Eisenzeit bis etwa zum 5. Jh. n. Chr. zu rekonstruieren. Zwischen der Eisenzeit und dem Frühmittelalter gab es im Hessischen Ried mehrere kulturelle Umbrüche. In der Spätlatènezeit siedelte eine keltische Bevölkerungsgruppe im nördlichen Hessischen Ried. Deren Spur verliert sich aber im 1. Jh. v. Chr. Erst nach einer ‚Fundlücke’ von etwa 50 Jahren findet man schließlich Überreste eine elbgermanische Population (LENZ-BERNHARD & BERNHARD 1991). Über Lebensweise und Anzahl dieser germanischen Bevölkerung wissen wir fast nichts. Zumindest ein Teil von ihnen aber diente im römischen Heer. Etwa ab dem Jahr 13/12 v. Chr. in augusteischer Zeit stand das Ried unter dem Einfluss des seitdem am Rhein stationierten römischen Militärs (MAURER 2003). Im Zuge der Okkupation kamen römische Soldaten mitsamt ihrem Tross von Angehörigen und Marketendern an den Rhein. Da sehr wenig über die zuvor ansässige Bevölkerung bekannt ist, ist es unklar, wie sich die Bevölkerungsstärke und damit der Bedarf an landwirtschaftlicher Nutzfläche während dieser Zeit veränderte. In der mittleren Kaiserzeit (ca. 70–260 n. Chr.) bildete das Hessische Ried das südöstliche Vorfeld der Provinzhauptstadt Mogontiacum (Mainz) bzw. das Umland des Auxiliarkastells/Zivilvicus Groß-Gerau-„Auf Esch“. In die sog. „agri decumates“ rechts des Rheins (Tacitus, GERMANIA 29, 3) gesellten sich nach und nach noch gallische Siedler zur römischen Bevölkerung. Es ist zu erwarten, dass sich die kulturellen Umbrüche dieser Zeit auch im Landschaftsbild widerspiegelten. Beispielsweise werden vielerorts den Römern die ersten großflächigen Waldrodungen und Raubbau an der Landschaft zugeschrieben (BEHRE 1988, CÜPPERS 1990, DUMAYNE 1993). In den letzten Jahren mehren sich allerdings die Indizien dafür, dass zumindest in einigen Gebieten einschneidende Landschaftseingriffe bereits in der Eisenzeit stattgefunden haben und die Landschaft bei Ankunft der Römer schon weitgehend entwaldet und anthropogen geprägt war (BUNNIK et al. 1995, STOBBE 1996, 2000, STOBBE & KALIS 2001, 2002, DÖRFLER et al. 2000, KOOISTRA 1996, DUMAYNE 1993, DUMAYNE-PEATY 1998). Auch für das nördliche Hessische Ried bestätigt die vorliegende Arbeit dieses Bild. Schon in der Eisenzeit entstand im Hessischen Ried eine weitgehend geöffnete Landschaft mit Grünlandflächen und Äckern. Die Vegetationsveränderungen beim Übergang von der Bronzezeit zur Eisenzeit (um 800 BC) sind dabei weit deutlicher als beim Übergang von der Eisenzeit zur Römischen Kaiserzeit. In der Römerzeit wurde zwar der Ackerbau intensiviert und einige typische Kulturpflanzen wurden eingeführt, doch das restliche Pollenspektrum verändert sich kaum. Beim Rückzug der römischen Armee vom Odenwaldlimes kam es zu einer leichten Regeneration der Buche im Umland. Während der Völkerwanderungszeit sieht man in den Profilen keine deutliche Waldregeneration, sondern nur einen leichten Rückgang der Bewirtschaftung.
Drevermanns Name ist in der Geologie nicht mit bahnbrechenden Ideen und Theorien verknüpft. Er hat nicht seine gesamte Energie auf seine Forschungen gerichtet. Stattdessen seine - manchmal auch schwache - Kraft (vgl. 3.6.) auf die Lehre (bei der Senckenbergischen Naturforschenden Gesellschaft und Universität), die Aufklärung des Volkes (in Vorträgen und „Natur und Museum“) und vor allem auf sein Museumsengagement aufgeteilt. Schon in seinem zweiten Senckenberg-Jahr zeichnete sich das Engagement für die Museumskunde ab. Er arbeitete sicher in der ersten Zeit eher angeleitet, später freier planend und ergänzend für die Vollständigkeit der Sammlung. Und schon 1911 leidet Drevermann daran, daß er zu wenig Zeit für seine eigene Arbeit hat. Er bat am 10. Oktober 1911 den Anfang seiner „Dienststunden auf 9 statt um 8“ festzusetzen, also die „Anzahl reduzieren von 42 auf 36“ Stunden. Als Grund nannte er: „Während der Arbeitszeit im Museum ist es wegen der fortwährenden und vielseitigen Inanspruchnahme meiner Tätigkeit nicht möglich, zu eigener wissenschaftlichen Tätigkeit zu gelangen.“ Er schreibt weiter, daß er dadurch hofft, „länger am Abend arbeiten“ zu können. Schon damals zeigt sich sein offensichtlicher Zeitmangel für seine eigenen Forschungsarbeiten. Dies sollte ihn sein ganzes Leben begleiten. Als fast tragisch ist deswegen zu werten, daß er seine schon 1915 begonnene Arbeit über Placodus trotz großer Anstrengungen in 1930 und 1931 nicht mehr beenden kann. Als ausschlaggebend für den Wandel und für die Abkehr von der eigenen devonischen Forschung und den Beginn des enormen Museumsengagements darf die Schenkung des Diplodocus gewertet werden. Dieses Museumsexponat verlegte Drevermanns Forschungsschwerpunkt zu den fossilen Wirbeltieren, im speziellen den Dinosauriern und Artverwandten, und damit hin zu einem für Drevermann und damit für das Senckenberg-Museum noch heute erfolgreichen Museumsthema. Drevermann ging damit den Weg vom klassischen Devon-Paläontologen hin zum Museumswissenschaftler. In seinen Schaffensjahren zeigt sich sein Werdegang zum Agitator, er setzte die Akzente und arbeitete für seine Museumsvorstellungen. Dazu ein Zitat Drevermanns aus seiner frühen Veröffentlichung über die Meersaurier im Senckenberg-Museum (1914): „Das Streben unseres Museums nach einer möglichst vollständigen Vertretung aller wichtigen Typen des Tierlebens der Vorzeit ist am ersten bei den Meersauriern mit Erfolg gekrönt worden. Durch das wiederholte verständnisvolle Eingreifen mehrerer Gönner des Museums ist es gelungen, in einem Jahrzehnt eine Sammlung zu schaffen, auf die das Museum stolz sein kann.“ Drevermann deutet hier nur versteckt an, daß das angesprochene Jahrzehnt sein erstes im Senckenberg-Museum war. Mit Hilfe von Gönnern, deren Wohlwollen er in der Lage war sich zu verschaffen, gelang es ihm durch Täusche und Käufe diese Sammlung aufzubauen. Er wurde zur prägenden Persönlichkeit. Deswegen machte ihn die Senckenbergischen Naturforschende Gesellschaft zum ersten Geologieprofessor der jungen Frankfurter Universität. Ein Ergebnis seiner intensiven engagierten Arbeit: 1924 wird er zum geschäftsführenden Direktor des Senckenberg-Museums ernannt. Drevermann betrieb als Museumswissenschaftler eine populäre Wissenschaft. Die Beispiele dafür sind mannigfaltig: seine Texte in der Frankfurter Zeitung, das Entwickeln der Zeitschrift „Natur und Museum“ und seine Veröffentlichungen und Fragenbeantwortung hierin, seine vielen Reden, seine Radio-Aktivitäten. Das außerordentliche Engagement Drevermanns für „sein“ Museums-Periodikum zeigt dabei deutlich, wie er als Museumswissenschaftler agierte und nicht als forschender Naturwissenschaftler. Und er ist als Museumswissenschaftler erfolgreich, weil er besondere Qualitäten als Autor und Redner hat. Er beschreibt anschaulich - auch für den Laien - , aber wissenschaftlich genau. Beschäftigt hat sich Drevermann tatsächlich mit geologisch und paläontologischer Forschung nur sekundär. Er war nicht der Spezialist, sondern der Generalist - er verstand viele geologische und paläontologische Fragestellungen. Denn er war immer auf der Höhe des disziplinären Diskussionen – auch wenn er selbst nur einen geringen Beitrag an Lösungen dazu lieferte. Er selbst liest die Veröffentlichungen über die Forschungsarbeiten anderer, spricht in seinen Vorlesungen und Reden darüber, stellt Bücher vor, greift auch in die fachliche Diskussion ein mit Stellungnahmen und Essays, aber entfacht keine solche. Letzteres war nur einmal der Fall: bei seinen Vorstellungen über das Museum der Zukunft. Dieses Thema ist das eigentliche Vermächtnis Drevermanns.
Der Dritte Bericht des Zwischenstaatlichen Ausschusses für Klimawandel (IPCC, 2001a, b) bestätigt den Einfluss des Menschen auf das globale Klima und warnt vor einem Temperaturanstieg und vor Niederschlagsveränderungen in den nächsten 100 Jahren, die gesellschaftlichen Wohlstand und Umwelt nachhaltig beeinträchtigen können. Dabei werden weitreichende Folgen des Klimawandels angenommen, vom Anstieg des Meeresspiegels und einer möglichen Degradation von Landflächen bis hin zum Verlust von Tier- und Pflanzenarten, der Verknappung von Wasserressourcen, einer Zunahme von natürlichen Katastrophen wie Überschwemmungen und Dürren, der Ausbreitung von Krankheiten sowie negativer Auswirkungen auf die Nahrungsversorgung der Bevölkerung. Klimawandel ist dabei nur ein Aspekt des weiter gefassten ‘Globalen Wandels’, der eine Vielzahl von anthropogen verursachten Veränderungen der Umwelt einschließt. So wird zum Beispiel erwartet, dass auch demographische und sozioökonomische Entwicklungen sowie vom Menschen verursachte Landnutzungsänderungen eine erhebliche Auswirkung auf den zukünftigen Zustand der globalen Umwelt haben werden. Zu den gravierendsten Folgen des Globalen Wandels gehört die Veränderung der räumlichen und zeitlichen Verteilung der lokalen und regionalen Wasserressourcen. Es müssen daher Strategien entwickelt werden, um sowohl die Bevölkerung als auch die Umwelt vor den möglichen negativen Auswirkungen von erhöhten oder erniedrigten Pegelständen in Fließgewässern zu schützen, oder sie auf eine Veränderung der verfügbaren Wassermengen vorzubereiten. Zur Entwicklung dieser Strategien wiederum werden wissenschaftliche Szenarien und Modellberechnungen benötigt, mit deren Hilfe sich zukünftige hydrologische Verhältnisse abschätzen lassen. Zahlreiche derartige Szenarienanalysen wurden bereits durchgeführt, um den Einfluss des Klima- und Globalen Wandels auf das Wasserdargebot und auf das hydrologische Abflussregime zu untersuchen. Da Flusseinzugsgebiete eine natürliche und angemessene Betrachtungseinheit für dieses Problem darstellen, konzentrieren sich die meisten dieser Studien auf mittlere bis große Einzugsgebiete oder auf bestimmte Regionen zusammenhängender Flussgebiete. In Europa gibt es dazu Beispiele aus den frühen neunziger Jahren, als die Resultate der ersten Klimamodelle verfügbar wurden (z.B. Ott et al., 1991: für die Mosel; Kwadijk und van Deursen, 1993: Rhein; Vehviläinen und Huttunen, 1994: Vuoksi; Broadhurst und Naden, 1996: Severn; Bergström, 1996: Einzugsgebiet der Ostsee). Für diese Studien wurden hydrologische Modelle des jeweiligen Einzugsgebiets entwickelt und der Einfluss des Klimawandels auf den Abfluss bestimmt. Krahe und Grabs (1996) haben ein Wasserbilanzmodell mit einer Auflösung von 0.5° x 0.5° für den gesamten mitteleuropäischen Raum entwickelt und es anhandder Abflussdaten des Rheins, der Weser, der Ems, der Elbe und des deutschen Teils der Donau validiert. Arnell (1994, 1999), bzw. Arnell et al. (2000) untersuchten die Auswirkung des Klimawandels auf europäische Wasserressourcen ebenfalls mithilfe rasterbasierter Modellansätze. Schließlich zeigten Stanners und Bourdeau (1995), EEA (1999), Parry (2000), oder auf globaler Ebene WBGU (1999) und IPCC (1992, 2001a, b), in allgemeineren und politisch orientierten Untersuchungen den gegenwärtigen Zustand sowie mögliche zukünftige Entwicklungen der Umwelt in Europa und weltweit auf, einschließlich verschiedener Aspekte der kontinentalen Wasserressourcen und der Hydrologie. Im Vergleich zu den zahlreichen einzugsgebietsorientierten Analysen und ihrem stetig steigenden wissenschaftlichen Anspruch bis hin zu äußerst detaillierten Fragestellungen sind die regionalen oder globalen Ansätze jedoch eher selten und bleiben meist relativ unspezifisch in ihren Schlussfolgerungen. Darüber hinaus wird die Auswirkung der Wassernutzung, die erheblich zur Veränderung der zukünftigen Wasserressourcen und Abflussmengen beitragen kann, in den meisten Fällen aufgrund des Fehlens entsprechender Daten nicht berücksichtigt. In Anbetracht dieser Mängel wurde 1999 am Wissenschaftlichen Zentrum für Umweltsystemforschung an der Universität Kassel das EuroWasser-Projekt initiiert, auf dessen Durchführung die vorliegenden Dissertation beruht. In einem integrierten Modellansatz wurden in EuroWasser die Folgen von Klimawandel und sozioökonomischen Veränderungen auf die natürliche Wasserverfügbarkeit und die Wassernutzung auf gesamteuropäischer Ebene untersucht (siehe Abschlussbericht, Lehner et al., 2001). Das EuroWasser-Projekt versucht dabei drei aus Sicht von Gesellschaft, Ökonomie und Umwelt kritische Fragen zu beantworten: (1) Wie hoch ist der gegenwärtige Wasserstress in verschiedenen Regionen Europas, und welche zukünftigen Veränderungen sind zu erwarten? (2) Wie wird sich der Globale Wandel auf das europäische Wasserkraftpotenzial auswirken? Und (3) In welchen "kritischen Gebieten" Europas muss, basierend auf den Ergebnissen verschiedener Szenarien des Globalen Wandels, damit gerechnet werden, dass die Hochwasser- und Dürregefahr in Zukunft zunimmt, und von welcher Größenordnung sind diese Veränderungen? ...
Die vorliegende Arbeit stellt einen Ansatz zur Systematisierung der Konzeption und Entwicklung webbasierter multimedialer Lehr-/Lernobjekte (mmL-Objekte) in der Physischen Geographie, im Wesentlichen in der Teildisziplin Geomorphologie, vor. Auf allgemeine Ausführungen zu mediendidaktischen Grundlagen und Begrifflichkeiten im Zusammenhang internetgestützter Lehr-/Lernszenarien folgt die Darstellung von Strategien der Wissensstrukturierung, Wissensaneignung und fachwissenschaftlicher Methodik im Lehr-/Lernkontext geomorphologischer Prozesse und ihrer Modellierung im Internet. Die Aufbereitung des Prozesskomplexes Bodenerosion seht im Mittelpunkt. Ein Überblick über Potentiale computergestützter Modellierung und Visualisierung zur Entwicklung webbasierter multimedialer Lehr-/Lernmaterialien in der Geographie leitet über zur Erarbeitung eines präskriptiven Ansatzes zur Konzeption interaktiver Lernaufgaben. Sie setzen sich zusammen aus einer Visualisierungskomponente, den Möglichkeiten zur Interaktion mit der Visualisierung und mindestens einer Aufgabenstellung. Vor allem in computerunterstützten Lehr-/Lernprozessen, die selbständiges Lernen erfordern, erweisen sie sich als wesentliches didaktisches Element, um sicherzustellen, dass sich Lernende aktiv und nicht nur rezeptiv mit Inhalten und Medien in der für erfolgreiche Lernprozesse erforderlichen Intensität auseinander setzen. Ausgehend von der Funktion des zu entwickelnden Lehr-/Lernangebotes und dem jeweiligen angestrebten Zielhorizont eines Lehr-/Lernelements werden Empfehlungen zur Konstruktion aufgabenorientierter mmL-Objekte vorgeschlagen. Exemplarisch wird die praktische Anwendung theoretisch begründeter Empfehlungen anhand von aufgabenorientierten mmL-Objekten (interaktiven Lernaufgaben) aufgezeigt und diskutiert, die im Rahmen des BMBF-Projektes „WEBGEO – Webbing von Geoprozessen für die Grundausbildung Physische Geographie“ und im Rahmen der Lehrveranstaltung „Erstellung von E-Learning-Modulen durch Studierende“ entwickelt wurden.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
1 Kt. auf 2 Bl., zsgeklebt : mehrfarb. Kupferst. ; Gesamtgr. 86 x 50 cm. Mit 1 Nebenkt.: Afteekening van't inkomen van de rivier van Suriname Gesüdet. - Mit Erl. Aus: [Auswahlatlas Hübner / 1] ; 100
Die Studie befasst sich mit Formenschatz, Sedimenten und Böden des Komadugu-Flusssystems. Neben einer grundsätzlichen Inventarisierung des bislang kaum erforschten Landschaftskomplexes lag der Schwerpunkt auf der Rekonstruktion von Systemveränderungen im Kontext des spätquartären Klimawandels. So sind die schmalen rezenten Auen teilweise in eine weitgespannte reliktische Überschwemmungsebene eingeschnitten, die möglicherweise synchron zu ehemaligen früh- bis mittelholozänen Tschadsee-Maxima bei Rückstau der Flüsse außerhalb der prominenten Bama-Beach-Ridge-Begrenzung entstand. Während die rezente Aue ein deutlich ausgeprägtes Mäandersystem aufweist, liegen in der Paläoschwemmebene komplexere fluviodeltaische Strukturen mit fließenden Übergängen der klassischen Gerinnebettmuster vor, deren häufige sprunghafte Verlagerung unter Ausräumung und Wiederverfüllung sich auch in der fluvialen Architektur des älteren Alluviums widerspiegelt. Bei Korngrößenanalysen ergab sich eine generelle Dominanz gut sortierter, feinsandiger Substrate. Darüber hinaus reflektieren die rezenten Alluvionen mit schluffigen Hochflut-, feinsandigen Uferbank- und mittel- bis grobsandigen Flussbettsedimentabfolgen sowie feinsandigen bis tonigen Gerinnefüllungen an Altarm-Standorten die fraktionierte Sedimentation in der modernen Aue. Demgegenüber sind die gradierten, feinsandigen Gerinnebett- und gerinnebettnahen Ablagerungen der Terrasse mit ihren äolisch überprägten Tops recht uniform ausgeprägt. Es zeichnen sich jedoch bestimmte Körnungsprovinzen ab, indem im Westen vor allem Feinstsande und Grobschluffe, in östlicher Richtung dann zunehmend sehr gut sortierte grobe Feinsande vertreten sind, wobei letztere aufgearbeitete lokale Dünensande repräsentieren. Der enge genetische Zusammenhang zeigt sich auch in Kornformen, Oberflächenbeschaffenheit und Schwermineralbestand der Sande, die von einer generellen Überlagerung der Transportmechanismen und polyzyklischen Aufarbeitung künden. Die Klimaxböden der östlichen Terrasse stellen offenbar luvic Arenosols/weakly leached ferruginous tropical soils dar, wenngleich aufgrund jüngerer Translokationsprozesse, ebenso wie im Westteil, lithomorphe Braunerden vorherrschen. Die Mehrzahl der durchgeführten OSL-Datierungen weist auf die Sedimentation des älteren Alluviums zur Wende des Pleistozäns zum Holozän hin. Sie markiert den geomorphologisch besonders aktiven Umbruch von ariden zu humiden Bedingungen, der im Einzugsgebiet des Komadugu spätestens gegen 12,5 ka erfolgte. Damit steht das fluviale Verhalten im ehemaligen Unterlaufbereich des Yobe-Systems in einem klaren Gegensatz zu einem für den trockenzeitlich-feuchtzeitlichen Übergang oftmals diagnostizierbaren morphodynamischen Wandel von instabilen zu stabilen Verhältnissen. Die zahlreichen wenig festgelegten Paläofließrinnen und feinsanddominierte Lithofazies als mutmaßliches Resultat einer durch Schichtfluten ausgelösten Dünenpediplanation künden von einem schwankendem, teilweise hoch energetischen Abflussverhalten, wie es am ehesten unter einem längerfristig wechselfeuchten Klimaregime vorgeherrscht haben könnte. Demgegenüber war die fluviale Formung zur Zeit der vollhumiden Maxima des Früh- und Mittelholozäns stark eingeschränkt, wobei es weder zu einer großflächigeren Sedimentation quasi-lagunaler Fazies noch zu kräftigeren Bodenbildungen kam. Die Einschneidung der rezenten Aue fand schließlich im Anschluss an das mittelholozäne Optimum bei Einsatz einer fortschreitenden Aridisierung statt.
Ca-Silikate als natürliche Einschlüsse in Diamanten sind so extrem selten und bislang wenig untersucht, daß der Weg, sie synthetisch herzustellen, um entsprechende Analysen durchführen zu können, gerechtfertigt wird. Um die Veränderungen über einen großen Druckbereich bis zu Bedingungen, die dem Unteren Erdmantel entsprechen, durchführen zu können, wurde ein neues Hochdrucklabor mit einer Multi-Anvil-Presse aufgebaut. In dieses Labor sind viele Erfahrungen aus eigenen Experimenten und aus anderen Arbeitsgruppen eingeflossen, sodaß eine leistungsfähige Hochdruckanlage zur Verfügung steht. Kernstück dieses Hochdrucksystems ist der innere Hochdruckaufbau, wobei nicht ein bereits etablierter Hochdruckaufbau kopiert, sondern - durch das Integrieren der Vorzüge von unterschiedlichen Systemen - ein eigenständiger Hochdruckaufbau entwickelt wurde. Das System ist für weitere Ausbaumöglichkeiten vorbereitet, sodaß z. B. großvolumige Kapseln zusammen mit den Ceramcast-Oktaedern bis 80 kbar eingesetzt werden können, bzw. der maximale Druckbereich mit einem 10/4 mm Aufbau bis über 200 kbar ausgeweitet werden kann. Die Untersuchung der Reaktionskinetik an den Ca-Silikatphasen stellt eine besondere Herausforderung dar. Aus vorangegangenen Experimenten und Untersuchungen ist die "nicht Quenchbarkeit" von Ca-Perovskit und die Amorphisierung von Ca-Walstromit bekannt, sodaß sich die Untersuchungen mittels der herkömmlichen Hochdruckmethoden für diese Fragestellung als nachteilig erweisen. Dank der Zusammenarbeit mit dem "Material Science Laboratory" am Synchrotron in Daresbury bot sich die Möglichkeit, in situ Hochdruckexperimente an den Ca-Silikatphasen durchzuführen. Es stand nur eine begrenzte Entwicklungszeit zur Verfügung, um die neuartige "fine-to-fine" Geometrie zu entwickeln und zu erproben. Mit diesem Hochdruckaufbau ist es gelungen, in situ Hochdruckexperimente bei bis zu 150 kbar und 1400°C durchzuführen und dabei Ca-Perovskit zu kristallisieren. Mit den kleineren 10mm MgO-Oktaedern und 5 bzw. 4 mm Truncation an den Wolframcarbid-Würfeln sind sogar bei gleicher Geometrie noch höhere Drücke realisierbar. Die Beobachtungen an den durchgeführten Experimente ermöglicht eine Aussage zur Reaktionskinetik der Phasenumwandlung bei Ca-Silikaten. Die Disproportionsreaktion von Ca-Perovskit zu den zwei Phasen Larnit und Si-Titanit läuft sehr rasch ab, wo hingegen die Rekombinationsreaktion dieser beiden Phasen zu Ca-Walstromit kinetisch gehemmt und innerhalb von Stunden keine Umwandlung beobachtet werden konnte. Darüber hinaus bestätigen die eigenen Experimente ein Einsetzen der Amorphisierung von Ca-Perovskit bei Drücken unterhalb von 10 kbar. Eine Amorphisierung von Ca-Walstromit wurde auch nach vollständiger Druckentlastung nicht beobachtet. Werden die Beobachtungen der kinetischen Experimente der Phasenumwandlung an Ca-Silikaten auf die natürlichen Bedingungen bei der Diamantentstehung und deren Aufstiegspfad übertragen, spricht dies für ein Modell des raschen Aufstiegs aus dem Unteren Mantel bzw. der Übergangszone und einem Steckenbleiben im Oberen Mantel bei moderaten Drücken. Der Weg an die Erdoberfläche findet dann zu einem späteren Zeitpunkt ebenfalls mit schnellen Aufstiegsgeschwindigkeiten statt. Die Ergebnisse der Löslichkeits-Hochdruckexperimente von Kalium und Phosphor bestätigen die Beobachtungen, die an den natürlichen Ca-Silikateinschlüssen gemacht wurden. In dem Zweiphasenfeld, in dem Larnit zusammen mit Si-Titanit koexsistiert, hebt sich vor allem die sehr hohe Löslichkeit von Kalium und Phosphor hervor. Zwar wurde bereits in den natürlichen Einschlüssen ein auffallend hoher Gehalt dieser Elemente beobacht, die Experimente zur maximalen Löslichkeit zeigen jedoch, daß sich weitaus höhere Gehalte im Larnit lösen können. Für diese Phase trifft die gekoppelte Substitution von Kalium und Phosphor gegen Calcium und Silicium im Verhältnis 1 : 1 zu. Interessant ist zudem die offenbare Druckhabhängigkeit der Löslichkeit in Larnit. Für eine geobarometrische Anwendung dieses Druckeffekts ist das Stabilitätsfeld mit nur 20 kbar relativ schmal, so daß der Druckgradient gering ist. Die Titanit-Struktur erweist sich im Gegensatz dazu als nicht kompatibel für diese Elemente. In Si-Titanit werden nur extrem geringe Gehalte an Kalium und Phosphor eingebaut. In den natürlichen Einschlüssen wurden gleichermaßen geringe Gehalte nachgewiesen. Damit kann vom Erreichen der maximalen Löslichkeit in den natürlichen Proben ausgegangen werden. Als potentieller Träger von Kalium und Phosphor in der Übergangszone ist die Phase Larnit. Sie kann sehr hohe Gehalte dieser Elemente aufnehmen, mit steigendem Druck nimmt die Löslichkeit jedoch ab. Direkte Messungen der Löslichkeit an Ca-Perovskit liegen bislang nicht vor. Die Experimente an der unteren Stabilitätsgrenze zeigen sehr geringe Gehalte an Kalium und Phosphor. Eine Substitution in dieser sehr dichten Struktur findet nicht statt. Die geringe Löslichkeit in Ca-Perovskit entspricht nicht dem erwarteten Ergebnis. Diese Phase galt bislang als möglicher Träger von Kalium und Phosphor im Unteren Mantel. Wenn davon ausgegangen wird, daß Einschlüsse, in denen Larnit und Si-Titanit nachgewiesen werden, möglicherweise ehemals Ca-Perovskit gewesen sind und damit eine Herkunft aus dem Unteren Mantel haben, so sprechen die hohen Gehalte an Kalium und Phosphor in Larnit gegen diese Annahme. Ein Einschluß, der als Ca-Perovskit im Unteren Mantel kristallisiert ist, kann nicht die großen Mengen an Kalium und Phosphor einbauen, wie sie dann im Larnit als direkte Umwandlungsphase nachgewiesen werden. Möglicherweise sind Einschlüsse, die hohe Gehalte an Kalium und Phosphor zeigen, in dem Zweiphasenstabilitätsfeld Larnit/Si-Titanit kristallisiert, und ein Hinweis darauf, daß sie kein Disproportionsprodukt aus vormaligem Ca-Perovskit sind. Bislang ungeklärt bleibt die Frage, ob mit höherem Druck die Löslichkeit von Kalium und Phosphor in Ca-Perovskit zunimmt. Wenn eine Druckabhängigkeit der Löslichkeit vorliegt, würde dies dafür sprechen, daß die Diamanten mit Ca-Perovskit-Einschlüssen aus dem Unteren Mantel stammen und nicht aus der Übergangszone. Die Annahme der Herkunft dieser speziellen Diamantparagenese aus dem Unteren Mantel wird auch durch das Auftreten von Ferro-Periklas und Stichovit zusammen mit Ca-Perovskit im gleichen Diamantkristall bekräftigt. Zukünftige Experimente bei höheren Drücken könnten die Frage klären, ob bei einer Druckerhöhung eine Zunahme der Löslichkeit in Ca-Perovskit beobachtet wird. Eine beachtliche Zunahme der Löslichkeit mit dem Druck würde das Modell der Herkunft der Ca-Silikateinschlüsse aus dem Unteren Mantel stützen. Die Löslichkeit von Kalium und Phosphor in Ca-Walstromit zeigt sowohl in den natürlichen Einschlüssen als auch in den Experimenten mittlere Gehalte dieser Elemente an. Abweichend von den Beobachtungen in den Einschlüssen ist jedoch der erhöhte Kaliumgehalt, der nicht den erwarteten stöchiometrischen Austausch von 1 : 1 wiedergibt. Untersuchungen an natürlichen Ca-Walstromit als Einschlüsse in Diamanten werden zukünftig von besonderem Interesse sein, da diese Einschlüsse entsprechend häufiger auftreten und als Probenmaterial vorliegen. Weitere Experimente im Ca-Walstromit-Stabilitätsfeld mit unterschiedlichen Gehalten an Spurenelementen und entsprechenden Strukturuntersuchungen können die Frage der Stabilität bzw. der Amorphisierung klären. Ein unmittelbares Amorphisieren von Ca-Walstromit nach der Druckentlastung wird nicht beobachtet und auch die energiereiche Strahlung der Mikrosonde bzw. des Synchrotrons hat keine Amorphisierung zur Folge. Beim Bestrahlen mit der sehr energiereichen Strahlung bei den TEM-Untersuchungen zeigt sich jedoch, daß Ca-Walstromit nicht sehr stabil ist und innerhalb weniger Minuten amorphisiert. Die TEM-Untersuchungen weisen auf mögliche Polymorphe von Ca-Walstromit hin. Wenn sich unterschiedliche Polymorphe nachweisen lassen, ist von abweichenden Löslichkeiten und unter Umständen anderen Einbaumechanismen in den Phasen auszugehen.
One possible approach to study systematically the influence of the deformation regime on the geometry of geological structures like folds and boudins is analogue modelling. For a complete understanding of the resulting structures, consideration of the third dimension is required. This PhD study deals with scaled analogue modelling under constriction and plane-strain conditions to improve our knowledge of folding and boudinage of lower crustal rocks in space and time. Plasticine is an appropriate analogue material for rocks in the lower crust. Therefore, this material was used for the experiments. The macroscopic behaviour of most types of plasticine is quite similar to rocks undergoing strain-rate softening and strain hardening regardless of the different microscopic aspects of deformation. Therefore, if one is aware that the stress exponent and viscosity increase with increasing strain, the original plasticine types used with stress exponents ranging from 5.8 to 8.0 are adequate for modelling geologic structures. The same holds for plasticine/oil mixtures. Thus, plasticine and plasticine/oil mixtures can be used to model the viscous flow of different rock types in the lower crust. If climb-accommodated dislocation creep and associated steady-state flow is assumed for the natural rocks, the plasticine/oil mixtures should be used, which flow under steady-state conditions. Three different experimental studies of plane-strain coaxial deformation of stiff layers, with viscosity η2 and stress exponent n2, embedded in a weak matrix, with viscosity η1 and stress exponent n1, have been carried out. The undeformed samples (matrix plus layer) were cubes with an edge length of 12 cm. All experimental runs have been carried out at T = 25 ± 1°C and varying strain rates ė, ranging from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1, until a finite longitudinal strain of 30% – 40% was achieved. The first experimental study improved the understanding about the evolution of folds and boudins when the layer is oriented perpendicular to the Y-axis of the finite strain ellipsoid. The rock analogues used were Beck’s green plasticine (matrix) and Beck’s black plasticine (competent layer), both of which are strain-rate softening modelling materials with stress exponent n = ca. 8. The effective viscosity η of the matrix plasticine was changed by adding different amounts of oil to the original plasticine. At a strain rate ė of 10 high -3 s high -1 and a finite strain e of 10%, the effective viscosity of the matrix ranges from 1.2 x 10 high 6 to 7.2 x 10 high 6 Pa s. The effective viscosity of the competent layer has been determined as 4.2 x 10 high 7 Pa s. If the viscosity ratio is large (> ca. 20) and the initial thickness of the competent layer is small, both folds and boudins develop simultaneously. Although the growth rate of the folds seems to be higher than the growth rate of the boudins, the wavelength of both structures is approximately the same as is suggested by analytical solutions. A further unexpected, but characteristic, aspect of the deformed competent layer is a significant increase in thickness, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. In the second experimental study, the impact of varying strain rates on growing folds and boudins under plane strain have been investigated. The strain rates used range from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1. The stiff layer and matrix consist of non-linear viscous Kolb grey and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials with power law exponents (n) and apparent viscosities (η) ranging from 6.5 to 7.9 and 8.5 x 10 high 6 to 7.2 x 10 high 6 Pa s, respectively. The effective viscosity (η) of the matrix plasticine was partly modified by adding oil to the original plasticine. At the strain rates used in the experiments the viscosity ratio between layer and matrix ranges between 3 and 10. Different runs have been carried out where the layer was oriented perpendicular to the principal strain axes (X>Y>Z). The results suggest a considerable influence of the strain rate on the geometry of the deformed stiff layer including its thickness. This holds for every type of layer orientation (S ┴ X, S ┴ Y, S ┴ Z). If the stiff layer is oriented perpendicular to the short axis Z of the finite strain ellipsoid, the number of the resulting boudins and the thickness of the stiff layer increase, whereas the length of boudins decreases with increasing strain rate. If the stiff layer is oriented perpendicular to the long axis, X, of the finite strain ellipsoid, enlargement of the strain rate results in increasing wavelength of folds, whereas the number of folds and the degree of thickening of the stiff layer decreased. If the stiff layer is oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid enlargement of the strain rate results in a decreasing number of boudins and folds associated with increasing wavelengths of both structures. The wavelength of folds is approximately half of the boudins wavelength. This is true for the case where folds and boudins develop simultaneously (S ┴ Y) and for cases where both structures develop independently (folds at S ┴ X and boudins at S ┴ Z). In the third experimental study, scaled analogue experiments have been carried out to demonstrate the growth of plane-strain folds and boudins through space and time. Previous 3D-studies are based only on finite deformation structures. Their results can therefore not be used to prove if both structures grew simultaneously or in sequence. Plane strain acted on a single stiff layer that was embedded in a weak matrix, with the layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. Two different experimental runs have been carried out using computer tomography (CT) to analyse the results. The first run was carried out without interruption. During the second run, the deformation was stopped in each case at longitudinal strain increments of 10%. Every experiment was carried out at a temperature T of 25°C and a strain rate, ė, of ca. 4 x 10 high -3 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 18.6 between the non-linear viscous layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine with 150 ml oil kg high -1). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 1.2 x 10 high 6 Pa s and 10.5. These new data that result from incremental analogue modelling corroborate previous suggestions that folds and boudins are coeval structures in cases of plane-strain coaxial deformation with the stiff layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. They will be of interest for all workers who are dealing with plane-strain boudins and folds, where the fold axes are parallel to the major axis (X) of the finite strain ellipsoid. As has been demonstrated by the first experimental study, coeval folding and boudinage under plane strain, with S ┴ Y, are associated with a significant increase in the thickness of the competent layer. The latter phenomenon does not occur in other cases of simultaneous folding and boudinage, such as bulk pure constriction. To study the impact of layer thickness on the geometry of folds and boudins under pure constriction, we carried out additional experiments using different types of plasticine for a stiff layer and a weaker matrix to model folding and boudinaging under pure constriction, with the initially planar layer oriented parallel to the Xaxis of the finite strain ellipsoid. The stiff layer and matrix consist of non-linear viscous Kolb brown and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials. Six runs have been carried out using thicknesses of the stiff layer of 1, 2, 4, 6, 8 and 10 ± 0.2 mm. All experimental runs were carried out at a temperature T of 30 ± 2°C and a strain rate, ė, of ca. 1.1 x 10 high -4 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 3.1 between the stiff layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 7.2 x 10 high 6 Pa s and 7.9. Our results suggest a considerable influence of the initial thickness of the stiff layer on the geometry of the deformed stiff layer. There is no evidence for folding in XY=XZ-sections if the initial thickness of the competent layer is larger than ca. 8 mm. If the initial thickness of the competent layer is set at ca. 10 ± 0.2 mm, both folds and boudins develop simultaneously. However, the growth rate of the boudins seems to be higher than the growth rate of the folds. A further expected, but characteristic, aspect of the deformed competent layer is no change in thickness of the competent layer, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. The model results are important for the analysis and interpretation of deformation structures in rheologically stratified rocks undergoing dislocation creep under bulk constriction. Tectonic settings where constrictional folds and boudins may develop simultaneously are stems of salt diapirs, subduction zones or thermal plumes. To make (paleo) viscosimetric statements possible, the rheological data of the different plasticine types were related to the geometrical data. When comparing the normalized dominant wavelength Wd obtained from the deformed layer of the models with the theoretical dominant wavelength (Ld) calculated using the Smith equation (1977, 1979), the latter probably also holds when folding and boudinage develop simultaneously (S ┴ Y) and when boudins develop independently (S ┴ Z), but can obviously not be applied at very low viscosity ratios as is indicated by the low-strain-rate experiments.
Die Revolutionen des Meeres
(1843)
The present work was devised to address the systematic analysis of samples from a range of Roman non-ferrous metal artefacts from different archaeological contexts and sites in the Roman provinces of Germania Superior. One of the focal points of this study is the provenancing of different lead objects from five important Roman settlements between 15 BC and the beginning of fourth century AD. For this purpose, measurements were made on lead and copper ore samples from the Siegerland, Eifel, Hunsrück and Lahn-Dill area in Germany and supplemented with data from the literature to create a data bank of lead isotope ratios of European deposits. Compositional analysis of lead objects by Electron Microprobe analysis showed that Romans were able to purify lead from ore up to 99%. Multi-Collector Inductively Coupled Plasma Mass-Spectrometry was used to determine the source of lead, which played an important role in nearly all aspects of Roman life. Lead isotope ratios were measured for ore samples from German deposits from the eastern side of the Rhine (Siegerland, Lahn-Dill, Ems) and the western side of the Rhine (Eifel, Hunsrück), which contained enough ore reserves to answer the increasing local demand and are believed to have been mined during the Roman period. This data together with those from Mediterranean ore deposits from the literature was used to establish a data bank. The Mediterranean ore deposits range from Cambrian (high 207Pb/206Pb) to tertiary (lower 207Pb/206Pb) values. In particular, the Cypriot deposits are younger, while the Spanish deposits fall either with the younger Sardic ores or close to the older Cypriot ores. The lead isotope ratios of most German ore deposits fall in between the 208Pb/206Pb vs. 207Pb/206Pb ratios of Sardinia and Cyprus, where the lead isotope signature of ore deposits from France and Britain are also found. Over 240 lead objects were measured from Wallendorf (second century BC to first century AD) Dangstetten (15-8 BC), Waldgirmes (AD 1-10), Mainz (AD 1-300), Martberg (first to fourth centuries AD) & Trier (third to fourth centuries AD). Comparing the lead isotope ratios of lead objects and those from German ores shows that the source of over 85 percent of objects are Eifel ore deposits, but the Roman’s had also imported lead from the Southern Massif Central and from Great Britain. A further topic of this work was the systematic study of the variation of copper isotope ratios in different copper minerals and the mechanisms, which controls copper isotope fractionation in ores deposits. For this purpose, copper isotope analyses were made by Multi-Collector Inductively Coupled Plasma Mass-Spectrometry from a series of hydrothermal copper sulphides and their alteration products. Copper and lead isotope ratios were measured in coexisting phases of chalcopyrite and malachite and also coexisting malachite and azurite. No significant fractionation was observed in malachite-azurite phases, but in chalcopyrite-malachite coexisting phases, malachite always shows a positive fractionation to heavier isotope values. Zhu et al. and Larson et al. showed that isotopic variations in copper principally reflect mass fractionation in response to low temperature processes rather than source heterogeneity. The low temperature ore formation processes are mostly represented by weathering of primary sulphide ores to produce secondary carbonate phases and therefore are usually observed on the surface of ore deposits, which were probably removed during the early Bronze Age. Using this concept, copper isotope ratios were measured in some Early Bronze Age copper alloys and Roman copper alloys. However, no large copper isotope fractionation has been observed. Lead and copper isotope ratios were measured on samples from the Kupferschiefer. Two profiles were investigated; 1) Sangerhausen, which was not directly influenced by the oxidizing brines of Rote Fäule and 2) Oberkatz, where both Rote Fäule-controlled and structure-controlled mineralization were observed. Results from maturation studies of organic matter suggest the maximum temperature affecting the Kupferschiefer did not exceed 130°C. delta-65-Cu ranges between -0.78-+0.58‰, shows a positive correlation with copper concentration. Maximum temperature in the Kupferschiefer profile from Oberkatz is supposed to be around 150°C. delta-65Cu in this profile ranges between -0.71-+0.68‰. The pattern of copper isotope fractionation and copper concentration is same as the for profile of Sangerhausen. Origina lead isotope ratios are strongly overprinted by high concentrations of uranium in bottom of both profiles causing more radiogenic lead.
In Ostkreta tritt innerhalb der Phyllit-Quarzit-Serie ein in vier Einheiten untergliederbares präalpidisches Altkristallin auf. Das basale Kalavros-Kristallin (KCC) wurde während der permischen (Monazitalter) Barrow-Metamorphose (Staurolith-Zone) überprägt. Unter amphibolitfaziellen Metamorphosebedingungen bildeten sich liegende Isoklinalfalten sowie eine mylonitische Foliation. Die Verteilung der -c-Achsen von Quarzen belegt non-koaxiale Deformation durch Rhomben<a>- und Prismen<a>Gleitung, die sich in einer hochtemperierten Grenzflächenwanderung (GBM) äußerte. Zudem wuchsen vierphasige Granate, in denen die äußerste Zone auf einen nochmaligen Druckanstieg hindeutet. Die Granate wurden wiederum von Muskoviten, die aus einer Deformation mit Top-E- bis Top-NE-Scherung resultierten, überwachsen. Das überlagernde Myrsini-Kristallin (MCC) besteht aus Glimmerschiefern, Gneisen, Quarziten und Marmoren. Die Liefergebiete der Paragesteine (Zirkonaltersspektrum eines Paragneises) weisen Einflüsse der amazonischen- (2,8 Ga), eburnischen- (1,9 Ga), kibaran/sunsasischen- (0,9 - 1,1 Ga) und panafrikanischen- (0,9 - 0,5 Ga) Orogenese auf. Im Mittelkambrium intrudierten Granite in die sedimentären/kristallinen Gesteine (514 ±14 Ma zrn & 507 ±189 Ma mnz). Während des Unterkarbons (Monazitalter) fand eine Barrow-Metamorphose (Staurolith-Zone) mit non-koaxialer Top-N-Scherung statt. Hierbei bildeten sich geschlossene, liegende Falten sowie eine mylonitische Foliation. Die Quarz-c-Achsen belegen non-koaxiale Rhomben<a>- bis Prismen<a>Gleitung, die sich in Subkornrotations-Rekristallisation (SGR) und hochtemperierter Korngrenzwanderungs-Rekristallisation (GBM) äußerte. Im Gegensatz zu den Granaten des KCC bildeten sich nur dreiphasige Granate. Während des retrograden variszischen Deformationspfades entstanden Top-NE-Scherzonen. Der bis in die Unterkreide anhaltende Aufstieg der Gesteine wird von Zirkon-Spaltspurenaltern (150 ±14 Ma) dokumentiert. Das hangende Chamezí-Kristallin (CCC) besteht aus Gneisen und Glimmerschiefern. Auch hier intrudierten im Mittelkambrium (S-Typ-)Granite (511 ±16 Ma zrn & 521 ±28 Ma mnz). Relikte einer prävariszischen Orogenese stellen die Granatkerne und Margarite in den Glimmerschiefern dar. Das Alter der Barrow-Metamorphose (Granat-Zone) mit Top-N-Scherung konnte mangels geeigneter Minerale nicht bestimmt werden. Die Verteilung der Quarz-c-Achsen resultiert aus einer non-koaxialen Deformation bei der überwiegend Basis<a>- und Rhomben<a>Gleitung mit Subkornrotations-Rekristallisation (SGR) auftrat. Es bildete sich eine protomylonitische Foliation sowie liegende offene N-S Falten, die anschließend mehrphasig überprägt wurden. Für einen langsamen Aufstieg der Gesteine sprechen die semiduktilen Top-NE-Scherzonen und jurassischen Zirkon-Spaltspurenalter (158 ±16 Ma). Eine unbekannte Position innerhalb des Altkristallins nimmt das Vaí-Kristallin (VCC) ein. Während der Trias intrudierten hier granitoide Gesteine (223 ±11Ma zrn). Eine spätere amphibolitfazielle Überprägung zeigt Top-NW-Scherung. Der schnelle Aufstieg der Gesteine wird durch jurassische Zirkon-Spaltspurenalter dokumentiert (184 ±11 Ma). Die Kristallingerölle der hangenden skythischen Metakalkkonglomerate können auf Grund der permischen bis triassischen Metamorphose der kretischen Altkristalline, der triassischen Intrusion der Granite des Vaí-Kristallins sowie den jurassischen Zirkon-Spaltspurenaltern nicht aus der unterlagernden Altkristallin-Einheit stammen. Der Kontakt zwischen dem Altkristallin und dem Metakalkkonglomerat ist somit das Ergebnis der alpidischen Orogenese. Auch die Zirkone, Monazite und Rutile wurden von der Niedertemperatur/Hochdruck-Metamorphose der alpidischen Orogenese beeinflusst. Vor allem die Zirkone des Chamezí-Orthogneises zeigen einen Pb- und vermutlich auch einen U-Verlust sowie einen Austausch von radiogenem Pb durch rezentes Pb. Dieser niedergradige Fluidtransport äußerte sich zudem in einem Lösen der Zirkone sowie einer zerstörten Zirkonstruktur. Gleichzeitig fand ein Einbau von Ca2+, Mn2+ und Mg2+ statt, der von den Ca-reichen Fluiden, die auf Grund der Karbonat-reichen Deckenstapel auftraten, forciert wurde. Keinen Einfluss auf den Blei-Verlust der Zirkone zeigt dagegen die amphibolit- bis grünschieferfazielle präalpidische Überprägung. Auf Grund der Altersspektren der Zirkone sowie der tektonischen Transportrichtungen werden die Kristallinkomplexe als Fragmente von Gondwana interpretiert. Im Rahmen der spät-panafrikanischen Metamorphose und Deformation erfolgte der Aufstieg der Plutonite, an die sich eine Riftingphase anschließt, während der sich die Fragmente abspalteten. Im Karbon bis Perm kollidierten unter Top-N-Kinematik das MCC, CCC und KCC mit Gondwana. In der Trias erfolgte letztlich der Aufstieg der Plutonite des VCC und dessen anschließende Überprägung. Die Heraushebung der Gesteine erfolgte im Jura.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
This is a short movie about the research project No. 297 41 132 of the German Federal Environmental Agency. It is comissioned by the German Ministry for the Environment, Nature Conservation and Nuclear Safety and the German Federal Environmental Agency, Division II 6.2.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Chlorine monoxide (ClO) plays a key role in stratospheric ozone loss processes at midlatitudes. We present two balloonborne in situ measurements of ClO conducted in northern hemisphere midlatitudes during the period of the maximum of total inorganic chlorine loading in the atmosphere. Both ClO measurements were conducted on board the TRIPLE balloon payload, launched in November 1996 in Le´on, Spain, and in May 1999 in Aire sur l’Adour, France. For both flights a ClO daylight and night time vertical profile could be derived over an altitude range of approximately 15–31 km. ClO mixing ratios are compared to model simulations performed with the photochemical box model version of the Chemical Lagrangian Model of the Stratosphere (CLaMS). Simulations along 24-h backward trajectories were performed to study the diurnal variation of ClO in the midlatitude lower stratosphere. Model simulations for the flight launched in Aire sur l’Adour 1999 show a good agreement with the ClO measurements. For the flight launched in Le´on 1996, a similar good agreement is found, except at around ~ 650 K potential temperature (~26km altitude). However, a tendency is found that for solar zenith angles greater than 86°–87° the simulated ClO mixing ratios substantially overestimate measured ClO by approximately a factor of 2.5 or more for both flights. Therefore we conclude that no indication can be deduced from the presented ClO measurements that substantial uncertainties exist in midlatitude chlorine chemistry of the stratosphere. An exception is the situation at solar zenith angles greater than 86°–87° where model simulations substantial overestimate ClO observations.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.