Geowissenschaften
Refine
Year of publication
Document Type
- Article (590)
- Doctoral Thesis (139)
- Book (25)
- Contribution to a Periodical (21)
- Conference Proceeding (19)
- Working Paper (19)
- Part of Periodical (10)
- Diploma Thesis (8)
- diplomthesis (7)
- Part of a Book (5)
Is part of the Bibliography
- no (868)
Keywords
- climate change (13)
- Climate change (5)
- Geochemistry (5)
- Klimaänderung (5)
- Atmospheric chemistry (4)
- Boden (4)
- Deutschland (4)
- Klima (4)
- Modellierung (4)
- Stratosphäre (4)
Institute
During SPURT (Spurenstofftransport in der Tropopausenregion, trace gas transport in the tropopause region) we performed measurements of a wide range of trace gases with different lifetimes and sink/source characteristics in the northern hemispheric upper troposphere (UT) and lowermost stratosphere (LMS). A large number of in-situ instruments were deployed on board a Learjet 35A, flying at altitudes up to 13.7 km, at times reaching to nearly 380 K potential temperature. Eight measurement campaigns (consisting of a total of 36 flights), distributed over all seasons and typically covering latitudes between 35° N and 75° N in the European longitude sector (10° W–20° E), were performed. Here we present an overview of the project, describing the instrumentation, the encountered meteorological situations during the campaigns and the data set available from SPURT. Measurements were obtained for N2O, CH4, CO, CO2, CFC12, H2, SF6, NO, NOy, O3 and H2O. We illustrate the strength of this new data set by showing mean distributions of the mixing ratios of selected trace gases, using a potential temperature – equivalent latitude coordinate system. The observations reveal that the LMS is most stratospheric in character during spring, with the highest mixing ratios of O3 and NOy and the lowest mixing ratios of N2O and SF6. The lowest mixing ratios of NOy and O3 are observed during autumn, together with the highest mixing ratios of N2O and SF6 indicating a strong tropospheric influence. For H2O, however, the maximum concentrations in the LMS are found during summer, suggesting unique (temperature- and convection-controlled) conditions for this molecule during transport across the tropopause. The SPURT data set is presently the most accurate and complete data set for many trace species in the LMS, and its main value is the simultaneous measurement of a suite of trace gases having different lifetimes and physical-chemical histories. It is thus very well suited for studies of atmospheric transport, for model validation, and for investigations of seasonal changes in the UT/LMS, as demonstrated in accompanying and elsewhere published studies.
During several balloon flights inside the Arctic polar vortex in early 2003, unusual trace gas distributions were observed, which indicate a strong influence of mesospheric air in the stratosphere. The tuneable diode laser (TDL) instrument SPIRALE (Spectroscopie InFrarouge par Absorption de Lasers Embarqués) measured unusually high CO values (up to 600 ppb) on 27 January at about 30 km altitude. The cryosampler BONBON sampled air masses with very high molecular Hydrogen, extremely low SF6 and enhanced CO values on 6 March at about 25 km altitude. Finally, the MIPAS (Michelson Interferometer for Passive Atmospheric Sounding) Fourier Transform Infra-Red (FTIR) spectrometer showed NOy values which are significantly higher than NOy* (the NOy derived from a correlation between N2O and NOy under undisturbed conditions), on 21 and 22 March in a layer centred at 22 km altitude. Thus, the mesospheric air seems to have been present in a layer descending from about 30 km in late January to 25 km altitude in early March and about 22 km altitude on 20 March. We present corroborating evidence from a model study using the KASIMA (KArlsruhe Simulation model of the Middle Atmosphere) model that also shows a layer of mesospheric air, which descended into the stratosphere in November and early December 2002, before the minor warming which occurred in late December 2002 lead to a descent of upper stratospheric air, cutting of a layer in which mesospheric air is present. This layer then descended inside the vortex over the course of the winter. The same feature is found in trajectory calculations, based on a large number of trajectories started in the vicinity of the observations on 6 March. Based on the difference between the mean age derived from SF6 (which has an irreversible mesospheric loss) and from CO2 (whose mesospheric loss is much smaller and reversible) we estimate that the fraction of mesospheric air in the layer observed on 6 March, must have been somewhere between 35% and 100%.
A new version of a digital global map of irrigation areas was developed by combining irrigation statistics for 10 825 sub-national statistical units and geo-spatial information on the location and extent of irrigation schemes. The map shows the percentage of each 5 arc minute by 5 arc minute cell that was equipped for irrigation around the year 2000. It is thus an important data set for global studies related to water and land use. This paper describes the data set and the mapping methodology and gives, for the first time, an estimate of the map quality at the scale of countries, world regions and the globe. Two indicators of map quality were developed for this purpose, and the map was compared to irrigated areas as derived from two remote sensing based global land cover inventories.
Flow velocity in rivers has a major impact on residence time of water and thus on high and low water as well as on water quality. For global scale hydrological modeling only very limited information is available for simulating flow velocity. Based on the Manning-Strickler equation, a simple algorithm to model temporally and spatially variable flow velocity was developed with the objective of improving flow routing in the global hydrological model of Water- GAP. An extensive data set of flow velocity measurements in US rivers was used to test and to validate the algorithm before integrating it into WaterGAP. In this test, flow velocity was calculated based on measured discharge and compared to measured velocity. Results show that flow velocity can be modeled satisfactorily at selected river cross sections. It turned out that it is quite sensitive to river roughness, and the results can be optimized by tuning this parameter. After the validation of the approach, the tested flow velocity algorithm has been implemented into the WaterGAP model. A final validation of its effects on the model results is currently performed.
Die folgende Arbeit ist eine von drei Dissertationen des interdisziplinären Forschungsvorhabens „Landschaftsarchäologie im Hessischen Ried“, das im Rahmen des Frankfurter Graduiertenkollegs „Archäologische Analytik“ stattfand. Das Projekt bestand aus einer archäologisch-historischen (MAURER 2003), einer bodenkundlichen (KANNENGIEßER Diss. in Arbeit) sowie dieser palynologischen Dissertation. Gemeinsam beschäftigen sich diese Arbeiten mit der Landschaftsrekonstruktion des nördlichen Hessischen Rieds. Die palynologischen Untersuchungen hatten das Ziel, die bisher weitgehend unbekannte ‚jüngere’ Vegetationsgeschichte von der vorrömischen Eisenzeit bis etwa zum 5. Jh. n. Chr. zu rekonstruieren. Zwischen der Eisenzeit und dem Frühmittelalter gab es im Hessischen Ried mehrere kulturelle Umbrüche. In der Spätlatènezeit siedelte eine keltische Bevölkerungsgruppe im nördlichen Hessischen Ried. Deren Spur verliert sich aber im 1. Jh. v. Chr. Erst nach einer ‚Fundlücke’ von etwa 50 Jahren findet man schließlich Überreste eine elbgermanische Population (LENZ-BERNHARD & BERNHARD 1991). Über Lebensweise und Anzahl dieser germanischen Bevölkerung wissen wir fast nichts. Zumindest ein Teil von ihnen aber diente im römischen Heer. Etwa ab dem Jahr 13/12 v. Chr. in augusteischer Zeit stand das Ried unter dem Einfluss des seitdem am Rhein stationierten römischen Militärs (MAURER 2003). Im Zuge der Okkupation kamen römische Soldaten mitsamt ihrem Tross von Angehörigen und Marketendern an den Rhein. Da sehr wenig über die zuvor ansässige Bevölkerung bekannt ist, ist es unklar, wie sich die Bevölkerungsstärke und damit der Bedarf an landwirtschaftlicher Nutzfläche während dieser Zeit veränderte. In der mittleren Kaiserzeit (ca. 70–260 n. Chr.) bildete das Hessische Ried das südöstliche Vorfeld der Provinzhauptstadt Mogontiacum (Mainz) bzw. das Umland des Auxiliarkastells/Zivilvicus Groß-Gerau-„Auf Esch“. In die sog. „agri decumates“ rechts des Rheins (Tacitus, GERMANIA 29, 3) gesellten sich nach und nach noch gallische Siedler zur römischen Bevölkerung. Es ist zu erwarten, dass sich die kulturellen Umbrüche dieser Zeit auch im Landschaftsbild widerspiegelten. Beispielsweise werden vielerorts den Römern die ersten großflächigen Waldrodungen und Raubbau an der Landschaft zugeschrieben (BEHRE 1988, CÜPPERS 1990, DUMAYNE 1993). In den letzten Jahren mehren sich allerdings die Indizien dafür, dass zumindest in einigen Gebieten einschneidende Landschaftseingriffe bereits in der Eisenzeit stattgefunden haben und die Landschaft bei Ankunft der Römer schon weitgehend entwaldet und anthropogen geprägt war (BUNNIK et al. 1995, STOBBE 1996, 2000, STOBBE & KALIS 2001, 2002, DÖRFLER et al. 2000, KOOISTRA 1996, DUMAYNE 1993, DUMAYNE-PEATY 1998). Auch für das nördliche Hessische Ried bestätigt die vorliegende Arbeit dieses Bild. Schon in der Eisenzeit entstand im Hessischen Ried eine weitgehend geöffnete Landschaft mit Grünlandflächen und Äckern. Die Vegetationsveränderungen beim Übergang von der Bronzezeit zur Eisenzeit (um 800 BC) sind dabei weit deutlicher als beim Übergang von der Eisenzeit zur Römischen Kaiserzeit. In der Römerzeit wurde zwar der Ackerbau intensiviert und einige typische Kulturpflanzen wurden eingeführt, doch das restliche Pollenspektrum verändert sich kaum. Beim Rückzug der römischen Armee vom Odenwaldlimes kam es zu einer leichten Regeneration der Buche im Umland. Während der Völkerwanderungszeit sieht man in den Profilen keine deutliche Waldregeneration, sondern nur einen leichten Rückgang der Bewirtschaftung.
Drevermanns Name ist in der Geologie nicht mit bahnbrechenden Ideen und Theorien verknüpft. Er hat nicht seine gesamte Energie auf seine Forschungen gerichtet. Stattdessen seine - manchmal auch schwache - Kraft (vgl. 3.6.) auf die Lehre (bei der Senckenbergischen Naturforschenden Gesellschaft und Universität), die Aufklärung des Volkes (in Vorträgen und „Natur und Museum“) und vor allem auf sein Museumsengagement aufgeteilt. Schon in seinem zweiten Senckenberg-Jahr zeichnete sich das Engagement für die Museumskunde ab. Er arbeitete sicher in der ersten Zeit eher angeleitet, später freier planend und ergänzend für die Vollständigkeit der Sammlung. Und schon 1911 leidet Drevermann daran, daß er zu wenig Zeit für seine eigene Arbeit hat. Er bat am 10. Oktober 1911 den Anfang seiner „Dienststunden auf 9 statt um 8“ festzusetzen, also die „Anzahl reduzieren von 42 auf 36“ Stunden. Als Grund nannte er: „Während der Arbeitszeit im Museum ist es wegen der fortwährenden und vielseitigen Inanspruchnahme meiner Tätigkeit nicht möglich, zu eigener wissenschaftlichen Tätigkeit zu gelangen.“ Er schreibt weiter, daß er dadurch hofft, „länger am Abend arbeiten“ zu können. Schon damals zeigt sich sein offensichtlicher Zeitmangel für seine eigenen Forschungsarbeiten. Dies sollte ihn sein ganzes Leben begleiten. Als fast tragisch ist deswegen zu werten, daß er seine schon 1915 begonnene Arbeit über Placodus trotz großer Anstrengungen in 1930 und 1931 nicht mehr beenden kann. Als ausschlaggebend für den Wandel und für die Abkehr von der eigenen devonischen Forschung und den Beginn des enormen Museumsengagements darf die Schenkung des Diplodocus gewertet werden. Dieses Museumsexponat verlegte Drevermanns Forschungsschwerpunkt zu den fossilen Wirbeltieren, im speziellen den Dinosauriern und Artverwandten, und damit hin zu einem für Drevermann und damit für das Senckenberg-Museum noch heute erfolgreichen Museumsthema. Drevermann ging damit den Weg vom klassischen Devon-Paläontologen hin zum Museumswissenschaftler. In seinen Schaffensjahren zeigt sich sein Werdegang zum Agitator, er setzte die Akzente und arbeitete für seine Museumsvorstellungen. Dazu ein Zitat Drevermanns aus seiner frühen Veröffentlichung über die Meersaurier im Senckenberg-Museum (1914): „Das Streben unseres Museums nach einer möglichst vollständigen Vertretung aller wichtigen Typen des Tierlebens der Vorzeit ist am ersten bei den Meersauriern mit Erfolg gekrönt worden. Durch das wiederholte verständnisvolle Eingreifen mehrerer Gönner des Museums ist es gelungen, in einem Jahrzehnt eine Sammlung zu schaffen, auf die das Museum stolz sein kann.“ Drevermann deutet hier nur versteckt an, daß das angesprochene Jahrzehnt sein erstes im Senckenberg-Museum war. Mit Hilfe von Gönnern, deren Wohlwollen er in der Lage war sich zu verschaffen, gelang es ihm durch Täusche und Käufe diese Sammlung aufzubauen. Er wurde zur prägenden Persönlichkeit. Deswegen machte ihn die Senckenbergischen Naturforschende Gesellschaft zum ersten Geologieprofessor der jungen Frankfurter Universität. Ein Ergebnis seiner intensiven engagierten Arbeit: 1924 wird er zum geschäftsführenden Direktor des Senckenberg-Museums ernannt. Drevermann betrieb als Museumswissenschaftler eine populäre Wissenschaft. Die Beispiele dafür sind mannigfaltig: seine Texte in der Frankfurter Zeitung, das Entwickeln der Zeitschrift „Natur und Museum“ und seine Veröffentlichungen und Fragenbeantwortung hierin, seine vielen Reden, seine Radio-Aktivitäten. Das außerordentliche Engagement Drevermanns für „sein“ Museums-Periodikum zeigt dabei deutlich, wie er als Museumswissenschaftler agierte und nicht als forschender Naturwissenschaftler. Und er ist als Museumswissenschaftler erfolgreich, weil er besondere Qualitäten als Autor und Redner hat. Er beschreibt anschaulich - auch für den Laien - , aber wissenschaftlich genau. Beschäftigt hat sich Drevermann tatsächlich mit geologisch und paläontologischer Forschung nur sekundär. Er war nicht der Spezialist, sondern der Generalist - er verstand viele geologische und paläontologische Fragestellungen. Denn er war immer auf der Höhe des disziplinären Diskussionen – auch wenn er selbst nur einen geringen Beitrag an Lösungen dazu lieferte. Er selbst liest die Veröffentlichungen über die Forschungsarbeiten anderer, spricht in seinen Vorlesungen und Reden darüber, stellt Bücher vor, greift auch in die fachliche Diskussion ein mit Stellungnahmen und Essays, aber entfacht keine solche. Letzteres war nur einmal der Fall: bei seinen Vorstellungen über das Museum der Zukunft. Dieses Thema ist das eigentliche Vermächtnis Drevermanns.
Der Dritte Bericht des Zwischenstaatlichen Ausschusses für Klimawandel (IPCC, 2001a, b) bestätigt den Einfluss des Menschen auf das globale Klima und warnt vor einem Temperaturanstieg und vor Niederschlagsveränderungen in den nächsten 100 Jahren, die gesellschaftlichen Wohlstand und Umwelt nachhaltig beeinträchtigen können. Dabei werden weitreichende Folgen des Klimawandels angenommen, vom Anstieg des Meeresspiegels und einer möglichen Degradation von Landflächen bis hin zum Verlust von Tier- und Pflanzenarten, der Verknappung von Wasserressourcen, einer Zunahme von natürlichen Katastrophen wie Überschwemmungen und Dürren, der Ausbreitung von Krankheiten sowie negativer Auswirkungen auf die Nahrungsversorgung der Bevölkerung. Klimawandel ist dabei nur ein Aspekt des weiter gefassten ‘Globalen Wandels’, der eine Vielzahl von anthropogen verursachten Veränderungen der Umwelt einschließt. So wird zum Beispiel erwartet, dass auch demographische und sozioökonomische Entwicklungen sowie vom Menschen verursachte Landnutzungsänderungen eine erhebliche Auswirkung auf den zukünftigen Zustand der globalen Umwelt haben werden. Zu den gravierendsten Folgen des Globalen Wandels gehört die Veränderung der räumlichen und zeitlichen Verteilung der lokalen und regionalen Wasserressourcen. Es müssen daher Strategien entwickelt werden, um sowohl die Bevölkerung als auch die Umwelt vor den möglichen negativen Auswirkungen von erhöhten oder erniedrigten Pegelständen in Fließgewässern zu schützen, oder sie auf eine Veränderung der verfügbaren Wassermengen vorzubereiten. Zur Entwicklung dieser Strategien wiederum werden wissenschaftliche Szenarien und Modellberechnungen benötigt, mit deren Hilfe sich zukünftige hydrologische Verhältnisse abschätzen lassen. Zahlreiche derartige Szenarienanalysen wurden bereits durchgeführt, um den Einfluss des Klima- und Globalen Wandels auf das Wasserdargebot und auf das hydrologische Abflussregime zu untersuchen. Da Flusseinzugsgebiete eine natürliche und angemessene Betrachtungseinheit für dieses Problem darstellen, konzentrieren sich die meisten dieser Studien auf mittlere bis große Einzugsgebiete oder auf bestimmte Regionen zusammenhängender Flussgebiete. In Europa gibt es dazu Beispiele aus den frühen neunziger Jahren, als die Resultate der ersten Klimamodelle verfügbar wurden (z.B. Ott et al., 1991: für die Mosel; Kwadijk und van Deursen, 1993: Rhein; Vehviläinen und Huttunen, 1994: Vuoksi; Broadhurst und Naden, 1996: Severn; Bergström, 1996: Einzugsgebiet der Ostsee). Für diese Studien wurden hydrologische Modelle des jeweiligen Einzugsgebiets entwickelt und der Einfluss des Klimawandels auf den Abfluss bestimmt. Krahe und Grabs (1996) haben ein Wasserbilanzmodell mit einer Auflösung von 0.5° x 0.5° für den gesamten mitteleuropäischen Raum entwickelt und es anhandder Abflussdaten des Rheins, der Weser, der Ems, der Elbe und des deutschen Teils der Donau validiert. Arnell (1994, 1999), bzw. Arnell et al. (2000) untersuchten die Auswirkung des Klimawandels auf europäische Wasserressourcen ebenfalls mithilfe rasterbasierter Modellansätze. Schließlich zeigten Stanners und Bourdeau (1995), EEA (1999), Parry (2000), oder auf globaler Ebene WBGU (1999) und IPCC (1992, 2001a, b), in allgemeineren und politisch orientierten Untersuchungen den gegenwärtigen Zustand sowie mögliche zukünftige Entwicklungen der Umwelt in Europa und weltweit auf, einschließlich verschiedener Aspekte der kontinentalen Wasserressourcen und der Hydrologie. Im Vergleich zu den zahlreichen einzugsgebietsorientierten Analysen und ihrem stetig steigenden wissenschaftlichen Anspruch bis hin zu äußerst detaillierten Fragestellungen sind die regionalen oder globalen Ansätze jedoch eher selten und bleiben meist relativ unspezifisch in ihren Schlussfolgerungen. Darüber hinaus wird die Auswirkung der Wassernutzung, die erheblich zur Veränderung der zukünftigen Wasserressourcen und Abflussmengen beitragen kann, in den meisten Fällen aufgrund des Fehlens entsprechender Daten nicht berücksichtigt. In Anbetracht dieser Mängel wurde 1999 am Wissenschaftlichen Zentrum für Umweltsystemforschung an der Universität Kassel das EuroWasser-Projekt initiiert, auf dessen Durchführung die vorliegenden Dissertation beruht. In einem integrierten Modellansatz wurden in EuroWasser die Folgen von Klimawandel und sozioökonomischen Veränderungen auf die natürliche Wasserverfügbarkeit und die Wassernutzung auf gesamteuropäischer Ebene untersucht (siehe Abschlussbericht, Lehner et al., 2001). Das EuroWasser-Projekt versucht dabei drei aus Sicht von Gesellschaft, Ökonomie und Umwelt kritische Fragen zu beantworten: (1) Wie hoch ist der gegenwärtige Wasserstress in verschiedenen Regionen Europas, und welche zukünftigen Veränderungen sind zu erwarten? (2) Wie wird sich der Globale Wandel auf das europäische Wasserkraftpotenzial auswirken? Und (3) In welchen "kritischen Gebieten" Europas muss, basierend auf den Ergebnissen verschiedener Szenarien des Globalen Wandels, damit gerechnet werden, dass die Hochwasser- und Dürregefahr in Zukunft zunimmt, und von welcher Größenordnung sind diese Veränderungen? ...
Die drei Atolle Glovers Reef, Lighthouse Reef und Turneffe Islands vor der belizischen Küste im Karibischen Meer unterscheiden sich in Geomorphologie, Lagunentiefe, Sedimentbeschaffenheit, Mangroven- und Seegrasbewuchs, Wellen- und Strömungseinfluss sowie in ihren Sedimentationsraten und ihrem Entstehungsalter. Um herauszufinden, ob die Bivalven-Vergesellschaftungen verschiedener Lagunenzonen diese Unterschiede widerspiegeln, wurden 32 bis 44 rezente Sedimentproben auf jedem Atoll entnommen (Gesamtprobenzahl: 111). Deren Datensatz von insgesamt 32 122 Bivalvenschalen wurde anschließend Q-Mode-Cluster-Analysen unterzogen. Neben der Verteilung charakteristischer Arten wurde auch die Verteilung von Bivalven unterschiedlicher Lebens- und Ernährungsweise untersucht. Chione cancellata, ein flach grabender Suspensionsfresser, besiedelt bevorzugt (1) flache, wellen- und strömungsbeeinflusste Lagunenzonen. Die Sedimente (2) sehr hoch energetischer Flachwasserbereiche enthalten zudem hohe Anteile tiefer grabender Suspensionsfresser der Gattung Ervilia. Im (3) Rückriffbereich und am Atollrand sind tief grabende, Detritus fressende Telliniden häufig. Gouldia cerina, wie Chione ein flach grabender Suspensionsfresser, ist typisch für (4) geschlossene Flachwasserbereiche, während die Chemosymbionten-tragende, ebenfalls flach grabende Parvilucina sp. A. vorwiegend in (5) geschlossenen, tiefen Lagunenzonen vorkommt. Charakteristisch für (6) Mangrovengebiete ist Crassinella lunulata, ein sehr flach grabender Suspensionsfresser. Die Anteile taphonomischer Signaturen auf den Schalen, wie Bohrspuren, Inkrustationen, Fragmentierung und Abrasion sowie Diversität, Evenness und Richness sind auf Glovers Reef am höchsten und nehmen über Lighthouse Reef nach Turneffe Islands ab. Da in die gleiche Richtung zunehmende Sedimentationsraten auf den drei Atollen zu verzeichnen sind (GISCHLER 2003), ist vermutlich der abnehmende Effekt des Time-averaging für diesen Trend verantwortlich. Neben der rezenten Fauna wurden auch die Bivalven aus Vibrationsbohrkernen (ein Kern von jedem Atoll) untersucht. Die fossilen Bivalven-Vergesellschaftungen der inneren Lagunen von Glovers Reef, Lighthouse Reef und Turneffe Islands zeigen seit deren Entstehung eine für das jeweilige Atoll typische Fauna, die sich seit ~7000 YBP weiter entwickelte. Sie reflektieren damit die bereits im Anfangsstadium charakteristischen Unterschiede der drei Atolle.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
Ca-Silikate als natürliche Einschlüsse in Diamanten sind so extrem selten und bislang wenig untersucht, daß der Weg, sie synthetisch herzustellen, um entsprechende Analysen durchführen zu können, gerechtfertigt wird. Um die Veränderungen über einen großen Druckbereich bis zu Bedingungen, die dem Unteren Erdmantel entsprechen, durchführen zu können, wurde ein neues Hochdrucklabor mit einer Multi-Anvil-Presse aufgebaut. In dieses Labor sind viele Erfahrungen aus eigenen Experimenten und aus anderen Arbeitsgruppen eingeflossen, sodaß eine leistungsfähige Hochdruckanlage zur Verfügung steht. Kernstück dieses Hochdrucksystems ist der innere Hochdruckaufbau, wobei nicht ein bereits etablierter Hochdruckaufbau kopiert, sondern - durch das Integrieren der Vorzüge von unterschiedlichen Systemen - ein eigenständiger Hochdruckaufbau entwickelt wurde. Das System ist für weitere Ausbaumöglichkeiten vorbereitet, sodaß z. B. großvolumige Kapseln zusammen mit den Ceramcast-Oktaedern bis 80 kbar eingesetzt werden können, bzw. der maximale Druckbereich mit einem 10/4 mm Aufbau bis über 200 kbar ausgeweitet werden kann. Die Untersuchung der Reaktionskinetik an den Ca-Silikatphasen stellt eine besondere Herausforderung dar. Aus vorangegangenen Experimenten und Untersuchungen ist die "nicht Quenchbarkeit" von Ca-Perovskit und die Amorphisierung von Ca-Walstromit bekannt, sodaß sich die Untersuchungen mittels der herkömmlichen Hochdruckmethoden für diese Fragestellung als nachteilig erweisen. Dank der Zusammenarbeit mit dem "Material Science Laboratory" am Synchrotron in Daresbury bot sich die Möglichkeit, in situ Hochdruckexperimente an den Ca-Silikatphasen durchzuführen. Es stand nur eine begrenzte Entwicklungszeit zur Verfügung, um die neuartige "fine-to-fine" Geometrie zu entwickeln und zu erproben. Mit diesem Hochdruckaufbau ist es gelungen, in situ Hochdruckexperimente bei bis zu 150 kbar und 1400°C durchzuführen und dabei Ca-Perovskit zu kristallisieren. Mit den kleineren 10mm MgO-Oktaedern und 5 bzw. 4 mm Truncation an den Wolframcarbid-Würfeln sind sogar bei gleicher Geometrie noch höhere Drücke realisierbar. Die Beobachtungen an den durchgeführten Experimente ermöglicht eine Aussage zur Reaktionskinetik der Phasenumwandlung bei Ca-Silikaten. Die Disproportionsreaktion von Ca-Perovskit zu den zwei Phasen Larnit und Si-Titanit läuft sehr rasch ab, wo hingegen die Rekombinationsreaktion dieser beiden Phasen zu Ca-Walstromit kinetisch gehemmt und innerhalb von Stunden keine Umwandlung beobachtet werden konnte. Darüber hinaus bestätigen die eigenen Experimente ein Einsetzen der Amorphisierung von Ca-Perovskit bei Drücken unterhalb von 10 kbar. Eine Amorphisierung von Ca-Walstromit wurde auch nach vollständiger Druckentlastung nicht beobachtet. Werden die Beobachtungen der kinetischen Experimente der Phasenumwandlung an Ca-Silikaten auf die natürlichen Bedingungen bei der Diamantentstehung und deren Aufstiegspfad übertragen, spricht dies für ein Modell des raschen Aufstiegs aus dem Unteren Mantel bzw. der Übergangszone und einem Steckenbleiben im Oberen Mantel bei moderaten Drücken. Der Weg an die Erdoberfläche findet dann zu einem späteren Zeitpunkt ebenfalls mit schnellen Aufstiegsgeschwindigkeiten statt. Die Ergebnisse der Löslichkeits-Hochdruckexperimente von Kalium und Phosphor bestätigen die Beobachtungen, die an den natürlichen Ca-Silikateinschlüssen gemacht wurden. In dem Zweiphasenfeld, in dem Larnit zusammen mit Si-Titanit koexsistiert, hebt sich vor allem die sehr hohe Löslichkeit von Kalium und Phosphor hervor. Zwar wurde bereits in den natürlichen Einschlüssen ein auffallend hoher Gehalt dieser Elemente beobacht, die Experimente zur maximalen Löslichkeit zeigen jedoch, daß sich weitaus höhere Gehalte im Larnit lösen können. Für diese Phase trifft die gekoppelte Substitution von Kalium und Phosphor gegen Calcium und Silicium im Verhältnis 1 : 1 zu. Interessant ist zudem die offenbare Druckhabhängigkeit der Löslichkeit in Larnit. Für eine geobarometrische Anwendung dieses Druckeffekts ist das Stabilitätsfeld mit nur 20 kbar relativ schmal, so daß der Druckgradient gering ist. Die Titanit-Struktur erweist sich im Gegensatz dazu als nicht kompatibel für diese Elemente. In Si-Titanit werden nur extrem geringe Gehalte an Kalium und Phosphor eingebaut. In den natürlichen Einschlüssen wurden gleichermaßen geringe Gehalte nachgewiesen. Damit kann vom Erreichen der maximalen Löslichkeit in den natürlichen Proben ausgegangen werden. Als potentieller Träger von Kalium und Phosphor in der Übergangszone ist die Phase Larnit. Sie kann sehr hohe Gehalte dieser Elemente aufnehmen, mit steigendem Druck nimmt die Löslichkeit jedoch ab. Direkte Messungen der Löslichkeit an Ca-Perovskit liegen bislang nicht vor. Die Experimente an der unteren Stabilitätsgrenze zeigen sehr geringe Gehalte an Kalium und Phosphor. Eine Substitution in dieser sehr dichten Struktur findet nicht statt. Die geringe Löslichkeit in Ca-Perovskit entspricht nicht dem erwarteten Ergebnis. Diese Phase galt bislang als möglicher Träger von Kalium und Phosphor im Unteren Mantel. Wenn davon ausgegangen wird, daß Einschlüsse, in denen Larnit und Si-Titanit nachgewiesen werden, möglicherweise ehemals Ca-Perovskit gewesen sind und damit eine Herkunft aus dem Unteren Mantel haben, so sprechen die hohen Gehalte an Kalium und Phosphor in Larnit gegen diese Annahme. Ein Einschluß, der als Ca-Perovskit im Unteren Mantel kristallisiert ist, kann nicht die großen Mengen an Kalium und Phosphor einbauen, wie sie dann im Larnit als direkte Umwandlungsphase nachgewiesen werden. Möglicherweise sind Einschlüsse, die hohe Gehalte an Kalium und Phosphor zeigen, in dem Zweiphasenstabilitätsfeld Larnit/Si-Titanit kristallisiert, und ein Hinweis darauf, daß sie kein Disproportionsprodukt aus vormaligem Ca-Perovskit sind. Bislang ungeklärt bleibt die Frage, ob mit höherem Druck die Löslichkeit von Kalium und Phosphor in Ca-Perovskit zunimmt. Wenn eine Druckabhängigkeit der Löslichkeit vorliegt, würde dies dafür sprechen, daß die Diamanten mit Ca-Perovskit-Einschlüssen aus dem Unteren Mantel stammen und nicht aus der Übergangszone. Die Annahme der Herkunft dieser speziellen Diamantparagenese aus dem Unteren Mantel wird auch durch das Auftreten von Ferro-Periklas und Stichovit zusammen mit Ca-Perovskit im gleichen Diamantkristall bekräftigt. Zukünftige Experimente bei höheren Drücken könnten die Frage klären, ob bei einer Druckerhöhung eine Zunahme der Löslichkeit in Ca-Perovskit beobachtet wird. Eine beachtliche Zunahme der Löslichkeit mit dem Druck würde das Modell der Herkunft der Ca-Silikateinschlüsse aus dem Unteren Mantel stützen. Die Löslichkeit von Kalium und Phosphor in Ca-Walstromit zeigt sowohl in den natürlichen Einschlüssen als auch in den Experimenten mittlere Gehalte dieser Elemente an. Abweichend von den Beobachtungen in den Einschlüssen ist jedoch der erhöhte Kaliumgehalt, der nicht den erwarteten stöchiometrischen Austausch von 1 : 1 wiedergibt. Untersuchungen an natürlichen Ca-Walstromit als Einschlüsse in Diamanten werden zukünftig von besonderem Interesse sein, da diese Einschlüsse entsprechend häufiger auftreten und als Probenmaterial vorliegen. Weitere Experimente im Ca-Walstromit-Stabilitätsfeld mit unterschiedlichen Gehalten an Spurenelementen und entsprechenden Strukturuntersuchungen können die Frage der Stabilität bzw. der Amorphisierung klären. Ein unmittelbares Amorphisieren von Ca-Walstromit nach der Druckentlastung wird nicht beobachtet und auch die energiereiche Strahlung der Mikrosonde bzw. des Synchrotrons hat keine Amorphisierung zur Folge. Beim Bestrahlen mit der sehr energiereichen Strahlung bei den TEM-Untersuchungen zeigt sich jedoch, daß Ca-Walstromit nicht sehr stabil ist und innerhalb weniger Minuten amorphisiert. Die TEM-Untersuchungen weisen auf mögliche Polymorphe von Ca-Walstromit hin. Wenn sich unterschiedliche Polymorphe nachweisen lassen, ist von abweichenden Löslichkeiten und unter Umständen anderen Einbaumechanismen in den Phasen auszugehen.
One possible approach to study systematically the influence of the deformation regime on the geometry of geological structures like folds and boudins is analogue modelling. For a complete understanding of the resulting structures, consideration of the third dimension is required. This PhD study deals with scaled analogue modelling under constriction and plane-strain conditions to improve our knowledge of folding and boudinage of lower crustal rocks in space and time. Plasticine is an appropriate analogue material for rocks in the lower crust. Therefore, this material was used for the experiments. The macroscopic behaviour of most types of plasticine is quite similar to rocks undergoing strain-rate softening and strain hardening regardless of the different microscopic aspects of deformation. Therefore, if one is aware that the stress exponent and viscosity increase with increasing strain, the original plasticine types used with stress exponents ranging from 5.8 to 8.0 are adequate for modelling geologic structures. The same holds for plasticine/oil mixtures. Thus, plasticine and plasticine/oil mixtures can be used to model the viscous flow of different rock types in the lower crust. If climb-accommodated dislocation creep and associated steady-state flow is assumed for the natural rocks, the plasticine/oil mixtures should be used, which flow under steady-state conditions. Three different experimental studies of plane-strain coaxial deformation of stiff layers, with viscosity η2 and stress exponent n2, embedded in a weak matrix, with viscosity η1 and stress exponent n1, have been carried out. The undeformed samples (matrix plus layer) were cubes with an edge length of 12 cm. All experimental runs have been carried out at T = 25 ± 1°C and varying strain rates ė, ranging from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1, until a finite longitudinal strain of 30% – 40% was achieved. The first experimental study improved the understanding about the evolution of folds and boudins when the layer is oriented perpendicular to the Y-axis of the finite strain ellipsoid. The rock analogues used were Beck’s green plasticine (matrix) and Beck’s black plasticine (competent layer), both of which are strain-rate softening modelling materials with stress exponent n = ca. 8. The effective viscosity η of the matrix plasticine was changed by adding different amounts of oil to the original plasticine. At a strain rate ė of 10 high -3 s high -1 and a finite strain e of 10%, the effective viscosity of the matrix ranges from 1.2 x 10 high 6 to 7.2 x 10 high 6 Pa s. The effective viscosity of the competent layer has been determined as 4.2 x 10 high 7 Pa s. If the viscosity ratio is large (> ca. 20) and the initial thickness of the competent layer is small, both folds and boudins develop simultaneously. Although the growth rate of the folds seems to be higher than the growth rate of the boudins, the wavelength of both structures is approximately the same as is suggested by analytical solutions. A further unexpected, but characteristic, aspect of the deformed competent layer is a significant increase in thickness, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. In the second experimental study, the impact of varying strain rates on growing folds and boudins under plane strain have been investigated. The strain rates used range from 7.9 x 10 high -6 s high -1 to 1.7 x 10 high -2 s high -1. The stiff layer and matrix consist of non-linear viscous Kolb grey and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials with power law exponents (n) and apparent viscosities (η) ranging from 6.5 to 7.9 and 8.5 x 10 high 6 to 7.2 x 10 high 6 Pa s, respectively. The effective viscosity (η) of the matrix plasticine was partly modified by adding oil to the original plasticine. At the strain rates used in the experiments the viscosity ratio between layer and matrix ranges between 3 and 10. Different runs have been carried out where the layer was oriented perpendicular to the principal strain axes (X>Y>Z). The results suggest a considerable influence of the strain rate on the geometry of the deformed stiff layer including its thickness. This holds for every type of layer orientation (S ┴ X, S ┴ Y, S ┴ Z). If the stiff layer is oriented perpendicular to the short axis Z of the finite strain ellipsoid, the number of the resulting boudins and the thickness of the stiff layer increase, whereas the length of boudins decreases with increasing strain rate. If the stiff layer is oriented perpendicular to the long axis, X, of the finite strain ellipsoid, enlargement of the strain rate results in increasing wavelength of folds, whereas the number of folds and the degree of thickening of the stiff layer decreased. If the stiff layer is oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid enlargement of the strain rate results in a decreasing number of boudins and folds associated with increasing wavelengths of both structures. The wavelength of folds is approximately half of the boudins wavelength. This is true for the case where folds and boudins develop simultaneously (S ┴ Y) and for cases where both structures develop independently (folds at S ┴ X and boudins at S ┴ Z). In the third experimental study, scaled analogue experiments have been carried out to demonstrate the growth of plane-strain folds and boudins through space and time. Previous 3D-studies are based only on finite deformation structures. Their results can therefore not be used to prove if both structures grew simultaneously or in sequence. Plane strain acted on a single stiff layer that was embedded in a weak matrix, with the layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. Two different experimental runs have been carried out using computer tomography (CT) to analyse the results. The first run was carried out without interruption. During the second run, the deformation was stopped in each case at longitudinal strain increments of 10%. Every experiment was carried out at a temperature T of 25°C and a strain rate, ė, of ca. 4 x 10 high -3 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 18.6 between the non-linear viscous layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine with 150 ml oil kg high -1). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 1.2 x 10 high 6 Pa s and 10.5. These new data that result from incremental analogue modelling corroborate previous suggestions that folds and boudins are coeval structures in cases of plane-strain coaxial deformation with the stiff layer oriented perpendicular to the intermediate Y-axis of the finite strain ellipsoid. They will be of interest for all workers who are dealing with plane-strain boudins and folds, where the fold axes are parallel to the major axis (X) of the finite strain ellipsoid. As has been demonstrated by the first experimental study, coeval folding and boudinage under plane strain, with S ┴ Y, are associated with a significant increase in the thickness of the competent layer. The latter phenomenon does not occur in other cases of simultaneous folding and boudinage, such as bulk pure constriction. To study the impact of layer thickness on the geometry of folds and boudins under pure constriction, we carried out additional experiments using different types of plasticine for a stiff layer and a weaker matrix to model folding and boudinaging under pure constriction, with the initially planar layer oriented parallel to the Xaxis of the finite strain ellipsoid. The stiff layer and matrix consist of non-linear viscous Kolb brown and Beck’s green plasticine, respectively, both of which are strain-rate softening modelling materials. Six runs have been carried out using thicknesses of the stiff layer of 1, 2, 4, 6, 8 and 10 ± 0.2 mm. All experimental runs were carried out at a temperature T of 30 ± 2°C and a strain rate, ė, of ca. 1.1 x 10 high -4 s high -1 until a finite longitudinal strain of 40% was achieved with a viscosity contrast m of 3.1 between the stiff layer (Kolb brown plasticine) and the matrix (Beck’s green plasticine). The apparent viscosity, η, and the stress exponent, n, for the layer at a strain rate ė = ca. 10 high -3 s high -1 and a finite strain e = 10% are 2.23 x 10 high 7 Pa s and n = 5.8 and for the matrix 7.2 x 10 high 6 Pa s and 7.9. Our results suggest a considerable influence of the initial thickness of the stiff layer on the geometry of the deformed stiff layer. There is no evidence for folding in XY=XZ-sections if the initial thickness of the competent layer is larger than ca. 8 mm. If the initial thickness of the competent layer is set at ca. 10 ± 0.2 mm, both folds and boudins develop simultaneously. However, the growth rate of the boudins seems to be higher than the growth rate of the folds. A further expected, but characteristic, aspect of the deformed competent layer is no change in thickness of the competent layer, which can be used to distinguish plane-strain folds and boudins from constrictional folds and boudins. The model results are important for the analysis and interpretation of deformation structures in rheologically stratified rocks undergoing dislocation creep under bulk constriction. Tectonic settings where constrictional folds and boudins may develop simultaneously are stems of salt diapirs, subduction zones or thermal plumes. To make (paleo) viscosimetric statements possible, the rheological data of the different plasticine types were related to the geometrical data. When comparing the normalized dominant wavelength Wd obtained from the deformed layer of the models with the theoretical dominant wavelength (Ld) calculated using the Smith equation (1977, 1979), the latter probably also holds when folding and boudinage develop simultaneously (S ┴ Y) and when boudins develop independently (S ┴ Z), but can obviously not be applied at very low viscosity ratios as is indicated by the low-strain-rate experiments.
The present work was devised to address the systematic analysis of samples from a range of Roman non-ferrous metal artefacts from different archaeological contexts and sites in the Roman provinces of Germania Superior. One of the focal points of this study is the provenancing of different lead objects from five important Roman settlements between 15 BC and the beginning of fourth century AD. For this purpose, measurements were made on lead and copper ore samples from the Siegerland, Eifel, Hunsrück and Lahn-Dill area in Germany and supplemented with data from the literature to create a data bank of lead isotope ratios of European deposits. Compositional analysis of lead objects by Electron Microprobe analysis showed that Romans were able to purify lead from ore up to 99%. Multi-Collector Inductively Coupled Plasma Mass-Spectrometry was used to determine the source of lead, which played an important role in nearly all aspects of Roman life. Lead isotope ratios were measured for ore samples from German deposits from the eastern side of the Rhine (Siegerland, Lahn-Dill, Ems) and the western side of the Rhine (Eifel, Hunsrück), which contained enough ore reserves to answer the increasing local demand and are believed to have been mined during the Roman period. This data together with those from Mediterranean ore deposits from the literature was used to establish a data bank. The Mediterranean ore deposits range from Cambrian (high 207Pb/206Pb) to tertiary (lower 207Pb/206Pb) values. In particular, the Cypriot deposits are younger, while the Spanish deposits fall either with the younger Sardic ores or close to the older Cypriot ores. The lead isotope ratios of most German ore deposits fall in between the 208Pb/206Pb vs. 207Pb/206Pb ratios of Sardinia and Cyprus, where the lead isotope signature of ore deposits from France and Britain are also found. Over 240 lead objects were measured from Wallendorf (second century BC to first century AD) Dangstetten (15-8 BC), Waldgirmes (AD 1-10), Mainz (AD 1-300), Martberg (first to fourth centuries AD) & Trier (third to fourth centuries AD). Comparing the lead isotope ratios of lead objects and those from German ores shows that the source of over 85 percent of objects are Eifel ore deposits, but the Roman’s had also imported lead from the Southern Massif Central and from Great Britain. A further topic of this work was the systematic study of the variation of copper isotope ratios in different copper minerals and the mechanisms, which controls copper isotope fractionation in ores deposits. For this purpose, copper isotope analyses were made by Multi-Collector Inductively Coupled Plasma Mass-Spectrometry from a series of hydrothermal copper sulphides and their alteration products. Copper and lead isotope ratios were measured in coexisting phases of chalcopyrite and malachite and also coexisting malachite and azurite. No significant fractionation was observed in malachite-azurite phases, but in chalcopyrite-malachite coexisting phases, malachite always shows a positive fractionation to heavier isotope values. Zhu et al. and Larson et al. showed that isotopic variations in copper principally reflect mass fractionation in response to low temperature processes rather than source heterogeneity. The low temperature ore formation processes are mostly represented by weathering of primary sulphide ores to produce secondary carbonate phases and therefore are usually observed on the surface of ore deposits, which were probably removed during the early Bronze Age. Using this concept, copper isotope ratios were measured in some Early Bronze Age copper alloys and Roman copper alloys. However, no large copper isotope fractionation has been observed. Lead and copper isotope ratios were measured on samples from the Kupferschiefer. Two profiles were investigated; 1) Sangerhausen, which was not directly influenced by the oxidizing brines of Rote Fäule and 2) Oberkatz, where both Rote Fäule-controlled and structure-controlled mineralization were observed. Results from maturation studies of organic matter suggest the maximum temperature affecting the Kupferschiefer did not exceed 130°C. delta-65-Cu ranges between -0.78-+0.58‰, shows a positive correlation with copper concentration. Maximum temperature in the Kupferschiefer profile from Oberkatz is supposed to be around 150°C. delta-65Cu in this profile ranges between -0.71-+0.68‰. The pattern of copper isotope fractionation and copper concentration is same as the for profile of Sangerhausen. Origina lead isotope ratios are strongly overprinted by high concentrations of uranium in bottom of both profiles causing more radiogenic lead.
In Ostkreta tritt innerhalb der Phyllit-Quarzit-Serie ein in vier Einheiten untergliederbares präalpidisches Altkristallin auf. Das basale Kalavros-Kristallin (KCC) wurde während der permischen (Monazitalter) Barrow-Metamorphose (Staurolith-Zone) überprägt. Unter amphibolitfaziellen Metamorphosebedingungen bildeten sich liegende Isoklinalfalten sowie eine mylonitische Foliation. Die Verteilung der -c-Achsen von Quarzen belegt non-koaxiale Deformation durch Rhomben<a>- und Prismen<a>Gleitung, die sich in einer hochtemperierten Grenzflächenwanderung (GBM) äußerte. Zudem wuchsen vierphasige Granate, in denen die äußerste Zone auf einen nochmaligen Druckanstieg hindeutet. Die Granate wurden wiederum von Muskoviten, die aus einer Deformation mit Top-E- bis Top-NE-Scherung resultierten, überwachsen. Das überlagernde Myrsini-Kristallin (MCC) besteht aus Glimmerschiefern, Gneisen, Quarziten und Marmoren. Die Liefergebiete der Paragesteine (Zirkonaltersspektrum eines Paragneises) weisen Einflüsse der amazonischen- (2,8 Ga), eburnischen- (1,9 Ga), kibaran/sunsasischen- (0,9 - 1,1 Ga) und panafrikanischen- (0,9 - 0,5 Ga) Orogenese auf. Im Mittelkambrium intrudierten Granite in die sedimentären/kristallinen Gesteine (514 ±14 Ma zrn & 507 ±189 Ma mnz). Während des Unterkarbons (Monazitalter) fand eine Barrow-Metamorphose (Staurolith-Zone) mit non-koaxialer Top-N-Scherung statt. Hierbei bildeten sich geschlossene, liegende Falten sowie eine mylonitische Foliation. Die Quarz-c-Achsen belegen non-koaxiale Rhomben<a>- bis Prismen<a>Gleitung, die sich in Subkornrotations-Rekristallisation (SGR) und hochtemperierter Korngrenzwanderungs-Rekristallisation (GBM) äußerte. Im Gegensatz zu den Granaten des KCC bildeten sich nur dreiphasige Granate. Während des retrograden variszischen Deformationspfades entstanden Top-NE-Scherzonen. Der bis in die Unterkreide anhaltende Aufstieg der Gesteine wird von Zirkon-Spaltspurenaltern (150 ±14 Ma) dokumentiert. Das hangende Chamezí-Kristallin (CCC) besteht aus Gneisen und Glimmerschiefern. Auch hier intrudierten im Mittelkambrium (S-Typ-)Granite (511 ±16 Ma zrn & 521 ±28 Ma mnz). Relikte einer prävariszischen Orogenese stellen die Granatkerne und Margarite in den Glimmerschiefern dar. Das Alter der Barrow-Metamorphose (Granat-Zone) mit Top-N-Scherung konnte mangels geeigneter Minerale nicht bestimmt werden. Die Verteilung der Quarz-c-Achsen resultiert aus einer non-koaxialen Deformation bei der überwiegend Basis<a>- und Rhomben<a>Gleitung mit Subkornrotations-Rekristallisation (SGR) auftrat. Es bildete sich eine protomylonitische Foliation sowie liegende offene N-S Falten, die anschließend mehrphasig überprägt wurden. Für einen langsamen Aufstieg der Gesteine sprechen die semiduktilen Top-NE-Scherzonen und jurassischen Zirkon-Spaltspurenalter (158 ±16 Ma). Eine unbekannte Position innerhalb des Altkristallins nimmt das Vaí-Kristallin (VCC) ein. Während der Trias intrudierten hier granitoide Gesteine (223 ±11Ma zrn). Eine spätere amphibolitfazielle Überprägung zeigt Top-NW-Scherung. Der schnelle Aufstieg der Gesteine wird durch jurassische Zirkon-Spaltspurenalter dokumentiert (184 ±11 Ma). Die Kristallingerölle der hangenden skythischen Metakalkkonglomerate können auf Grund der permischen bis triassischen Metamorphose der kretischen Altkristalline, der triassischen Intrusion der Granite des Vaí-Kristallins sowie den jurassischen Zirkon-Spaltspurenaltern nicht aus der unterlagernden Altkristallin-Einheit stammen. Der Kontakt zwischen dem Altkristallin und dem Metakalkkonglomerat ist somit das Ergebnis der alpidischen Orogenese. Auch die Zirkone, Monazite und Rutile wurden von der Niedertemperatur/Hochdruck-Metamorphose der alpidischen Orogenese beeinflusst. Vor allem die Zirkone des Chamezí-Orthogneises zeigen einen Pb- und vermutlich auch einen U-Verlust sowie einen Austausch von radiogenem Pb durch rezentes Pb. Dieser niedergradige Fluidtransport äußerte sich zudem in einem Lösen der Zirkone sowie einer zerstörten Zirkonstruktur. Gleichzeitig fand ein Einbau von Ca2+, Mn2+ und Mg2+ statt, der von den Ca-reichen Fluiden, die auf Grund der Karbonat-reichen Deckenstapel auftraten, forciert wurde. Keinen Einfluss auf den Blei-Verlust der Zirkone zeigt dagegen die amphibolit- bis grünschieferfazielle präalpidische Überprägung. Auf Grund der Altersspektren der Zirkone sowie der tektonischen Transportrichtungen werden die Kristallinkomplexe als Fragmente von Gondwana interpretiert. Im Rahmen der spät-panafrikanischen Metamorphose und Deformation erfolgte der Aufstieg der Plutonite, an die sich eine Riftingphase anschließt, während der sich die Fragmente abspalteten. Im Karbon bis Perm kollidierten unter Top-N-Kinematik das MCC, CCC und KCC mit Gondwana. In der Trias erfolgte letztlich der Aufstieg der Plutonite des VCC und dessen anschließende Überprägung. Die Heraushebung der Gesteine erfolgte im Jura.
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
This is a short movie about the research project No. 297 41 132 of the German Federal Environmental Agency. It is comissioned by the German Ministry for the Environment, Nature Conservation and Nuclear Safety and the German Federal Environmental Agency, Division II 6.2.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
The assumption that mankind is able to have an in uence on global or regional climate, respectively, due to the emission of greenhouse gases, is often discussed. This assumption is both very important and very obscure. In consequence, it is necessary to clarify definitively which meteorological elements (climate parameters) are in uencend by the anthropogenic climate impact, and to which extent in which regions of the world. In addition, to be able to interprete such an information properly, it is also necessary to know the magnitude of the different climate signals due to natural variability (for example due to volcanic or solar activity) and the magnitide of stochastic climate noise. The usual tool of climatologists, general circulation models (GCM) suffer from the problem that they are at least quantitatively uncertain with regard to the regional patterns of the behaviour of climate elements and from the lack of accurate information about long-term (decadal and centennial) forcing. In contrast to that, statistical methods as used in this study have the advantage to test hypotheses directly based on observational data. So, we focus to the very reality of climate variability as it has occurred in the past. We apply two strategies of time series analyis with regard to the observed climate variables under consideration. First, each time series is splitted into its variation components. This procedure is called 'structure-oriented time series separation'. The second strategy called 'cause-oriented time series separation' matches various time series representing various forcing mechanisms with those representing the climate behaviour (climate elements). In this way it can be assessed which part of observed climate variability can be explained by this (combined) forcing and which part remains unexplained.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Die Induzierte Polarisation (IP) ist ein geoelektrisches Verfahren und wurde ursprünglich zur Exploration von Erzvorkommen entwickelt. Neben metallischen Leitern, tragen auch Tonminerale, der Porenraum und die chemische Zusammensetzung der Porenlösung zur Polarisierbarkeit eines Unter-grundes bei. Die spektrale Induzierte Polarisation (SIP) untersucht die Polarisierbarkeit in einem Frequenzbereich von 1 mHz bis 1 kHz und nutzt diese aufgezeichneten Spektren zur Unterscheidung von Materialien. Früher mit einem enormen messtechnischen Aufwand verbunden, führte der gerätetechnische Fort-schritt in den letzten beiden Jahrzehnten dazu, dass die SIP vermehrt in der Umweltgeophysik zum Einsatz kommt. Zu den Fragestellungen gehören die Detektion von Altlasten und der Grundwasser-schutz. In der Archäologie ist die Induzierte Polarisation bislang ein kaum verwendetes Verfahren. Im Rahmen des Graduiertenkollegs „Archäologische Analytik“ der J. W. Goethe- Universität wurde die Entwicklung einer Multielektroden-Apparatur SIP-256 begonnen. Ziel der vorliegenden Arbeit war die Fortführung dieser Entwicklung. Da sich die wissenschaftliche Fragestellung während dieser Promotion auf die Erkundung archäologischer Objekte beschränkt, galt es zunächst automatisierte Messabläufe zu realisieren, die es erlauben, die komplexe elektrische Leitfähigkeit kleinräumiger 2D- bzw. 3D-Strukturen zu erfassen. Die Verwendung der SIP-256 führte zu einer erheblichen Ver-kürzung der Messzeit und war entscheidend für die Realisierung dieser Arbeit. Den zweiten Schwerpunkt der Arbeit bildet die Suche nach Anwendungsgebieten für die SIP innerhalb der archäologischen Prospektion. Basierend auf den Ursachen von Polarisationseffekten werden im Rahmen dieser Arbeit drei Anwendungsgebiete vorgestellt. Das erste Anwendungsgebiet nutzt die Vorteile der SIP bei der Prospektion von Erzen. Auf einem mittelalterlicher Verhüttungsplatz bei Seesen am Harz konnten im Vergleich zu einer konventionellen Widerstandsmessung mehr Schlackegruben lokalisiert werden. Während einer deutsch-bulgarischen Grabungskampagne in Pliska (Bulgarien) 1999 gelang es, durch eine flächenhafte Anwendung der IP einen Siedlungshorizont über Lehmablagerungen nachzuweisen. Die Überreste eines Gebäudes erzeugten einen messbaren Polarisationseffekt. Die frühmittelalterlichen Siedlungsreste befinden sich mit 2 bis 3 m in relativ großer Tiefe und konnten bei einer anschließenden Ausgrabung freigelegt werden. Eine Kernfrage war, ob Holzobjekte mit Hilfe der SIP zu detektieren sind. Mit Hilfe von Labormessungen an der TU Clausthal konnte geklärt werden, dass Holz ein polarisierbares Material ist. Zu den untersuchten Proben gehören Hölzer aus einem bronzezeitlichen Bohlenweg, die von Ausgrabungen im Federseemoor (Kreis Biberach) stammen. Durch die Untersuchungen im Labor motiviert, folgte eine Feldmessung über dem Bohlenweg. Es gelang, erstmals ein Holzobjekt mit spektraler Induzierter Polarisation zu detektieren. Holz spielt durch die dendrochronologische Datierung von Fundstellen eine wichtige Rolle, konnte aber bislang noch mit keiner geophysikalischen Methode zufriedenstellend prospektiert werden. Abschließend kann gesagt werden, dass sich die spektrale Induzierte Polarisation als wertvolle Methode in der archäologischen Prospektion etablierte. Strukturen, welche mit einer konventionellen Widerstandsmessung nicht zu erkennen waren, konnten durch die SIP eindeutig identifiziert werden. Natürlich müssen die vorliegenden Ergebnisse noch durch weitere Messungen bestätigt werden, jedoch zeichnet sich ab, dass sich mit der fortschreitenden gerätetechnischen Entwicklung, welche zu schnelleren Messabläufen führt, wichtige Zusatzinformationen durch die spektrale Induzierte Polarisation gewinnen lassen.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
We present simulations with the Chemical Lagrangian Model of the Stratosphere (CLaMS) for the Arctic winter 2002/2003. We integrated a Lagrangian denitrification scheme into the three-dimensional version of CLaMS that calculates the growth and sedimentation of nitric acid trihydrate (NAT) particles along individual particle trajectories. From those, we derive the HNO3 downward flux resulting from different particle nucleation assumptions. The simulation results show a clear vertical redistribution of total inorganic nitrogen (NOy), with a maximum vortex average permanent NOy removal of over 5 ppb in late December between 500 and 550 K and a corresponding increase of NOy of over 2 ppb below about 450 K. The simulated vertical redistribution of NOy is compared with balloon observations by MkIV and in-situ observations from the high altitude aircraft Geophysica. Assuming a globally uniform NAT particle nucleation rate of 3.4·10−6 cm−3 h−1 in the model, the observed denitrification is well reproduced. In the investigated winter 2002/2003, the denitrification has only moderate impact (<=10%) on the simulated vortex average ozone loss of about 1.1 ppm near the 460 K level. At higher altitudes, above 600 K potential temperature, the simulations show significant ozone depletion through NOx-catalytic cycles due to the unusual early exposure of vortex air to sunlight.
Chlorine monoxide (ClO) plays a key role in stratospheric ozone loss processes at midlatitudes. We present two balloonborne in situ measurements of ClO conducted in northern hemisphere midlatitudes during the period of the maximum of total inorganic chlorine loading in the atmosphere. Both ClO measurements were conducted on board the TRIPLE balloon payload, launched in November 1996 in Le´on, Spain, and in May 1999 in Aire sur l’Adour, France. For both flights a ClO daylight and night time vertical profile could be derived over an altitude range of approximately 15–31 km. ClO mixing ratios are compared to model simulations performed with the photochemical box model version of the Chemical Lagrangian Model of the Stratosphere (CLaMS). Simulations along 24-h backward trajectories were performed to study the diurnal variation of ClO in the midlatitude lower stratosphere. Model simulations for the flight launched in Aire sur l’Adour 1999 show a good agreement with the ClO measurements. For the flight launched in Le´on 1996, a similar good agreement is found, except at around ~ 650 K potential temperature (~26km altitude). However, a tendency is found that for solar zenith angles greater than 86°–87° the simulated ClO mixing ratios substantially overestimate measured ClO by approximately a factor of 2.5 or more for both flights. Therefore we conclude that no indication can be deduced from the presented ClO measurements that substantial uncertainties exist in midlatitude chlorine chemistry of the stratosphere. An exception is the situation at solar zenith angles greater than 86°–87° where model simulations substantial overestimate ClO observations.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Im Rahmen der Diskussion des globalen bzw. regionalen Klimawandels sind, neben Extremereignissen, Langfristtrends von besonderem Interesse. Doch erfordert die ausgeprägte Klimavariabilität in Zeit und Raum spezielle regionale Detailuntersuchungen. Daher wird hier eine solche Analyse für Deutschland und die Klimaelemente bodennahe Lufttemperatur sowie Niederschlag vorgestellt, mit besonderem Blick auf die jahreszeitlichen/monatlichen Besonderheiten der Trends in ausgewählten Zeitintervallen zwischen 1891 und 2000. Am auffälligsten ist dabei die sich verstärkende winterliche Temperatur- und Niederschlagszunahme, während im Sommer, unter ebenfalls Erwärmung, eine Trendwende von abnehmendem zu in den letzten Dekaden zunehmendem Niederschlag eingetreten ist.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Wenn sich beim Klimagipfel in Den Haag [genauer bei der nun schon 6. Vertragstaatenkonferenz zur Klimaschutzkonvention der Vereinten Nationen] nun wieder die Delegationen aus fast allen Staaten der Welt treffen, um über Klimaschutzmaßnahmen zu beraten, dann schwingt auch immer die Frage mit: Sind solche Maßnahmen wirklich notwendig? Sollen wir nicht einfach warten, bis wir mehr, ja vielleicht alles wissen? ...
Die Zunahme der Konzentration von CO2 und anderen "Treibhausgasen" in der Atmosphäre ist unzweifelhaft, und ebenso unzweifelhaft reagiert das Klima darauf. Christian-Dietrich Schönwiese, Professor für Meteorologische Umweltforschung und Klimatologie an der Universität Frankfurt am Main, sieht dringenden politischen Handlungsbedarf und plädiert gleichzeitig dafür, die Debatte rund um den Klimaschutz zu versachlichen.
Die öffentliche Klimadebatte scheint sich zu verselbständigen. Abgehoben von den Erkenntnissen der Fachwissenschaftler reden die einen von der "Klimakatastrophe", die uns demnächst mit voller Wucht treffen wird, wenn wir nicht sofort alles ganz anders machen; Panik ist ihnen das rechte Mittel, Aufmerksamkeit zu erregen. Die anderen sehen im "Klimaschwindel" einen Vorwand für Forschungsgelder und zusätzliche Steuerbelastung der Wirtschaft; ihre Strategie ist Verwirrung und Verharmlosung. Mit der Fixierung auf solche Extrempositionen werden wir den Herausforderungen der Zukunft sicherlich nicht gerecht. Höchste Zeit für eine Versachlichung und für einen klärenden Beitrag zum Verwirrspiel "Klima".
Temporal changes in the occurrence of extreme events in time series of observed precipitation are investigated. The analysis is based on a European gridded data set and a German station-based data set of recent monthly totals (1896=1899–1995=1998). Two approaches are used. First, values above certain defined thresholds are counted for the first and second halves of the observation period. In the second step time series components, such as trends, are removed to obtain a deeper insight into the causes of the observed changes. As an example, this technique is applied to the time series of the German station Eppenrod. It arises that most of the events concern extreme wet months whose frequency has significantly increased in winter. Whereas on the European scale the other seasons also show this increase, especially in autumn, in Germany an insignificant decrease in the summer and autumn seasons is found. Moreover it is demonstrated that the increase of extreme wet months is reflected in a systematic increase in the variance and the Weibull probability density function parameters, respectively.
Simulation of global temperature variations and signal detection studies using neural networks
(1998)
The concept of neural network models (NNM) is a statistical strategy which can be used if a superposition of any forcing mechanisms leads to any effects and if a sufficient related observational data base is available. In comparison to multiple regression analysis (MRA), the main advantages are that NNM is an appropriate tool also in the case of non-linear cause-effect relations and that interactions of the forcing mechanisms are allowed. In comparison to more sophisticated methods like general circulation models (GCM), the main advantage is that details of the physical background like feedbacks can be unknown. Neural networks learn from observations which reflect feedbacks implicitly. The disadvantage, of course, is that the physical background is neglected. In addition, the results prove to be sensitively dependent from the network architecture like the number of hidden neurons or the initialisation of learning parameters. We used a supervised backpropagation network (BPN) with three neuron layers, an unsupervised Kohonen network (KHN) and a combination of both called counterpropagation network (CPN). These concepts are tested in respect to their ability to simulate the observed global as well as hemispheric mean surface air temperature annual variations 1874 - 1993 if parameter time series of the following forcing mechanisms are incorporated : equivalent CO2 concentrations, tropospheric sulfate aerosol concentrations (both anthropogenic), volcanism, solar activity, and ENSO (all natural). It arises that in this way up to 83% of the observed temperature variance can be explained, significantly more than by MRA. The implication of the North Atlantic Oscillation does not improve these results. On a global average, the greenhouse gas (GHG) signal so far is assessed to be 0.9 - 1.3 K (warming), the sulfate signal 0.2 - 0.4 K (cooling), results which are in close similarity to the GCM findings published in the recent IPCC Report. The related signals of the natural forcing mechanisms considered cover amplitudes of 0.1 - 0.3 K. Our best NNM estimate of the GHG doubling signal amounts to 2.1K, equilibrium, or 1.7 K, transient, respectively.
The climate system can be regarded as a dynamic nonlinear system. Thus, traditional linear statistical methods fail to model the nonlinearities of such a system. These nonlinearities render it necessary to find alternative statistical techniques. Since artificial neural network models (NNM) represent such a nonlinear statistical method their use in analyzing the climate system has been studied for a couple of years now. Most authors use the standard Backpropagation Network (BPN) for their investigations, although this specific model architecture carries a certain risk of over-/underfitting. Here we use the so called Cauchy Machine (CM) with an implemented Fast Simulated Annealing schedule (FSA) (Szu, 1986) for the purpose of attributing and detecting anthropogenic climate change instead. Under certain conditions the CM-FSA guarantees to find the global minimum of a yet undefined cost function (Geman and Geman, 1986). In addition to potential anthropogenic influences on climate (greenhouse gases (GHG), sulphur dioxide (SO2)) natural influences on near surface air temperature (variations of solar activity, explosive volcanism and the El Nino = Southern Oscillation phenomenon) serve as model inputs. The simulations are carried out on different spatial scales: global and area weighted averages. In addition, a multiple linear regression analysis serves as a linear reference. It is shown that the adaptive nonlinear CM-FSA algorithm captures the dynamics of the climate system to a great extent. However, free parameters of this specific network architecture have to be optimized subjectively. The quality of the simulations obtained by the CM-FSA algorithm exceeds the results of a multiple linear regression model; the simulation quality on the global scale amounts up to 81% explained variance. Furthermore the combined anthropogenic effect corresponds to the observed increase in temperature Jones et al. (1994), updated by Jones (1999a), for the examined period 1856–1998 on all investigated scales. In accordance to recent findings of physical climate models, the CM-FSA succeeds with the detection of anthropogenic induced climate change on a high significance level. Thus, the CMFSA algorithm can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Die im Industriezeitalter und im globalen Mittel beobachtete Erwärmung der unteren Atmosphäre zeigt ausgeprägte regional-jahreszeitliche Besonderheiten (IPCC 2001, SCHÖNWIESE 2003, 2004). Dies gilt in noch höherem Maß für den Niederschlag (vgl. Kap. 3.1.2 und 3.1.8). Die Vermutung, dass eine solche Erwärmung zu einer Intensivierung des hydrologischen Zyklus führt, was im Prinzip zunächst richtig ist (vgl. Kap. 3.1.2), erweist sich jedoch als viel zu simpel, wenn daraus einfach auf eine generelle Niederschlagszunahme geschlossen wird. Dies gilt sogar innerhalb einer so kleinen Region wie Deutschland. Denn obwohl Deutschland im Mittel überproportional an der »globalen« Erwärmung teilnimmt (SCHÖNWIESE 2003, 2004), zeigen die Langzeitänderungen des Niederschlages im Detail ganz unterschiedliche Charakteristika. Dabei kann die hier vorgestellte Beschreibung der in Deutschland beobachteten Niederschlagtrends subregional noch wesentlich verfeinert werden, vgl. z.B. Analyse für Sachsen (FRANKE et al. 2004), da der Niederschlag eine nur geringe räumliche Repräsentanz aufweist (SCHÖNWIESE & RAPP 1997). Zeitliche Änderungen von Klimaelementen lassen sich nun in ganz unterschiedlicher Weise betrachten. Am meisten verbreitet sind lineare Trendberechnungen, wie sie auch einem Teil der hier vorliegenden Studie zugrunde liegen. Es können aber auch Trends anderer statistischer Kenngrößen als des Mittelwertes von Interesse sein, z.B. der Varianz. Häufigkeitsverteilungen, die in normierter Form Wahrscheinlichkeitsdichtefunktionen heißen, erlauben die Bestimmung solcher Kenngrößen in Form der Verteilungsparameter. Wird unter Nutzung geeigneter Verteilungen (z.B. Normal- oder Gumbelverteilung, vgl. unten Abb. 3.1.6-4) eine statistische Modellierung der jeweils betrachteten klimatologischen Zeitreihe vorgenommen, werden Aussagen über die Unter- bzw. Überschreitungswahrscheinlichkeiten bestimmter Schwellenwerte möglich, in verallgemeinerter Form für beliebige Schwellen und Zeiten (TRÖMEL 2004). Da dieser extremwertorientierte Aspekt von großer Wichtigkeit ist, soll auch ihm hier nachgegangen werden (vgl. alternativ Kap. 3.1.7 und 3.1.10). Die im Folgenden verwendeten Daten sind jeweils Monatssummen des Niederschlages 1901–2000 an 132 Stationen in Deutschland (teilweise unter Einbezug einiger Stationen in den angrenzenden Ländern), einschließlich der daraus abgeleiteten Flächenmittelwerte (sog. Rasterdaten; Quelle: Deutscher Wetterdienst, siehe u.a. MÜLLER-WESTERMEIER 2002; vgl. weiterhin RAPP & SCHÖNWIESE 1996, dort auch Hinweise zur Homogenitätsprüfung, sowie RAPP 2000).
Observed global and European spatiotemporal related fields of surface air temperature, mean-sea-level pressure and precipitation are analyzed statistically with respect to their response to external forcing factors such as anthropogenic greenhouse gases, anthropogenic sulfate aerosol, solar variations and explosive volcanism, and known internal climate mechanisms such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic Oscillation (NAO). As a first step, a principal component analysis (PCA) is applied to the observed spatiotemporal related fields to obtain spatial patterns with linear independent temporal structure. In a second step, the time series of each of the spatial patterns is subject to a stepwise regression analysis in order to separate it into signals of the external forcing factors and internal climate mechanisms as listed above as well as the residuals. Finally a back-transformation leads to the spatiotemporally related patterns of all these signals being intercompared. Two kinds of significance tests are applied to the anthropogenic signals. First, it is tested whether the anthropogenic signal is significant compared with the complete residual variance including natural variability. This test answers the question whether a significant anthropogenic climate change is visible in the observed data. As a second test the anthropogenic signal is tested with respect to the climate noise component only. This test answers the question whether the anthropogenic signal is significant among others in the observed data. Using both tests, regions can be specified where the anthropogenic influence is visible (second test) and regions where the anthropogenic influence has already significantly changed climate (first test).
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
Excitation functions for quasi-elastic scattering have been measured at backward angles for the systems 32,34S+197Au and 32,34S+208Pb for energies spanning the Coulomb barrier. Representative distributions, sensitive to the low energy part of the fusion barrier distribution, have been extracted from the data. For the fusion reactions of 32,34S with 197Au couplings related to the nuclear structure of 197Au appear to be dominant in shaping the low energy part of the barrier distibution. For the system 32S+208Pb the barrier distribution is broader and extends further to lower energies, than in the case of 34S+208Pb. This is consistent with the interpretation that the neutron pick-up channels are energetically more favoured in the 32S induced reaction and therefore couple more strongly to the relative motion. It may also be due to the increased collectivity of 32S, when compared with 34S.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies an develop into learning economies which are based on intra-regional production linkages, interactive technological learning processes, flexibility and proximity (Storper, 1992; Lundvall and Johnson, 1994; Gregersen and Johnson, 1997). In the next section of this paper, I will discuss some of the theoretical issues regarding localized learning processes, learning economies and learning regions (see, also, Bathelt, 1999). I will then describe the methodology used. What follows is a brief overview of how Boston s economy has specialized in high technology production. The main part of the paper will then focus on recent trends in Boston s high technology industries. It will be shown that the high technology economy consists of different subsectors which are not tied to a single technological development path. The various subsectors are, at least partially, dependent on different forces and unrelated processes. There is, however, tentative evidence which suggests that cooperative behavior and collective learning in supplierproducer- user relations have become important factors in securing reproductivity in the regional structure. The importance of these trends will be discussed in the conclusions.
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Obwohl Böden unzweifelhaft ein signifikanter Pool von organischem Kohlenstoff sind, ist ihre Bedeutung als potenzielle langfristige Senke für atmosphärischen Kohlenstoff keineswegs klar. Trotz bedeutender wissenschaftlicher Forschritte aus den letzten Jahren zur Klärung der Kohlenstoffdynamik in Böden gibt es nach wie vor offene Fragen insbesondere hinsichtlich der spezifischen geochemischen Mechanismen, die für die Stabilisierung organischen Kohlenstoffs in Böden verantwortlich sind. Vor diesem Hintergrund besteht ein wesentliches Ziel der vorliegenden Dissertation darin, in unterschiedlichen Bodentypen die Konzentration von organischem Kohlenstoff und Stickstoff sowie die mineralogische Zusammensetzung zu untersuchen, um Hinweise auf einen möglichen Einfluss der Tonmineralogie, der spezifischen Oberfläche und der Oxidkonzentration auf die Stabilisierung organischen Materials zu ermitteln. Die Ergebnisse sollen einen Beitrag dazu liefern, die Mechanismen der Fixierung organischer Substanz in Böden besser zu verstehen und das vorhandene Wissen hierüber zu erweitern. Hierzu wurden fünf verschiedene Bodenprofile aus Hessen mit unterschiedlicher mineralogischer Zusammensetzung untersucht. Um die Auswirkungen verschiedener physikalischer und geochemischer Faktoren auf den Gehalt organischer Substanz in den untersuchten Böden festzustellen, wurden folgende Parameter untersucht: -Tonmineralogie, -organische Kohlenstoff- und Stickstoff-Konzentrationen, -%-Kationensättigung, -spezifische Oberfläche, -dithionit- und oxalatlösliche Gehalte an Fe, Al und Mn. Anhand dieser Parameter wurden weiterführende statistische Analysen unter Verwendung der Statistiksoftware SPSS für Windows durchgeführt, um mögliche statistische Zusammenhänge aufzudecken, die für die Stabilisierung von organischem Kohlenstoff in den betrachteten Böden verantwortlich sind. Die im Rahmen der vorliegenden Dissertation ermittelten Ergebnisse zeigen, dass der Tonanteil und die Tonmineralogie der untersuchten Böden nur einen begrenzten Einfluss auf die Stabilisierung organischer Substanz haben. Weiterhin wird gezeigt, dass die in der Literatur propagierte Beziehung zwischen spezifischer Oberfläche und der Konzentration organischen Kohlenstoffs nicht auf alle Böden anwendbar ist. Die Ergebnisse deuten darauf hin, dass die Präsenz von amorphen Eisen- und Aluminiumoxiden der wichtigste Einflussfaktor für die Fixierung von organischem Material in den untersuchten Böden ist. Die größeren Konzentrationen von organischem Kohlenstoff in den kleinsten Fraktionen (Feinschluff und Ton) der Profile sind vor allem darauf zurückzuführen, dass Oxide ebenfalls in diesen Fraktionen aufzufinden sind. Tonminerale haben demnach eine sekundäre Bedeutung, indem sie Komplexe mit den Oxiden bilden, die zur Stabilisierung von organischer Substanz führen können. Insgesamt deuten die Ergebnisse daraufhin, dass Böden keine geeignete Senke für die langfristige Speicherung von organischem Kohlenstoff sind. Obwohl Mechanismen wie die Adsorption von organischer Substanz an Oxide die Stabilisierung organischen Materials unterstützen, scheinen diese nicht stark genug zu sein, um eine permanente Speicherung von organischem Kohlenstoff zu bewirken.
Zur Erkundung der Depotfunktion von quellfähigen Tonmineralen für organische Umweltchemikalien und der möglichen Verdrängung dieser Chemikalien durch biogene Tenside wurden kinetische Untersuchungen mit Hilfe von Batch-Experimenten durchgeführt. Dabei wurde zunächst das Adsorptions- und Desorptionsverhalten von ausgesuchten Umweltchemikalien an mineralische Festphasen und danach die Verdrängung dieser Chemikalien durch biogene Tenside untersucht. Als Umweltchemikalien dienten in den Experimenten Di-(n-butyl)phthalat (DBP) und Di-(2-ethylhexyl)phthalat (DEHP), die in industriellem Maßstab hauptsächlich als Weichmacher in Kunststoffen verwendet werden und fünf ausgewählte polycyclische aromatische Kohlenwasserstoffe (PAK), die bei pyrolytischen Prozessen sowie der unvollständigen Verbrennung organischen Materials entstehen. In den durchgeführten Versuchsreihen dienten ein smektitreicher Bentonit, Quarzsand und Gemische aus diesen beiden Stoffen mit verschiedenen Gewichtsanteilen der Bentonit- und Sandphase sowie Seesand als Adsorbermedium für die Umweltchemikalien. Diese Variationen sollten das unterschiedliche Verhalten der verschiedenen Festphasen bezüglich der drei untersuchten Prozesse (Adsorption, Desorption und Austausch) mit den Chemikalien verdeutlichen. Untersuchungen am verwendeten Bentonit ergaben, daß sein Hauptbestandteil ein Calcium- Montmorillonit war. Der Montmorillonit ist ein quellfähiges, dioktaedrisches Tonmineral aus der Gruppe der Smektite. Die Quellfähigkeit dieses Smektits wurde in Quellversuchen mit Ethylenglykol und Glycerin mittels Röntgendiffraktometrie festgestellt. Die chemische Zusammensetzung des Minerals wurde mit Röntgenfluoreszenzmessungen analysiert. Mit dem Greene-Kelly-Test wurde der Montmorillonit als smektitischer Anteil im Bentonit identifiziert. Im Laufe einer jeden Versuchsreihe sind nacheinander drei Prozesse mit jeder Probe im Labor untersucht worden: 1. Adsorption von Umweltchemikalien (Phthalate und PAK) an Sandproben mit unterschiedlichen Tongehalten und an reinen Tonproben. 2. Desorption der adsorbierten Umweltchemikalien aus den Sand/Ton-Gemischen und Tonproben in vier Schritten. 3. Austausch dieser Chemikalien aus den Sand/Ton-Gemischen und Tonproben gegen biogene Tenside. Im ersten Schritt der Batch-Experimente wurden die beiden Phthalate bzw. die PAK (Naphthalin, Acenaphthen, Fluoren, Phenanthren und Fluoranthen) aus einer wässrigen Lösung an die mineralischen Festphasen adsorbiert. Die Phthalate wurden in einem 1:1 Verhältnis in den Experimenten eingesetzt, die fünf PAK als ein Gemisch oder auch einzeln. Für die PAKAdsorption wurde auch eine Wasser-Aceton-Mischung beim Adsorptionsversuch verwendet, da sich dadurch ihre Löslichkeit erheblich verbessern ließ und die kinetischen Reihenversuche bezüglich der Gleichgewichtseinstellung wesentlich gleichmäßiger verliefen. Die Proben wurden 20 Stunden lang bis zur Einstellung des Gleichgewichts im Überkopfmischer geschüttelt. Die festen Phasen wurden danach von den wässrigen Phasen getrennt und zur Ermittlung der Einstellung des Desorptionsgleichgewichts weiterverwendet. Die wässrigen Phasen wurden mit organischen Lösemitteln extrahiert und der Gehalt an Umweltchemikalien gaschromatographisch quantifiziert. Die verbliebenen Festphasen wurden jeweils viermal mit frischem, destilliertem Wasser 20 Stunden lang zur Ermittlung des Gleichgewichts der Desorption geschüttelt, wobei nach Abtrennung der wässrigen Phasen diese auf ihren Organikgehalt hin wie oben beschrieben untersucht wurden. An diese vier Desorptionsschritte schloß sich das Verdrängungsexperiment einer Versuchsreihe an. Hierbei wurden verseifte, langkettige biogene Tenside (Alkoholate und Carbonsäuresalze mit geradzahliger Anzahl der Kohlenstoffatome) zu jeder Probe hinzugegeben und jede Festphase nochmals mit frischem Wasser im Überkopfmischer geschüttelt. In diesem Schritt sollte überprüft werden, ob die in den Festphasen verbliebenen Phthalate und PAK durch Zugabe von biogenen Tensiden in höherem Maße in der wässrigen Phase wiedergefunden werden als dies aus dem jeweiligen Desorptionsgleichgewicht zu erwarten war. Mit den Ergebnissen konnten Adsorptionsisothermen (nur für Phthalate) aufgenommen und Angaben zur Einstellung des Desorptionsgleichgewichts oder dessen Störung nach Austauschexperimenten gemacht werden. Die Auswertung der Adsorptionsexperimente ergab, daß Festphasen mit Bentonitanteil befähigt sind, einen höheren Anteil an Phthalaten und PAK zu adsorbieren als reine Sandproben. Bei kleinen Phthalatkonzentrationen wurde DEHP aufgrund einer stärkeren Affinität zur Festphase besser adsorbiert als DBP. Stiegen die Phthalatzugaben, so wurde DBP in höherem Maße als DEHP adsorbiert. Dies wurde durch eine bessere Einlagerung der DBP-Moleküle in die innerkristallinen Zwischenschichten des Montmorillonit-Minerals ermöglicht (Interkalation). Röntgenographisch wurde ein deutlich vergrößerter Wert für den Schichtabstand im Montmorillonit nachgewiesen als im ursprünglichem Zustand (bis zu 18 Å gegenüber 15,3 Å). Die Desorptionsisothermen zeigten für Festphasen mit Quarzsandanteilen häufig ein ungleichmäßiges Verhalten. So wurde häufig im zweiten und dritten Desorptionsschritt eine unerwartet hohe Menge an Phthalaten in der wässrigen Lösung gefunden. Reine Bentonitproben zeigten dagegen eine gleichmäßige Konzentrationsabnahme der Phthalate nach jedem Desorptionsschritt. Der eingesetzte Bentonit war in der Lage, Phthalate stärker von der Desorption zurückzuhalten als Quarzsand. Die Einstellung des Desorptionsgleichgewichts erfolgte mit reinem Bentonit schneller als bei Sandproben oder Sand-Bentonit Gemischen. Bei Austauschexperimenten, in denen die ursprünglich eingesetzte Menge an Phthalaten unter 1 mg lag, wurden keine Verdrängungsprozesse festgestellt. Stiegen die Konzentrationen der Phthalate (bis zu ca. 200 mg), so kam es aufgrund der größeren Oberflächenbelegung im Montmorillonit zu Verdrängungsprozessen der Phthalate durch biogene Tenside. Die Extraktion der wässrigen Lösung ergab nach dem Austauschexperiment eine höhere Menge an Phthalaten als es aus dem Desorptionsexperimenten erwartet worden war. Insgesamt wurde mehr DBP als DEHP nach den Austauschexperimenten in der wässrigen Lösung gefunden. Da DBP besser als DEHP in die Zwischenschichten des Montmorillonits eingebaut wurde, konnte auch diese Feststellung damit erklärt werden, daß biogene Tenside die Phthalate aus den innerkristallinen Zwischenschichten verdrängen. Bei PAK wurden Verdrängungsprozesse nur im Falle von Phenanthren festgestellt. Bei anderen in den Experimenten eingesetzten PAK (vorwiegend Naphthalin, Acenaphthen und Fluoren) war offenbar der Dampfdruck so groß, daß vor dem Austauschexperiment nicht mehr genügend organisches Material in der Bodenprobe adsorbiert war. Bei parallel durchgeführten Versuchen mit reinem Quarzsand und mit Seesand als Festphase wurde dagegen weder bei Phthalaten noch PAK eine wesentliche Störung des Desorptionsgleichgewichts in der Größenordnung der bentonithaltigen Proben nach dem Verdrängungsexperiment festgestellt. Dies ist ein Hinweis darauf, daß Verdrängungsprozesse bevorzugt auf Oberflächen von Tonmineralen stattfinden. Insgesamt konnte mit dieser Arbeit gezeigt werden, daß Gleichgewichtseinstellungen von Umweltchemikalien an Tonmineralen durch biogene Tenside gestört werden können. Durch die Einwirkung der biogenen Tenside kommt es zu einer verstärkten Desorption der Umweltchemikalien aus den Tonmineralen.
The focus of this study were Celtic gold coins excavated from the Martberg, a Celtic oppidium and sanctuary, occupied in the first century B.C. by a Celtic tribe known as the Treveri. These coins and a number of associated coinages, were characterised in terms of their alloy compositions and their geochemical and isotopic signatures so as to answer archaeological and numismatic questions of coinage development and metal sources. This required the development of analytical methods involving; Electron Microprobe (EPMA), Laser Ablation-ICP-MS, solution Multicollector-ICPMS and LA-MC-ICP-MS. The alloy compositions (Au-Ag-Cu-Sn) were determined by EPMA on a small polished area on the edge of the coins. A large beam size, 50µm (diameter), was used to overcome the extreme heterogeneity of these alloys. These analyses were shown to be representative of the bulk composition of the coins. The metallurgical development of the coinages was defined and showed that the earlier coinages followed a debasement trend, which was superceded by a trend of increasing copper at the expense of sliver while gold compositions remained stable. This change occurred with the appearance of the inscribed "POTTINA" coinage, Scheers 30/V. Two typologically different coinages, Scheers 16 and 18 ("Armorican Types") were found to have markedly different compositions which do not fit into the trends described above. A Flan for a gold coin, which may indicate the presence of a mint at the Martberg, was found to have an identicle weight and composition as the Scheers 30/I coins, which preceeded the majority of the coins found at the Martberg in the coin development chronology. The trace element anaylses were made by Laser Ablation-ICPMS using an AridusTM desolvating nebuliser to introduce matrix matched solution standards to calibrate the measurements, which were then normalised to 100%. Quantitative results were obtained for the following elements: Sc, Ti, Cr, Mn, Co, Ni, Cu, Zn, Se, Ru, Rh, Pd, Ag, Sb, Te, W, Ir, Pt, Pb, Bi. The remaining elements remain problematic as they produced incorrect standardisations mainly due to chemical effects in solution such as adsorption onto the beaker walls or oxidation : V, Fe, Ga, Ge, As, Mo, Sn, Re, Os, Hg. Changes in the sources of Au, Ag and Cu were observed during the development of the coinages through the variation of trace elements, which correlate positively with the major components of the coin alloys. Changes in the Pt/Au ratios show that the Scheers 23 coins contain distinctly different gold from the later coinages and that the Scheers 18 gold source was also different. Te/Ag was used to show that the Sch.23 coins also contained different silver and some subgroups were observed in the Sch. 30/V coins. A major change in copper source is indicated by the sudden increase of Sb and Ni with the introduction of the Sch. 30/V coins (POTTINA), which can be linked to a similar change in copper observed in the contemporary silver coinage, Sch. 55 (with a ring). Lead isotopic analyses were made by solution- and Laser Ablation - MC-ICP-MS, The laser technique proved to be in good agreement with the solution analyses with precisions between 1 and 0.1%o (per mil). The development of the laser method opens the way for easy and virtually non-destructive Pb isotopic determinations of ancient gold coins. The results showed that Sch. 23 is very different from the following coinages, Sch. 16 and 18 are also different, forming their own group, and all the later "Eye" staters (Sch. 30/I-VI) lie on a mixing line controlled by the addition of copper from a Mediterranean source, probably Sardinia or Spain. An indication of gold and silver sources should be possible with further analyses of the Sch. 23 and Rainbow Cup gold coins and the Sch. 54 and 55 silver coinages. Copper Isotopic analyses were made by solution- and Laser Ablation - MC-ICP-MS. Both techniques require further development to produce more reproducible results. The results show that there appears to be a trend to more positive d Cu65 values for the later coinages and that the link between the copper used in the Sch. 30/V (POTTINA) coins and the silver Sch. 55 (with a ring) coins is also shown by similarly postive d Cu65 values. The full suite of analyses were also made on samples of gold from the region. They were mostly composed of "placer gold", alluvial gold found in rivers. It was found that when a study is restricted to a limited number of deposits or areas then it is possible to distinguish between deposits based on the concentration of those elements which are least affected by transport related alteration processes. These elements include; the PGE's, due to their refractory nature, and those elements which are usually present in high enough concentrations to remain relatively unaffected, eg: Cu, Pb and Sb. Due to the nature of the coin alloy it is not possible to link the gold used in the coins studied here with gold deposits, as the large amounts of Ag and Cu, added to the coin alloys, have masked the Au signature. However, further Pb isotopic analyses of gold deposits should prove useful in determining from which regions Celtic gold was derived.
In dieser Arbeit wurde der chemische Ozonverlust in der arktischen Stratosphäre über elf Jahre hinweg, zwischen 1991 und 2002, mit Hilfe der so genannten "Ozon-Tracer Korrelationstechnik" (TRAC), untersucht. Bei dieser Methode werden Korrelationen zwischen Ozon und langlebigen Spurenstoffen im Verlauf des Winters im Polarwirbels beobachtet und so der jährliche akkumulierte Ozonverlust berechnet. Die Ergebnisse dieser Arbeit basieren im wesentlichen auf Messdaten der Satelliteninstrumente: HALOE (Halogen Occultation Experiment) auf UARS (Upper Atmosphere Research Satellite) und ILAS (Improved Limb Atmospheric Spectrometer) Instrument auf ADEOS (Advanced Earth Observing Satellite). Das HALOE Instrument misst seit Oktober 1991 kontinuierlich alle zwei bis drei Monate für einige Tage in höheren nördlichen Breiten. ILAS lieferte ausschließlich für den Winter 1996-97 Messungen, die über sieben Monate hinweg in hohen Breiten aufgenommen wurden. Aufgrund der eingeführten Erweiterungen und Verbesserungen der Methode in dieser Arbeit, konnte die Methode anhand einer detaillierten Studie für den Winter 1996-97 validiert werden. Die ILAS Messreihe wurde dazu verwendet, erstmals die Untersuchung der zeitlichen Entwicklung von Ozon-Tracer Korrelationen kontinuierlich für die gesamte Lebensdauer des Polarwirbels durchzuführen. Dabei wurden auch Korrelationen während der Bildung des Wirbels untersucht und im Besonderen mögliche Mischungsvorgänge zwischen Wirbelluft und Luftmassen außerhalb des Wirbels. Ausserdem wurde ein Vergleich der Ergebnisse von ILAS und HALOE Messdaten durchgeführt und Unterschiede in den Ergebnissen tiefgreifend analysiert. Basierend auf HALOE Messungen konnte die erweiterte TRAC Methode über elf Jahren hinweg angewendet werden. Damit war erstmals eine konsistente Analyse von Ozonverlust und Chloraktivierung über diesen Zeitraum möglich. Die Erweiterungen führten zu einer Verringerung und genauen Quantifizierung von Unsicherheiten der Ergebnisse. Ein deutlicher Zusammenhang zwischen meteorologischen Bedingungen, Chloraktivierung und dem chemischen Ozonverlust wurde deutlich. Weiterhin zeigte sich eine Abhängigkeit zwischen den meteorologischen Bedingungen und der Homogenität des Ozonverlustes innerhalb eines Winters, sowie der mögliche Einfluss von horizontaler Mischung auf Luftmassen in einem schwach ausgeprägten Polarwirbel. In dieser Arbeit wurde eine positive Korrelation zwischen den über die gesamte Lebensdauer des Wirbels auftretenden möglichen PSC-Flächen und den akkumulierten Ozonverlusten für die elf untersuchten Jahre deutlich. Es konnte darüber hinaus gezeigt werden, dass der Ozonverlust von deutlich mehr Einflüssen als nur von der Fläche möglichen PSC Auftretens bestimmt wird, sondern zum Beispiel von der Stärke der Sonneneinstrahlung abhängt. Außerdem lassen sich Auswirkungen von Vulkanausbrüchen, wie zum Beispiel im Jahr 1991 der des Mount Pinatubo, identifizieren.
Der 300 km breite Eucla Schelf Südaustraliens gehört zu den weltgrößten modernen nicht-tropischen Ablagerungssystemen. Während des Pleistozäns wurde hier ein etwa 500 m mächtiger pleistozäner Sedimentstapel abgelagert, der sich aus progradierenden Klinoformen zusammensetzt. Die Ocean Drilling Program Sites 1127, 1129 und 1131 bilden ein proximal-distal Profil entlang des Eucla Shelfs-Kontinentalhangs. Die dabei erbohrten pleistozänen Periplattform-Ablagerungen bestehen überwiegend aus bioklastenreichen, fein- bis grobkörnigen, unlithifizierten bis teilweise lithifizierten Pack-, Wacke- und Grainstones. Eine ausgeprägte sedimentäre Zyklizität der analysierten Ablagerungen drückt sich in Fluktuationen der Korngröße und der mineralogischen Zusammensetzung, der natürlichen Radioaktivität, der stabilen Isotope sowie in Veränderungen der Fazies aus. Zur Untersuchung der sedimentären Zyklizität dieser nicht-tropischen Sedimente wurden sechs Sedimentintervalle früh- bis mittelpleistozänen Alters innerhalb der Bohrungen Site 1127, 1129 und 1131 ausgewählt. Die früh- bis mittelpleistozäne Periplattform-Sedimentabfolge des Eucla Schelfs wird durch die Stapelung genetischer Sequenzen gebildet. Diese entstehen als eine Folge hochfrequenter Meeresspiegelschwankungen, die unmittelbare Auswirkungen auf den Grad der Überflutung und damit auf den Sedimentexport vom Eucla Schelf ins angrenzende Becken haben. Eine genetische Sequenz weist eine Mächtigkeit von etwa 25 m unmittelbar beckenwärts der Schelfkante auf. Die maximale Mächtigkeit von ca. 30 m wird in beckenwärtigeren Bereichen erreicht, bevor die genetische Sequenz erneut auskeilt und in den hier untersuchten distalsten Ablagerungsbereichen Mächtigkeiten von 10-15 m aufweist. Die Begrenzungen der genetischen Sequenzen werden durch abrupte Korngrößenwechsel oder durch Umkehrpunkte in Korngrößentrends gebildet. Innerhalb einer genetischen Sequenz werden Hochstands-Ablagerungen durch grobkörnige bioklastenreiche Pack- bis Grainstones charakterisiert, die wiederum große Mengen an Tunikaten Spikulae, braunen hoch-Mg Bioklasten und Bryozoen-Detritus beinhalten. Tiefstands-Ablagerungen andererseits werden durch feinkörnige Packstones mit erhöhten Gehalten an Schwammnadeln und Mikrit charakterisiert. Die metastabilen Karbonatmodifikationen Aragonit und Hoch-Mg Kalzit können jeweils bis zu 34 % der Gesamtprobe ausmachen und sind in Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands angereichert. Hauptaragonitbildner sind dabei Tunikaten Spikulae. Dolomit ist auf Ablagerungen des beginnenden Meeresspiegel-Anstiegs beschränkt. Die primäre Verteilung der metastabilen Karbonatmodifikationen innerhalb der genetischen Sequenzen führt so während späterer Versenkungsstadien möglicherweise zu einer differentiellen Diagenese. Die sedimentäre Zyklizität der Ablagerungen des späten Mittelpleistozäns unterscheidet sich von der Zyklizität des frühen- bis mittleren Pleistozäns durch eine Zunahme der Häufigkeit allochthoner Schelfkomponenten wie Rotalgen-Detritus und brauner Hoch-Mg Kalzit-Bioklasten. Zugleich zeigt sich ein Häufigkeits-Rückgang autochthoner Schwammnadeln. Diese Variationen während des frühen und mittleren Pleistozäns werden als eine Folge der Progradation der Schelfkante und der sich daraus ergebenden verändernden relativen Position zur Schelfkante sowie des sich verändernden Nährstoffeintrags interpretiert. Site 1127 zeigt darüberhinaus eine Verdopplung der Zyklenmächtigkeiten der mittelpleistozänen Ablagerungen. Dies ist höchstwahrscheinlich auf Veränderungen der Erdorbitalparameter (Milankovitch-Zyklizität) zurückzuführen. Im letzten Teil der Arbeit werden die sedimentären Zyklizitäten dieser nicht-tropischen Periplattform-Karbonate mit pleistozänen tropischen Ablagerungen der westlichen Flanke der Großen Bahama Bank verglichen (ODP Site 1009). Die Gliederung in Coarsening Upward-Zyklen ist dabei ein wesentliches Merkmal sowohl der nicht-tropischen als auch der tropischen Periplattform-Karbonate. Im Gegensatz zu den untersuchten nicht-tropischen Karbonaten werden jedoch tropische Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands durch feinkörniges, mikritreiches Material. Maxima des Aragonit- bzw. Minima des Hoch-Mg Kalzitgehalts charakterisiert. Die Mächtigkeit einzelner Zyklen von ca. 10 m ist darüberhinaus aufgrund geringfügig niedrigerer Sedimentationsraten geringer als in den untersuchten nicht-tropischen Karbonaten, in denen die minimalen Zyklenmächtigkeiten 10-15 m betragen.
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
Im Rahmen der vorliegenden Arbeit wurde zunächst ein Vorschlag für eine Direktive zur Anwendung von Monitored Natural Attenuation (MNA) an Grundwasserschadensfällen durch Mineralölprodukte unter Berücksichtigung der in Deutschland geltenden Vorgaben für eine konkrete technische Durchführung erarbeitet. Das darin enthaltene Untersuchungs- und Auswertungsprogramm zum Nachweis von Natural Attenuation (NA) berücksichtigt die gesetzlichen Regelungen des Bundes-Bodenschutzgesetzes (BBodSchG) und der BundesBodenschutz- und Altlastenverordnung (BBodSchV). Das entwickelte Untersuchungs- und Auswertungsprogramm wurde in einem weiteren Schritt an einer laufenden MNA-Maßnahme aus der Praxis überprüft. Hierfür wurde ein Kerosin-kontaminierter Teilbereich am Standort des ehemaligen Militärflughafens Wegberg-Wildenrath in Nordrhein-Westfalen ausgewählt. Im Grundwasser liegt eine Kontamination überwiegend aus aromatischen Kohlenwasserstoffen (BTEX und weitere alkylierte Aromaten) sowie MKW (H18) vor. Anhand des Praxisbeispiels wurde die generelle Verwendbarkeit von bereits im Rahmen der bisherigen Altlastenbearbeitung erhobenen Daten im Sinne des erarbeiteten Untersuchungsprogramms aufgezeigt. Hydrogeologische Untersuchungen belegten eine Abhängigkeit der Konzentration von Schadstoffen im Wasser von einem bis zu /- 1,7 m schwankenden Grundwasserstand, wodurch ein instationäres Fahnenverhalten vorlag. Aufbauend auf den Erkenntnissen der hydrogeologischen Erkundung und der Auswertung von hydrochemischen Daten wurden für den Standort zwei sich ergänzende konzeptionelle Modellvorstellungen (ein hydrochemisches Modell sowie ein hydrodynamisches Modell) bezüglich der Prozesse, die das Fahnenverhalten steuern, entwickelt. Beim hydrochemischen Modell erfolgt durch schwankende Grundwasserstände ein Recycling der Elektronenakzeptoren S042- und Fe3 für den Schadstoffabbau im herdnahen Bereich. Bei hohem Grundwasserstand werden reduzierte Eisenspezies als unlösliche Eisenmonosulfide ausgefällt. Bei niedrigem Grundwasserstand werden diese Eisenmonosulfide in Folge von Belüftung zu löslichen Fe3 /SO42-haltigen Mischkristallen oxidiert. Bei einem erneuten Anstieg des Grundwassers steht dieser Elektronenakzeptorpool für einen weiteren Schadstoffabbau zur Verfügung, was wiederum zur Ausfällung der reduzierten Eisenspezies führt. Beim hydrodynamischen Modell werden die beobachteten Konzentrationsänderungen im Grundwasser hauptsächlich durch Schadstoff-Phasenübergänge und der Größe der dabei zur Verfügung stehenden Grenzflächen hervorgerufen. Der Austausch von Schadstoffen aus der NAPL (non-aqueous phase liquids)-Phase in die Bodenluft bei niedrigen Grundwasserständen ist erheblich größer im Vergleich zum Austausch der NAPL-Phase in die (Grund)wasserphase bei hohen Grundwasserständen. Daraus resultieren höhere Schadstoffgehalte im Schadenszentrum bei niedrigen Grundwasserständen und geringere Gehalte bei hohen Grundwasserständen. Eine wichtige Erkenntnis dieser Arbeit war die Herausarbeitung der Art des Einflusses schwankender Grundwasserstände auf die Fahnendynamik. Anhand der Untersuchung auf aromatische Säuren (Metabolite), die im (my)g/l-Bereich nachzuweisen waren, konnte der direkte Beweis für einen aktiven Bioabbau am Standort erbracht werden. Durch einen Vergleich des Aromatenspektrums mit dem vorgefundenen Metabolitenspektrum wurden Aussagen zum Abbauverhalten von einzelnen aromatischen Schadstoffgruppen ermöglicht. Die Abbauprognose ist aufgrund des instationären Fahnenverhaltens mit größeren Unsicherheiten behaftet. Attenuations- bzw. Abbauraten zwischen 0,0003 * 1/d und 0,001 * 1/d wurden anhand von zwei unterschiedlichen Verfahren ermittelt.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Die Chemie und der Strahlungshaushalt der Erdatmosphäre werden durch die nur in relativ geringen Konzentrationen vorhandenen Spurengase und Aerosolpartikel beherrscht. Mit den zunehmenden anthropogenen Emissionen von atmosphärischen Spurengasen, verursacht durch die wachsende Weltbevölkerung und die zunehmende Industrialisierung, wurde in den letzten Dekaden ein globaler Wandel bei der Zusammensetzung der Erdatmosphäre festgestellt: Konzentrationen von atmosphärischen Spurenstoffen verändern sich nicht mehr auf vergleichsweise langsamen geologischen Zeitskalen, sondern mit viel höheren Geschwindigkeiten, in einzelnen Fällen von bis zu einem Prozent pro Jahr. Die wohl bekanntesten Folgen dieser Veränderungen sind die globale Erwärmung durch die ansteigenden Emissionen von Treibhausgasen und der mit dem antarktischen 'Ozonloch" entdeckte drastische Ozonverlust in der Stratosphäre durch anthropogene Fluor-Chlor-Kohlenwasserstoffe (FCKW). Die Verteilung der für Ozonchemie und Klima relevanten Spurengase in der Atmosphäre hängt dabei nicht nur von der Verteilung ihrer Quellen und Senken ab, sondern wird maßgeblich durch verschiedene Transportprozesse beeinflußt. Der Austausch zwischen der mit anthropogenen Emissionen belasteten Troposphäre und den höheren Atmosphärenschichten Stratosphäre und Mesosphäre spielt dabei eine zentrale Rolle. Im Rahmen der Dissertation wurde zum besseren Verständnis von Stratosphären-Troposphären-Austauschprozessen die Verteilung von langlebigen Spurengasen in den beiden atmosphärischen Kompartimenten Troposphäre und Stratosphäre untersucht. Dazu wurde bei einer Meßkampagne im Sommer 1998 im Rahmen des von der Europäischen Union geförderten Forschungsprojektes STREAM 98 der flugzeuggetragene Gaschromatograph GhOST (Gas chromatograph for the Observation of Stratospheric Tracers) an Bord einer Cessna Citation II der TU Delft in Höhen bis 13 km eingesetzt. Dabei konnten bei zwanzig Meß- und Transferflügen über Kanada, dem Atlantik und Westeuropa umfangreiche Messungen der langlebigen Spurengase N20, F11 und F12 in der oberen Troposphäre und der Untersten Stratosphäre durchgeführt werden. Unter Flugbedingungen wurde mit GhOST während der Kampagne eine Reproduzierbarkeit (1 o) von besser als 0,6 % und eine absolute Genauigkeit von besser als 2 % für alle nachgewiesenen Spurengase erreicht. Diese hohe Meßpräzision konnte durch zahlreiche Vergleichsmessungen mit anderen Meßgeräten und Meßverfahren - im Flugbetrieb und im Labor sichergestellt werden; die Linearität des Geräts wurde zudem mit Hilfe einer barometrisch hergestellten Verdünnungsreihe untersucht. Die mit GhOST bei STREAM 98 gewonnenen Meßwerte wurden zusammen mit Messungen und Modelldaten der am Projekt beteiligten Arbeitsgruppen zur Untersuchung von Spurengasverteilungen und Stratosphären-Troposphären-Austauschprozessen herangezogen. Untersucht wurden dabei unter anderem die Verteilung und Variabilität von N20, F11 und F12 in der Troposphäre und in der Untersten Stratosphäre der mittleren Breiten, Austausch- und Mischungsprozesse in der Tropopausenregion und die Variabilität von Tracer/Tracer-Korrelationen in der Untersten Stratosphäre. Aufbauend auf den Erfahrungen bei STREAM 98 wurde für das vom BMBF geförderte Projekt SPURT im Rahmen dieser Doktorarbeit der in-situ-Gaschromatograph GhOST II entwickelt. Unter Beibehaltung der gaschromatographischen Komponenten von GhOST wurden zur Messung der Spurengase SF6 und CO zwei zusätzliche Detektoren integriert und zahlreiche technische Verbesserungen durchgeführt. Für die vollautomatische rechnergestützte Elektronik zur Steuerung des neuen Gerätes wurden zusammen mit der institutseigenen Elektronikwerkstatt verschiedene Baugruppen zur Signalführung und -verarbeitung, zur Temperaturmessung und zur Ansteuerung von Leistungskomponenten entwickelt. Während einer Testkampagne im April 2001 wurde GhOST II erfolgreich mechanisch und elektrisch auf einem Learjet 35A integriert und kam bei zwei Meßflügen der Meßkampagne SPURT 1 im November 2001 zum Einsatz.
Aerosolpartikel sind in der Atmosphäre insbesondere für die Strahlungsübertragung und die Wolkenbildung von wichtiger Bedeutung. Aufgrund ihrer kurzen Lebensdauer, der Variabilität ihrer Quellen und Senken und ihrer Einbindung in den atmosphärischen Wasserkreislauf sind Partikel in allen ihren Eigenschaften sehr veränderlich. Die Zusammenhänge dieser Variabilität mit den meteorologischen Bedingungen und ihre Auswirkungen in der meteorologischen Anwendung sind bisher nur ungenügend durch Meßdaten belegt, so daß die Ergebnisse von Modellen, in denen die meteorologischen Wirkungen von Partikeln berücksichtigt werden (z.B. Klimamodelle), mit großen Unsicherheiten behaftet sind. Ziel dieser Arbeit war es, auf der Grundlage von Messungen einen Beitrag zur Charakterisierung der bodennahen troposphärischen Aerosolpartikel zu leisten. Im Hinblick auf die meteorologischen Anwendungen wurden die chemische Zusammensetzung und die Masse der Partikel in Abhängigkeit von ihrer Größe gemessen, da sie wesentliche Einflußgrößen für die Strahlungswirkung von Partikeln und die Wasserdampfkondensation in der Atmosphäre sind. Auf der Basis eines Datensatzes der physikalisch-chemischen Partikeleigenschaften und meteorologischer Meßgrößen wurde zunächst die Abhängigkeit der Partikeleigenschaften und ihrer Variabilität von den meteorologischen Umgebungsbedingungen analysiert sowie die Bedeutung der Variabilität der Partikeleigenschaften in der meteorologischen Anwendung untersucht. Dazu wurden Absorptionskoeffizienten der Partikel und Erwärmungsraten durch Absorption solarer Strahlung durch Partikel sowie das Wachstum der Partikel mit der relativen Feuchte in Abhängigkeit von ihrer chemischen Zusammensetzung berechnet. Die Messungen fanden während fünf drei- bis achtwöchiger Meßkampagnen 1991, 1993 und 1994 in Melpitz bei Torgau (Sachsen) und 1993 und 1994 auf dem Hohen Peißenberg (Oberbayern) statt. Mit einem Berner-Impaktor wurden die Partikel gesammelt. Es wurden die Konzentrationen der Gesamtmasse der Partikel sowie der Ionen in Abhängigkeit von ihrer Größe bestimmt. Die Rußkonzentrationen wurden mit einem Aethalometer gemessen. Parallel zu den Partikelmessungen fanden Messungen von Temperatur, relativer Feuchte, Windgeschwindigkeit, Windrichtung, Globalstrahlung und diffuser Himmelsstrahlung statt. Die Messungen liefern folgende Ergebnisse: Bei allen Messungen waren Nitrat, Sulfat und Ammonium die Hauptkomponenten der kleinen Partikel, und die Massenkonzentrationen der kleinen Partikel (0,04 µm < aed < 1,72 µm) waren wesentlich größer als die der großen Partikel (1,72 µm < aed < 21µm). Die Partikel sind also überwiegend anthropogener Herkunft. Die großen Partikel enthielten zusätzlich Natrium und Kalzium, lediglich bei einzelnen Messungen in Melpitz wurde auch Chlorid als Hinweis auf Seesalzpartikel gefunden. Die Massenkonzentrationen aller Partikelbestandteile waren in Melpitz in der Regel etwas größer als auf dem Hohen Peißenberg, da die Partikelkonzentrationen mit zunehmender Höhe abnehmen und da Melpitz näher an Ballungsräumen liegt als der Hohe Peißenberg. Die Unterschiede zwischen den verschiedenen Meßkampagnen an einem Ort sind jedoch größer als die zwischen den beiden Orten. Die Variabilität sowohl der Massenkonzentrationen der Partikelbestandteile als auch der Gesamtmasse liegt im Bereich von zwei Größenordnungen und ist damit wesentlich größer als die Unterschiede zwischen den Meßkampagnen. Der mittlere Anteil der löslichen Masse an der Gesamtmasse beträgt für die kleinen Partikel 57 %, für die großen 30 %. Dieser Anteil variiert sehr stark (10-100 % bzw. 5-80 %). Ruß hat einen mittleren Anteil von 5 % an der Gesamtmasse (1-18 %). Wesentliche Parameter, die zu Veränderungen der Partikeleigenschaften führen, sind: - Luftmassen unterschiedlicher Herkunft und Geschichte - Veränderungen der Mächtigkeit und Struktur der atmosphärischen Grenzschicht - Emissionen lokaler Quellen - lokale meteorologische Parameter (Temperatur, Windrichtung, -geschwindigkeit) Die unterschiedliche Häufigkeit und Ausprägung dieser Einflußfaktoren führt zu Unterschieden zwischen den Ergebnissen der einzelnen Meßkampagnen. Die einzelnen Faktoren sind nicht voneinander unabhängig, da durch die großräumige Wettersituation und die Luftmassen die Ausprägung der lokalen Parameter bestimmt wird. Um eine Zusammenfassung von Messungen unter vergleichbaren meteorologischen Bedingungen zu erreichen, wurde eine Klassifikation der Daten auf der Basis von Rückwärtstrajektorien vorgenommen. Es wurden fünf Klassen unterschieden: vier Klassen umfassen Richtungssektoren mit jeweils 90 ° um die Haupthimmelsrichtungen (Nord, Ost, Süd, West), einer fünften (X) werden kurze Trajektorien zugeordnet. Dieser Ansatz wurde gewählt, weil ähnliche Luftmassen und damit meteorologische Bedingungen hinsichtlich Temperatur, Feuchte, Stabilität und Luftbeimengungen meistens durch ähnliche Trajektorien gekennzeichnet sind, die eine Aussage über die Herkunft und den Weg der Luft ermöglichen, die wiederum für die Ausprägung der Partikeleigenschaften maßgeblich sind. Eine weitere Unterteilung nach Tageszeiten (morgens, mittags, abends) wurde vorgenommen, da einige Meßgrößen deutliche Tagesgänge zeigten. Die Ergebnisse lassen sich wie folgt zusammenfassen: Die Klassifikation der meteorologischen Meßgrößen liefert sowohl im Hinblick auf die Charakterisitika der Trajektorienklassen (Herkunft der Luft) als auch für die Tagesgänge meteorologisch sinnvolle Ergebnisse. Die Lage der Stationen in einer Ebene und auf einem Berg führt zu einer unterschiedlichen Ausprägung von Tagesgängen der Temperatur und der Windgeschwindigkeit besonders während stabiler Hochdruckwetterlagen. Es zeigt sich, daß bedingt durch die Entwicklung der Grenzschicht auf dem Hohen Peißenberg vor allem bei Hochdruckwetterlagen im Tagesverlauf in zwei verschiedenen Atmosphärenschichten gemessen wird. Die starke Streuung der lokalen Windrichtungen innerhalb einer Trajektorienklasse führt dazu, daß der Einfluß lokaler bzw. regionaler Quellen durch die Klassifikation nur bedingt erfaßt wird, und liefert einen Hinweis auf die lokale Wetterlage. Die Klassifikation der Partikelmeßdaten liefert meteorologisch sinnvolle Ergebnisse, da die Konzentrationsunterschiede zwischen den einzelnen Klassen mit der Wetterlage und dem Einfluß regionaler Quellen zu begründen waren. Die Absolutwerte ließen sich allerdings nicht vergleichen, und es wurden im Detail meßkampagnenspezifische Begründungen gefunden. Es ergab sich jedoch für alle Meßkampagnen die Unterteilung in Klassen mit antizyklonalen Wetterlagen und kontinentaler Luft mit hohen Konzentrationen (Klassen Ost, Süd, West) und zyklonalen Wetterlagen und maritimer Luft mit geringeren Konzentrationen (Klassen Nord, West). Abweichungen von dieser Einteilung waren vor allem mit der geographischen Lage der Meßorte zu begründen. Ausgeprägte Tagesgänge mit Maxima bei den Morgenmessungen ergaben sich nur für Nitrat, bei einigen Messungen auch für Chlorid in den kleinen Partikeln durch temperaturabhängige Gleichgewichtsreaktionen instabiler Partikelkomponenten mit der Gasphase sowie für Ruß durch die Anreicherung von Emissionen lokaler Quellen bei geringer Grenzschichthöhe. Während sich die mittleren absoluten Konzentrationen in den einzelnen Klassen erheblich unterscheiden, ist die mittlere relative chemische Zusammensetzung der Partikel in allen Klassen ähnlich; die Variabilität der Anteile ist aber ebenfalls sehr groß. Mit Ausnahme der Advektion von Seesalzpartikeln sowie der temperaturbedingten Verschiebung der Anteile von Nitrat und Sulfat, lassen sich Unterschiede zwischen den Klassen nicht mit den durch die Klassifikation erfaßten Einflußfaktoren oder geographischen Besonderheiten begründen. Durch die Klassifikation nimmt die Variabilität sowohl der meteorologischen Meßgrößen als auch der Partikeleigenschaften ab. Für die meteorologischen Meßgrößen verringert sich die Variabilität durch die Klassifikation nach Trajektorien weniger als durch die nach Tageszeiten, für die Konzentrationen der Partikelbestandteile und der Masse führt hingegen die Klassifikation nach Trajektorien zu einer größeren Verminderung der Variabilität als die nach Tageszeiten. Die Anwendung beider Klassifikationskriterien führt zu einer Abnahme der Variabilität um im Mittel 55 % für die meteorologischen Meßgrößen und um 50 % bzw. 25 % für die Konzentrationen der Bestandteile und der Masse der kleinen bzw. der großen Partikel. Die Variabilität der Werte in einer Klasse bleibt jedoch auch nach Klassifikation größer als Unterschiede zwischen den Klassen. Sie wird vor allem durch die spezifische meteorologische Situation bedingt. Um die Auswirkungen der Variabilität der Partikeleigenschaften in meteorologischen Anwendungen abschätzen zu können, wurden aus den Meßdaten der Absorptionskoeffizient der Partikel und die daraus resultierenden Erwärmungsraten sowie das Partikelwachstum mit der relativen Feuchte berechnet und wie die Meßdaten klassifiziert. Die Ergebnisse lassen sich folgendermaßen zusammenfassen: Für die Absorptionskoeffizienten der trockenen Partikel wurden Werte zwischen 0,1·10-6/m und 97·10-6/m berechnet. Für die beiden Meßkampagnen im Herbst (Melpitz 1993 und 1994) ergaben sich etwa um den Faktor 2 größere mittlere Absorptionskoeffizienten als für die Meßkampagnen im Sommer, die maximalen Absorptionskoeffizienten waren in Melpitz aufgrund der starken lokalen Quellen um den Faktor 2-3 größer als auf dem Hohen Peißenberg. Für die maximalen Erwärmungsraten wurden Werte zwischen 0,003 und 0,128 K/h, für die Gesamterwärmung über die Tageslichtperiode zwischen 0,02 K und 0,81 K berechnet. Die Partikel liefern in Abhängigkeit von den Umgebungsbedingungen selbst während Meßkampagnen an zwei ländlichen Orten in Mitteleuropa einen vernachlässigbar geringen bis deutlichen Beitrag zum Strahlungsantrieb. In Melpitz waren sowohl die maximalen Erwärmungsraten als auch die Gesamterwärmung im Mittel um den Faktor 1,5 geringer als auf dem Hohen Peißenberg, da die maximalen Absorptionskoeffizienten zu einer Zeit bestimmt wurden, als das Strahlungsangebot noch gering war, während auf dem Hohen Peißenberg die Maxima von Absorptionskoeffizient und Strahlungsangebot zeitlich näher zusammenliegen. Die Klassifikation nach Rückwärtstrajektorien ergab deutliche Unterschiede (Faktor 3-5) zwischen den einzelnen Klassen, da in Klassen mit den höchsten Rußkonzentrationen auch das Strahlungsangebot am höchsten war und in Klassen mit niedrigen Rußkonzentrationen meistens starke Bewölkung vorherrschte. Zwischen maximaler Erwärmungsrate und Gesamterwärmung über die Tageslichtperiode wird ein linearer Zusammenhang gefunden, der sich aber aufgrund der verschiedenen Tagesgänge des Absorptionskoeffizienten für die Meßkampagnen in Melpitz und auf dem Hohen Peißenberg unterscheidet. Sowohl für den exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung als auch für das Partikelwachstum bei fester relativer Feuchte ergeben sich im Mittel nur geringe Unterschiede zwischen kleinen und großen Partikeln sowie einzelnen Klassen durch die chemische Zusammensetzung des wasserlöslichen Anteils der Partikel. Unterschiede sind vielmehr durch den Anteil der wasserlöslichen Masse an der Gesamtmasse bedingt. Es ergibt sich ein linearer Zusammenhang zwischen dem exponentiellen Massenzuwachskoeffizienten bei unendlicher Verdünnung und dem Anteil der wasserlöslichen Masse an der Gesamtmasse der Partikel. Die Unterschiede zwischen den einzelnen Klassen lassen sich nicht auf einzelne meteorologische oder geographische Einflußfaktoren zurückführen. Sowohl für die Absorption solarer Strahlung als auch für das Wachstum der Partikel mit der relativen Feuchte ist die Variabilität der abgeleiteten Größen geringer als die der Ausgangsgrößen, sie ist aber immer noch mindestens so groß wie die Unterschiede zwischen den einzelnen Klassen. Zusammenfassend läßt sich festhalten, daß in dieser Arbeit ein Datensatz aus Messungen von meteorologischen Parametern und Partikeleigenschaften zusammengestellt wurde, der zusammen mit der Klassifikationsmethode nach Rückwärtstrajektorien und Tageszeiten eine Untersuchung der Zusammenhänge zwischen der Variabilität der Meßgrößen und den meteorologischen Bedingungen ermöglicht und eine Abschätzung der Auswirkungen der Variabilität der Partikeleigenschaften, insbesondere der chemischen Zusammensetzung, in meteorologischen Anwendungen zuläßt. Der Klassifikationsansatz nach Rückwärtstrajektorien ist prinzipiell geeignet, um die Abhängigkeit der Partikeleigenschaften von den meteorologischen Bedingungen zu beschreiben. Es ist jedoch nicht möglich, einen Einflußfaktor als den wichtigsten hervorzuheben oder sogar quantitative Beziehungen zwischen Partikeleigenschaften und meteorologischen Parametern herzustellen. Die Herkunft der Luft liefert einen Hinweis auf die zu erwartenden meteorologischen Bedingungen und Partikeleigenschaften, die lokale meteorologische Situation bestimmt jedoch die genaue Ausprägung der Meßgrößen. Eine Berücksichtigung des Einflusses der lokalen Wetterlage sowie lokaler bzw. regionaler Quellen könnte durch die Einbeziehung der Windrichtung vorgenommen werden. Auf der Basis längerer Meßreihen sollte überprüft werden, ob die Unterteilung in fünf Trajektorienklassen modifiziert werden muß. Der große Einfluß der spezifischen Wetterlage auf die Meßergebnisse führt dazu, daß die Ergebnisse von Meßkampagnen weder für einen längeren Zeitraum noch für ein größeres Gebiet repräsentativ sein können. Ebenso ist die Verwendung von Mittelwerten über längere Zeiträume ist nicht sinnvoll, da die Variabilität der Meßgrößen während eines Tages sowie von Tag zu Tag sehr groß ist. Aufgrund der komplexen Zusammenhänge zwischen Partikeleigenschaften und meteorologischen Bedingungen erscheint es unbedingt nötig, längere Meßreihen aller wichtigen Aerosoleigenschaften durchzuführen, damit statistisch belastbare Daten über eine hinreichend große Zahl von Messungen unter verschiedensten meteorologischen Bedingungen zu allen Jahreszeiten vorliegen, die Aussagen über Zusammenhänge mit Witterungsbedingungen, Tagesgänge, Jahresgänge aber auch die Vertikalverteilung der Partikeleigenschaften zulassen. Dabei ist es wichtig, alle interessierenden Größen gleichzeitig zu messen, da nur dann eine Untersuchung des Einflusses der Variabilität verschiedener Parameter auf die für die Anwendung wichtigen Größen möglich ist.
Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs
(2002)
In der vorliegenden Arbeit wurde im Rahmen des DFG-Schwerpunktprogrammes 546 ,,Geochemische Prozesse mit Langzeitfolgen im anthropogen beeinflussten Sickerwasser und Grundwasser" der Eintrag organischer Umweltchemikalien aus der Oder in den anaeroben Grundwasserleiter des Oderbruchs untersucht. Ausgewählt wurden verschiedene Vertreter der Stoffklassen Antioxidantien und Phosphorsäureester sowie die beiden Xenoöstrogene Bisphenol A und 4-Nonylphenol, denen eine endokrine (hormonähnliche) Wirkung auf Organismen zugeschrieben wird. Solche Umweltchemikalien werden seit ca. 40 Jahren in großen Mengen für verschiedene Zwecke in Industrie und Privathaushalten eingesetzt oder sie entstehen durch photochemischen oder mikrobiologischen Abbau unter Umweltbedingungen. Die Chemikalien gelangen durch Produktion und Verwendung in die Abwässer und werden durch Direkteinleitungen geklärter Abwässer in die Oberflächengewässer eingetragen. Durch den Prozess der Uferfiltration werden im Oderbruch organische Verbindungen von der Oder ins Grundwasser des angrenzenden Aquifers transportiert. Viele Umweltkontaminanten sind unter aeroben Bedingungen gut biologisch abbaubar. Wie sie sich aber in einer sauerstofffreien Umgebung verhalten, ist bis heute relativ unerforscht. Es ist notwendig, die Prozesse bei der Uferfiltration zu kennen, da heute zunehmend mehr Trinkwasser aus Uferfiltrat gewonnen wird und Umweltchemikalien somit eine potentielle Gefahr für die Trinkwasserversorgung darstellen. Eine zweite Eintragsquelle stellen die Niederschläge dar. Viele organische Verbindungen besitzen die Fähigkeit, aufgrund ihrer physikalischen Paramter von freien Wasser- und Bodenoberflächen oder aus den Produkten, in denen sie enthalten sind, in die Atmosphäre zu verdampfen. Über den Regen gelangen sie schließlich zurück auf die Erde und können so mit dem Sickerwasser bis in tiefere Zonen des Aquifers transportiert werden. Für Vergleichszwecke wurden auch andere Fließgewässer in Deutschland bezüglich der Belastung durch die ausgewählten Umweltchemikalien untersucht. In Ergänzung und Fortsetzung bisheriger Publikationen wurde mit der vorliegenden Arbeit die Konzentrationsentwicklung dieser Stoffe in den Flüssen Rhein, Main, Elbe, Nidda und Schwarzbach dokumentiert. Ein weiterer Schwerpunkt dieser Arbeit lag darin, die Frage nach dem Eintrag dieser Umweltchemikalien in die Flüsse zu beantworten. Dazu wurde Abwasser und Regenwasser auf die Anwesenheit der entsprechenden Verbindungen untersucht. Das Hauptuntersuchungsgebiet stellte die Oder im Grenzbereich Deutschland-Polen sowie der anaerobe Grundwasserleiter des Oderbruchs dar. Dieses Gebiet westlich der Oder im Bundesland Brandenburg wurde ausgewählt, da hier die besondere hydrologische Situation gegeben ist, dass das Flusswasser der Oder mit Geschwindigkeiten von 0,2-5 m/d in den angrenzenden Aquifer infiltriert. Da im Aquifer des Oderbruchs durchweg reduzierende Verhältnisse herrschen, eignet sich dieser in besonderer Weise, das Verhalten organischer Substanzen unter anaeroben Bedingungen zu untersuchen. Hydrogeologisch betrachtet sind im quartären Untergrund des Oderbruchs zwei Hauptgrundwasserleiter ausgebildet. Beide Horizonte werden durch eine undurchlässige Schicht aus Geschiebemergel voneinander getrennt. Gegenstand der vorliegenden Untersuchungen war ausschließlich der obere Hauptgrundwasserleiter, in dem durchweg anaerobe Bedingungen herrschen. Bei einer durchschnittlichen Mächtigkeit von 20-30 m wird der Aquifer im wesentlichen aus holozänen und pleistozänen Sanden und Kiesen aufgebaut. Charakteristisch für das Oderbruch ist der sogenannte ,,Auelehm". Es handelt sich hierbei um flächenhaft verbreitete bindige Deckschichten mit unterschiedlichen Mächtigkeiten. In einigen Bereichen des Oderbruchs fehlen diese undurchlässigen Deckschichten völlig, weshalb das Niederschlagswasser ungehindert in den Aquifer eindringen kann. In anderen Bereichen variiert die Mächtigkeit des Auelehms lokal. Mit zunehmender Entfernung von der Oder nimmt sie stark ab. In Bereichen ab ca. 3000 m Entfernung vom Fluss sind die Auelehmdeckschichten nicht mehr vorhanden, weshalb hier der Eintrag organischer Stoffe mit den Niederschlägen in einen Aquifer begünstigt wird. Im Vorfeld dieser Arbeit hat die Auswertung der zur Schadstoffbelastung der Oder vorliegenden Literatur gezeigt, dass sich die wenigen Untersuchungen vor allem mit dem Auftreten sogenannter persistenter organischer Schadstoffe wie polychlorierte Biphenyle (PCB), Dioxine, Furane und Chlorpestizide beschäftigten. Umweltchemikalien wie Antioxidantien, Phosphorsäureester und Xenoöstrogene, die unter aeroben Bedingungen gut biologisch abgebaut werden, treten oft in den Hintergrund der Betrachtung, da von einer vollständigen Eliminierung dieser Substanzen ausgegangen wird. Diese Industriechemikalien, die Gegenstand dieser Arbeit sind, werden in so hohen Mengen produziert und eingesetzt, dass die Abbaukapazität in Böden und Gewässern häufig überschritten wird. In der vorliegenden Arbeit wurde zunächst eine empfindliche Messmethode zur Bestimmung von mittelpolaren organischen Umweltkontaminanten aus matrixreichen Wasser- und Abwasserproben im unteren Nanogramm/Liter-Bereich entwickelt. Die Analysenmethode basierte auf der Extraktion der Wasserproben mittels Festphasenextraktion (SPE) sowie dem hochempfindlichen Nachweis der Analyten mittels Kapillargaschromatographie/ Massenspektrometrie (GC/MS). Damit konnten zahlreiche Verbindungen mit einem relativ geringen Arbeitsaufwand im Routinebetrieb mit Wiederfindungsraten von 68 bis 95 % in den Wasserproben identifiziert und quantifiziert werden. Die Bestimmungsgrenzen für die einzelnen Verbindungen lagen zwischen 3-53 ng/l. Insgesamt sind in diesem Projekt von März 1999 bis Juli 2001 sechs Beprobungskampagnen im halbjährlichen Rhythmus durchgeführt worden. Zur Beprobung standen die im Rahmen dieses Schwerpunktprogrammes von Mitarbeitern der FU Berlin sowie des ZALF in Müncheberg im Oderbruch installierten Grundwassermessstellen der Transsekten Bahnbrücke und Nieschen zu Verfügung. Im Bereich der Transsekte Bahnbrücke ist der ,,Auelehm" weit verbreitet, allerdings mit lokal variierenden Mächtigkeiten. Mit zunehmender Entfernung von der Oder nimmt die Mächtigkeit dieser Deckschicht ab, bis sie in einer Entfernung von ca. 5000 m überhaupt nicht mehr vorhanden ist. Vereinzelt sind den überwiegend sandig bis kiesigen Sedimentfolgen, die den Aquifer im Bereich der Transsekte Bahnbrücke überwiegend aufbauen, in unmittelbarer Nähe der Oder geringmächtige Tonlagen zwischengeschaltet. Dadurch wird der Aquifer in flussnähe in zwei Teilbereiche gegliedert. Der untere Teilbereich steht im direkten hydraulischen Kontakt zur Oder und wird so maßgeblich durch das Uferfiltrat beeinflusst. Im Hangenden dieses grundwasserleitenden Horizontes folgt ein zweiter Teilbereich, der durch eine stauende Tonschicht an der Basis hydraulisch von der Oder getrennt ist und so überwiegend von infiltrierendem Niederschlagswasser sowie vom Oderwasser bei Überschwemmungen geprägt wird. Im Bereich der Transsekte Nieschen besteht der Grundwasserleiter ausschließlich aus sandig-kiesigen Sedimentfolgen. Außerdem fehlt hier der Auelehm und damit eine den Aquifer schützende Deckschicht. Daher ist im Bereich der Transsekte Nieschen der Einfluss von infiltrierendem Niederschlagswasser auf den Grundwasserchemismus besonders stark ausgeprägt, da dieses ungehindert in den Aquifer eindringen kann. Parallel zu jeder Grundwasserprobennahme wurde an ausgewählten Standorten in Deutschland eine Beprobung verschiedener Oberflächengewässer durchgeführt sowie Dachablaufproben gesammelt. Bei der letzten Beprobungskampagne wurden im Oderbruch eine Niederschlagsprobe sowie zwei Dachablaufproben genommen. Zum gleichen Zeitpunkt wurden Zu- und Abläufe der Kläranlage einer Stahlverarbeitungsfirma sowie dreier kommunaler Kläranlagen in der Umgebung des Oderbruchs beprobt. Sämtliche beprobten Kläranlagen leiten ihre geklärten Abwässer in die Oder. Folgende organische Verbindungen wurden in den Proben identifiziert und in drei Gruppen eingeteilt: Die Gruppe der Antioxidantien mit den Vertretern 3,5-Di-tert.-butyl-4-hydroxytoluol (BHT), 3,5-Di-tert.-butyl-4-hydroxybenzaldehyd (BHT-CHO) und 1,2-Bis(3,5-di-tert.- butyl-4-hydroxy-phenyl)ethan (2-BHT), die Gruppe der Phosphorsäureester mit den Vertretern Tributylphosphat (TBP), Tris(2-chloroethyl)phosphat (TCEP) und Tris(2- butoxyethyl)phosphat (TBEP) sowie die Gruppe der Xenoöstrogene mit den Vertretern 2,2- Bis-(4-hydroxyphenyl)propan (BPA) und 4-Nonylphenol (4-NP). Die organischen Verbindungen BHT, TBP, TCEP, TBEP und BPA sind weltweit eingesetzte, industriell hergestellte Chemikalien. 4-NP ist ein Abbauprodukt nichtionischer Tenside (Nonylphenolpolyethoxylate = NPnEO), die als Detergentien in Waschmitteln eingesetzt werden. Bei der Verbindung BHT-CHO handelt es sich um ein Abbauprodukt des Antioxidationsmittels BHT und bei 2-BHT um ein Dimeres von BHT. Sämtliche organische Umweltchemikalien und Metabolite konnten in kommunalen und industriellen geklärten und ungeklärten Abwässern, im Niederschlag und im Dachablauf, in Oberflächengewässern sowie im Grundwasser nachgewiesen werden. Abwasser: In den kommunalen Zuläufen betrug die mittlere BHT-Konzentration 392 ng/l und in den Abläufen 132 ng/l. Für BHT-CHO lag die mittlere Konzentration in den kommunalen Zuläufen bei 113 ng/l und in den Abläufen bei 70 ng/l. Auch die drei Phosphorsäureester wurden in allen untersuchten kommunalen Zuläufen mit mittleren Konzentrationen von 15404 ng/l für TBP, 986 ng/l für TCEP und 12835 ng/l für TBEP nachgewiesen. Die Durchschnittskonzentration in den Abläufen der drei kommunalen Kläranlagen lag bei 622 ng/l für TBP, 352 ng/l für TCEP und 2955 ng/l für TBEP. Das Xenoöstrogen BPA wurde in den Zuläufen mit durchschnittlich 6579 ng/l und in den Abläufen mit 1656 ng/l bestimmt. Die Verbindung 4-NP trat hingegen nur in den Abläufen der kommunalen Kläranlagen mit durchschnittlich 385 ng/l auf. Die Konzentrationen von BHT, TBP, TCEP und TBEP im Zulauf der betriebseigenen Kläranlage einer Stahlverarbeitungsfirma bei Eisenhüttenstadt waren durchweg geringer als die mittleren Konzentrationen dieser Stoffe in den Zulaufproben der kommunalen Kläranlagen. Diese Industriechemikalien finden vor allem in Haushaltsprodukten Verwendung und werden so hauptsächlich durch die Abwassereinleitungen kommunaler Kläranlagen in die Oberflächengewässer eingetragen. Im Gegensatz dazu wurden im Abwasser der industriellen Kläranlage die höchsten Konzentrationen für die beiden Xenoöstrogene BPA und 4-NP festgestellt, da diese Stoffe bei der Metallverarbeitung als Zusatzstoff bzw. als Reinigungsmittel eingesetzt werden. Sämtliche hier zur Diskussion stehenden Verbindungen, mit Ausnahme von 4-NP, wurden durch den Klärprozess mit Raten von 29,1-96,0 % eliminiert. Die Substanzen TBP und TBEP, die in höheren Konzentrationen von mehreren Mikrogramm/l im ungeklärten Abwasser enthalten waren, wurden effektiver durch den Klärprozess eliminiert, als dies bei Substanzen mit geringeren Konzentrationen wie BHT und TCEP der Fall war. Eine besondere Stellung im Eliminierungsprozess in den Kläranlagen nimmt 4-NP ein. Diese endokrin wirksame Substanz konnte ausschließlich in den Ablaufproben der kommunalen Kläranlagen nachgewiesen werden, was darauf hindeutet, dass sie erst während des Klärprozesses durch biologischen Abbau von NPnEO gebildet wird. Da allerdings kommunale Kläranlagen neben Abwasser auch einen großen Anteil an Oberflächenabfluss und damit Niederschlagswasser aufnehmen, stellt sich an dieser Stelle die Frage, warum 4-NP in den Zulaufproben nicht oberhalb der Nachweisgrenze nachgewiesen werden konnte. Niederschlag- und Dachablauf enthielten immerhin durchschnittlich 942 ng/l 4-NP. Hier besteht weiterhin Klärungsbedarf. Das Auftreten aller Substanzen in sämtlichen Ablaufproben zeigt, dass die Direkteinleitungen geklärter Abwässer in die Flüsse eindeutig eine Eintragsquelle für das gesamte untersuchte Stoffspektrum in die aquatische Umwelt darstellen. Ein weiterer Schadstoffeintrag ist durch die Aufbringung von Klärschlamm auf landwirtschaftliche Nutzflächen gegeben. Aufgrund der hohen Werte der Octanol/Wasserverteilungskoeffizienten (logPOW) der hier untersuchten Verbindungen muss eine Adsorption der Substanzen an Klärschlamm und ein damit verbundener Eintrag ins Grundwasser durch Remobilisierungserscheinungen ebenfalls als Eintragsquelle in Betracht gezogen werden. Generell gingen in den letzten Jahren die Mengen an BHT, die über die Einleitungen geklärter Abwässer in die Oberflächengewässer gelangen, zurück. Vor fast 30 Jahren gelangte in den USA vereinzelt noch ungefähr die 100fache Menge der Substanz über Abwassereinleitungen in die Vorfluter. Für TBP, TCEP und TBEP war im geklärten Abwasser deutscher Kläranlagen in den letzten 20 Jahren ebenfalls eine Konzentrationsabnahme zu beobachten. Der Grund hierfür liegt in der Ausweitung des Kläranlagennetzes sowie in der Verbesserung vorhandener Abwasserreinigungsanlagen (vor allem in den neuen Bundesländern). Dagegen ist die BPA-Konzentration im geklärten Abwasser in der Bundesrepublik Deutschland in den letzten drei Jahren geringfügig gestiegen, was auf die steigenden Produktionszahlen dieser Massenchemikalie zurückgeführt werden kann. Für 4-NP wurde in der BRD in den letzten fünf Jahren ein leichter Konzentrationsrückgang im geklärten Abwasser beobachtet. Dies kann damit in Zusammenhang gebracht werden, dass die deutsche Wasch- und Reinigungsmittelindustrie im Jahr 1986 eine freiwillige Verzichterklärung bezüglich des Einsatzes von NPnEO abgegeben hat. Durch den geringeren Einsatz dieser nichtionischen Tenside in den Produkten gelangen weniger NPnEO mit dem Abwasser in die Kläranlagen. Folglich wird im Verlauf der Abwasserbehandlung auch weniger 4-NP durch biologischen Abbau gebildet. Trotz dieser Verzichterklärung kann 4-NP dennoch bis heute in deutschen Kläranlagenabläufen nachgewiesen werden. Im internationalen Vergleich mit Österreich, Italien, England, Schottland, Schweiz, Kanada und den USA sind die 4-NP-Konzentrationen im geklärten Abwasser in Deutschland allerdings relativ gering. Niederschlag und Dachablauf Alle ausgewählten Verbindungen konnten sowohl in der Niederschlagsprobe aus dem Oderbruch als auch in den Dachablaufproben nachgewiesen werden. Aufgrund ihrer physikalischen Eigenschaften wie Dampfdruck und Henry-Konstante ist die Voraussetzung für einen Eintrag in die Atmosphäre für alle im Rahmen dieser Arbeit untersuchten Substanzen generell gegeben. BHT und BHT-CHO konnten mit durchschnittlich 510 ng/l bzw. 171 ng/l in Niederschlag- und Dachablauf nachgewiesen werden (n=5). Der Maximalwert für BHT lag dabei bei 1797 ng/l in einer Dachablaufprobe und für BHT-CHO bei 474 ng/l in der Niederschlagsprobe. Die mittlere Konzentration der Phosphorsäureester in den untersuchten Niederschlags- und Dachablaufproben lag bei 951 ng/l für TBP, bei 151 ng/l für TCEP und bei 338 ng/l für TBEP. Dabei erreichte TBP ein Maximum von 1344 ng/l, TCEP von 327 ng/l und TBEP von 448 ng/l (die Maximalwerte der Phosphorsäureester wurden jeweils in einer Dachablaufprobe bestimmt). 4-NP wurde mit einer mittleren Konzentration von 942 ng/l im Niederschlag- und Dachablauf gemessen. Das 4-NP- Maximum lag bei 1231 ng/l (Dachablauf). BPA konnte mit durchschnittlich 1251 ng/l in Niederschlag- und Dachablauf nachgewiesen werden. Die maximale BPA-Konzentration lag dabei bei 4085 ng/l in der Niederschlagsprobe aus dem Oderbruch. Die hohen Konzentrationen von BPA im Regen konnten im Rahmen dieser Arbeit nicht erklärt werden. Die Verbindung besitzt einen sehr niedrigen Dampfdruck (0,000005 Pa bei 25°C), der nicht ausreicht, um solch hohe Konzentrationen in der Atmosphäre hervorzurufen. Eine Verunreinigung der Regenwasserproben bei der Probennahme ist hier als Grund für die hohen BPA-Konzentrationen in Betracht zu ziehen und durch die Analyse weiterer Niederschlags- und Dachablaufproben zu überprüfen. Die Substanzen BHT, BHT-CHO, TBP und 4-NP waren im Vergleich zum geklärten Abwasser in höheren Konzentrationen in Niederschlag und Dachablauf enthalten. Diese Stoffe werden somit verstärkt über die Atmosphäre mit den Niederschlägen in die Umwelt eingetragen. Hier besteht Klärungsbedarf bezüglich dessen, dass 4-NP zwar im Regenwasser nicht aber in den Zuläufen der kommunalen Kläranlagen nachgewiesen werden konnte. Die mittleren Regenwasserkonzentrationen von BHT, BHT-CHO, TBP und 4-NP lagen ebenfalls über den mittleren Konzentrationen in Oberflächen- und Grundwasser. Zwei der Dachablaufproben stammten aus dem Rhein-Main Gebiet. In solchen Ballungszentren sind häufig höhere Gehalte an organischen Umweltchemikalien im Regenwasser enthalten als in ländlichen Gebieten, was einen Anstieg der Durchschnittskonzentration in sämtlichen Regenwasserproben zur Folge hat. Hinzu kommt, dass sich Verbindungen wie 4-NP, die einen hohen Dampfdruck aufweisen, relativ gleichmäßig in der Atmosphäre verteilen und so auch in Gebiete gelangen, die nicht durch hohe Schadstoffemissionen gekennzeichnet sind. Dies hat ebenfalls relativ hohe Konzentrationen im Regenwasser zur Folge. Ein dritter Grund für die höheren Konzentrationen im Regenwasser im Vergleich zum Oberflächen- und Grundwasser könnte die Adsorption organischer Umweltchemikalien mit hohen Octanol/ Wasserverteilungskoeffizienten an Sedimentpartikel, Schwebstoffe und/oder organische Substanz in Fluss und Aquifer sein. Die mittleren Konzentrationen der beiden Phosphorsäureester TCEP, TBEP und BPA waren im Vergleich zum geklärten Abwasser der kommunalen Kläranlagen im Regenwasser deutlich niedriger. Der Eintrag über die Atmosphäre ist folglich für diese Verbindungen von geringerer Bedeutung. Am Beispiel des Phosphorsäureester TBEP konnte dennoch demonstriert werden, dass der atmosphärische Eintrag organischer Verbindungen mit relativ geringen Dampfdrücken nicht zu vernachlässigen ist, da solche Substanzen die Tendenz zeigen, an Aerosolpartikel zu adsorbieren und mit dem Aerosol transportiert zu werden. Oberflächenwasser Die untersuchten Umweltchemikalien konnten in fast allen Wasserproben aus den untersuchten Oberflächengewässern mit zum Teil erheblichen Konzentrationsschwankungen nachgewiesen werden. Für BHT lagen die Konzentrationen in den Oberflächengewässern zwischen Werten unterhalb der Nachweisgrenze (<1 ng/l) und 1594 ng/l. Der Metabolit BHT- CHO wies dagegen mit einem Konzentrationsbereich von Werten unterhalb der Nachweisgrenze (<5 ng/l) bis 236 ng/l durchweg geringere Konzentrationen in den Oberflächenwasserproben auf. Der Mittelwert lag für BHT bei 233 ng/l und für BHT-CHO bei 89 ng/l (n = 47). Die Konzentrationen der Phosphorsäureester TBP, TCEP und TBEP in den untersuchten Oberflächenwasserproben schwankten zwischen Gehalten unterhalb der Nachweisgrenzen (<7 ng/l für TBP, <5 ng/l für TCEP und <6 ng/l für TBEP) und 1510 ng/l für TBP. Dabei wiesen TBP und TBEP mit Mittelwerten von 481 bzw. 465 ng/l die höchsten Konzentrationen in den untersuchten Oberflächengewässern auf. Der Mittelwert der Substanz TCEP in allen untersuchten Oberflächenwasserproben lag dagegen nur bei 165 ng/l. Die Konzentrationen der Xenoöstrogene BPA und 4-NP reichten bis maximal 1672 bzw. 1220 ng/l. Die Nachweisgrenze für BPA lag bei 10 ng/l und für 4-NP bei 6 ng/l. 4-NP trug mit einem Mittelwert von 464 ng/l am meisten von allen untersuchten Verbindungen zur Gewässerverunreinigung bei. Der Mittelwert für BPA in den Oberflächengewässern lag bei 351 ng/l. In den hier untersuchten Flüssen in der BRD war die maximale BHT-Konzentration (1594 ng/l) um das 10fache geringer als die maximale BHT-Konzentration, die noch vor 30 Jahren in deutschen Oberflächengewässern gemessen wurde (14000 ng/l). Im Vergleich zu BHT- Gehalten in japanischen (1980) und amerikanischen (1975) Oberflächengewässern lagen die aktuellen BHT-Gehalte in deutschen Flüssen deutlich darunter. Die Konzentrationen für TBP und TCEP in deutschen Oberflächengewässern sind in der Vergangenheit ebenfalls deutlich zurückgegangen. Im internationalen Vergleich liegt die BRD in Bezug auf TBP-Gehalte in Oberflächengewässern mit an der Spitze. In der Elbe konnte für die Substanz TBEP in den letzten 15 Jahren ein leichter Konzentrationsanstieg beobachtet werden. Die TBEP- Konzentration in deutschen Oberflächengewässern ist im Vergleich zu Gehalten in japanischen und amerikanischen Flüssen sowie im Trinkwasser aus Kanada gering. Der BPA- Gehalt im Rhein ist in den letzten 10 Jahren geringfügig angestiegen. Im Vergleich mit Japan und Tschechien liegen die BPA-Konzentrationen in deutschen Flüssen innerhalb von Ballungsgebieten auf einem ähnlich hohen Niveau. Die Konzentrationsentwicklung des Xenoöstrogens 4-NP war seit 1986 in deutschen Oberflächengewässern stark rückläufig, was mit der freiwilligen Verzichterklärung in diesem Jahr zusammenhängt. Trotzdem tritt 4-NP auch heute noch in Konzentrationen im Nanogramm/Liter-Bereich in deutschen Flüssen auf. Die deutschen Werte lagen allerdings deutlich unterhalb der 4-NP-Konzentrationen in Oberflächengewässern der Schweiz, England, den USA und Taiwan.. Grundwasser Das Antioxidans BHT sowie sein Abbauprodukt BHT-CHO konnten in den meisten Grundwasserproben aus dem Oderbruch mit Gehalten bis zu 2156 bzw. 541 ng/l nachge- wiesen werden. Der Mittelwert für BHT im Grundwasser lag bei 353 ng/l und für BHT-CHO bei 105 ng/l (n=76). Die Verbindung 2-BHT wurde ausschließlich im Grundwasser nachgewiesen. Dies zeigt, dass die anaeroben Bedingungen im Aquifer des Oderbruchs zur Bildung des Dimeren von BHT geführt haben. Ob diese Vermutung stimmt, dass 2-BHT tatsächlich aus dem Antioxidans BHT gebildet wird, soll in naher Zukunft anhand mikrobiologischer Abbauversuche von BHT unter anaeroben Bedingungen geklärt werden. Die Gehalte der Phosphorsäureester im Grundwasser bewegten sich in Konzentrationsbereichen bis zu 1605 ng/l (TBP), bis zu 754 ng/l (TCEP) und bis zu 2010 ng/l (TBEP) mit einem Mittelwert für TBP von 276 ng/l, für TCEP von nur 80 ng/l und für TBEP von 289 ng/l. Der Maximalwert für BPA in den Grundwasserproben betrug 4557 ng/l. Der Mittelwert für diese Verbindung im Grundwasser lag bei 630 ng/l. Betrachtet man die BPA- Konzentration in den Grundwasserproben, fällt auf, dass diese sehr starken Schwankung unterliegt, die an dieser Stelle nicht erklärt werden können. Es besteht der Verdacht einer BPA-Kontamination der Grundwasserproben bei der Probennahme, da die beprobten Messstellen im Oderbruch zur Förderung des Grundwassers mit Kunststofflinern ausgestattet wurden, die eventuell BPA als Antioxidans enthalten. In Zukunft sind daher weitere Grundwasseranalysen mit einer verbesserten Probennahmetechnik notwendig, um eine Kontamination mit BPA auszuschließen. In den Grundwasserproben war das Isomerengemisch 4-NP, ebenso wie in den Oberflächenwasserproben, im Mittel mit der höchsten Konzentration vertreten (724 ng/l). Das 4-NP-Maximum lag dabei bei 2542 ng/l. Alle ausgewählten organischen Industriechemikalien konnten in den odernahen Bereichen innerhalb der Transsekte Bahnbrücke sowohl im Grundwasser aus dem Teilbereich des Aquifers, der nur durch infiltrierendes Oderwasser gespeist wird, als auch im Grundwasser aus dem Teilbereich des Aquifers, der überwiegend von infiltrierendem Niederschlagswasser beeinflusst wird, nachgewiesen werden. Die anthropogenen Stoffe gelangen also im Bereich der Transsekte Bahnbrücke sowohl über das Uferfiltrat als auch durch Niederschlagsinfiltration ins Grundwasser. Durch die Uferfiltration spiegelten sich die Konzentrationen der vor wenigen Tagen infiltrierten organischen Verbindungen aus dem Oderwasser direkt im Grundwasser aus odernahen Bereichen wieder. Auch weiter vom Fluss entfernt liegende Aquiferbereiche innerhalb der Transsekte Bahnbrücke wurden noch von infiltriertem Oderwasser beeinflusst. Die jahreszeitlichen Konzentrationsschwankungen demonstrieren hier jedoch die Flusskonzentrationen vor einigen Jahren, da das Oderwasser mehrere Jahre braucht, um in diese Bereiche zu gelangen. Weiterhin ist auch ein Stoffeintrag ins Grundwasser mit dem Oderwasser bei Hochwasserereignissen zu berücksichtigen. Generell nahmen die Konzentrationen der organischen Umweltchemikalien mit zunehmender Entfernung von der Oder ab, was den fehlenden Niederschlagseinfluss im Aquiferbereich der Transsekte Bahnbrücke bedingt durch die schützenden undurchlässigen Deckschichten demonstriert. Im Grundwasser, das aus dem Aquiferbereich in unmittelbarer Nähe der Entwässerungsgräben stammte, war häufig eine Konzentrationsabnahme der organischen Umweltchemikalien zu beobachten. Dies beweist den hydraulischen Zusammenhang zwischen Fluss und Entwässerungsgräben. Das infiltrierte Flusswasser steigt nach der Aquiferpassage in Grabennähe auf, was zu Verdünnungseffekten im Grundwasser verbunden mit einer Konzentrationsabnahme führt. Weiterhin wurden die ausgewählten Stoffe auch in den Grundwasserproben aus dem Aquiferbereich der Transsekte Nieschen nachgewiesen, der durch das Fehlen undurchlässiger Deckschichten gekennzeichnet ist. Da hier aufgrund der Entfernung dieser Transsekte von der Oder der hydraulische Kontakt zum Fluss stark eingeschränkt ist, sind die im Grundwasser auftretenden organischen Umweltchemikalien auf einen Eintrag mit dem infiltrierenden Niederschlagswasser zurückzuführen. Für einen Eintrag der Substanzen mit dem Niederschlagswasser spricht auch die Tatsache, dass die mittleren Konzentrationen der organischen Verbindungen in den Grundwasserproben aus der Transsekte Nieschen im Gegensatz zu denen aus der Transsekte Bahnbrücke trotz eines fehlenden hydraulischen Kontakts zur Oder erhöht waren. Die starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen können zum einen auf einen Eintrag dieser Substanzen mit dem Niederschlag zurückgeführt werden. Der Aquifer im Oderbruch ist heterogen ausgebildet, was den Eintrag organischer Stoffe mit den Niederschlägen ins Grundwasser lokal fördert oder hemmt und es dadurch zu unterschiedlichen Konzentrationen kommt. Zum anderen kann angenommen werden, dass die Konzentrationsschwankungen in diesem Aquiferbereich Folge einer Aufkonzentrierung der gelösten organischen Stoffe durch Verdunstung des oberflächennahen Grundwassers waren. Diese Annahme bestätigen die erhöhten Konzentrationen der Stoffe im Grundwasser im November 2000 und im März 2001 im Vergleich zum März 2000. Zu beiden Zeitpunkten waren die Niederschläge gering, was sich im Niedrigwasserstand der Oder wiederspiegelte. Vor allem in niederschlagsarmen Gebieten wie das Oderbruch, kann dieser Prozess der Aufkonzentrierung organischer Stoffe im Grundwasser durch Evaporation von Bedeutung sein. Die Frage, ob letztendlich der Niederschlagseintrag oder der umgekehrte Prozess, die Evaporation des Grundwassers, zu den starken Konzentrationsschwankungen der organischen Umweltchemikalien im Aquiferbereich der Transsekte Nieschen geführt hat, kann an dieser Stelle nicht beantwortet werden. Sicher ist, dass bei fehlenden undurchlässigen Deckschichten ein atmosphärische Eintrag organischer Umweltchemikalien in den Aquifer stattfindet. Auch in den Messstellen, die außerhalb der beiden Transsekten Nieschen und Bahnbrücke ca. 3000 bzw. 5000 m entfernt von der Oder liegen, konnten die organischen Verbindungen zum Teil in erheblichen Konzentrationen nachgewiesen werden. Dies ist zum einen wiederum mit einem Eintrag durch Niederschlagswasser und dem Transport der organischen Umweltchemikalien in größere Tiefen des Aquifers mit dem Sickerwasser zu erklären. Die undurchlässige Auelehmschicht ist in diesem Bereich nicht mehr vorhanden, so dass das Niederschlagswasser ungehindert in den Aquifer infiltrieren kann. Ein Einfluss des Oderfiltrats in dieser Entfernung vom Fluss kann ausgeschlossen werden, da in den mittleren Bereichen des Oderbruchs 50-100 Jahre für einen vollständigen Grundwasseraustausch realistisch sind und die Produktion sämtlicher Industriechemikalien, die Gegenstand dieser Arbeit sind, zu diesen Zeiten ohne Bedeutung war. Eine Remobilisierung der organischen Umweltchemikalien aus Klärschlamm, der im Land Brandenburg noch häufig auf Agrarflächen aufgebracht wird, muss als Eintragsquelle hier ebenfalls in Betracht gezogen werden, da Stoffe mit einem hohen Octanol/ Wasserverteilungskoeffizienten häufig die Tendenz zeigen, an Klärschlamm zu akkumulieren. Der photochemische Abbau des Antioxidationsmittels BHT zu seinem Metabolit BHT-CHO in der Atmosphäre war im Sommer höher als im Herbst und im Frühjahr, wobei der Metabolit selbst ebenfalls Abbauprozessen unterlag. Im Gegensatz dazu spielte der photochemische Abbau von TBP, TCEP, TBEP und 4-NP zu keinen Zeitpunkt eine große Rolle. Solange keine nennenswerten Direkteinleitungen in die Oder zu verzeichnen waren, konnte flussabwärts eine Konzentrationsabnahme für alle organischen Verbindungen festgestellt werden, welche auf aeroben Abbau der Substanzen zurückgeführt werden kann. Im Frühjahr war der Sauerstoffgehalt im Fluss mit 12,05 mg/l aufgrund der geringen Wassertemperatur (6,9 °C) und des Hochwasserereignisses am höchsten. Dies hatte höhere aerobe Abbauraten von BHT zu BHT-CHO zu diesem Zeitpunkt zur Folge. Ob es sich tatsächlich um einen biologischen Abbau der organischen Substanzen handelt oder ob Adsorptionseffekte an Schwebstoffe und Sedimente bei der Eliminierung dieser Stoffe ebenfalls eine Rolle spielen, muss anhand zukünftiger Analysen von Odersedimenten- und Schwebstoffen auf solche Substanzen geklärt werden. Der Abbau unter anaeroben Bedingungen, wie sie im Grundwasserleiter des Oderbruchs durchweg herrschen, spielte dagegen im Bezug auf alle untersuchten Verbindungen keine große Rolle, da diese in allen Tiefen des Aquifers (bis 21 m) noch nachgewiesen werden konnten. Sind sie einmal in das Grundwasser gelangt, werden sie aufgrund ihrer relativ guten Wasserlöslichkeit also leicht mit diesem in tiefere Bereiche transportiert. Sie sind damit relativ mobil. Die organischen Umweltchemikalien werden auch nicht wesentlich durch Adsorption an Sediment und/oder organischer Substanz zurückgehalten und dadurch aus dem Grundwasser eliminiert. Solche Faktoren wie ein schlechter anaerober Abbau, eine gute Wasserlöslichkeit und eine geringe Adsorption an Boden und Sediment einiger Schadstoffe müssen bei der Trinkwasserförderung aus tieferen Aquiferbereichen berücksichtigt werden. Chemikalien mit guten Wasserlöslichkeiten, wie beispielsweise die beiden Phosphorsäureester TCEP und TBEP, zeigten sogar die Tendenz sich besonders in den tieferen Aquiferbereichen anzureichern. Die Ergebnisse dieser Arbeit zeigen auch, dass es selbst in Gebieten wie dem Oderbruch, in denen die Grundwasserneubildung durch Niederschlag eine eher geringe Rolle spielt, durchaus zu einen nicht zu vernachlässigenden Eintrag von Stoffen durch Niederschlagswasser kommt und eine hohe Verdunstungsrate zu einer Aufkonzentrierung führt. Dies bedeutet, dass bei einer Betrachtung von hydrochemischen Prozessen in einem Grundwasserleiter, der hauptsächlich durch Uferfiltrat gespeist wird, keine einfache räumliche Struktur zugrunde gelegt werden kann. Zum lateralem Zustrom des infiltrierenden Flusswassers kommt der vertikale Einfluss des Sickerwassers. Dies muss neben Faktoren wie anaerober Abbau, Adsorption und Verdünnungseffekte bei der Interpretation des Schadstoffeintrags- und Transports im Grundwasser berücksichtigt werden.
Diese Arbeit beschreibt Entwürfe zur Anwendung einer nicht-interpolierenden Advektionsmethode in numerischen Wettervorhersagemodellen. Es wird an verschiedenen Beispielen dargestellt, in welcher Weise eine solche nicht-interpolierende Methode anstelle von herkömmlichen Differenzen- oder interpolierenden Lagrangeschen Verfahren einsetzbar ist. Die in der meteorologischen Modellierung neuartige nicht-interpolierende Advektionsmethode verwendet das Partikel-Lagrangesche Konzept von Steppeler (1990a), das die Verlagerung von atmosphärischen Größen mittels Partikeln berechnet, wobei die Partikeln als Luftpakete zu verstehen sind, die sich entlang der Trajektorien bewegen und dabei den Wert der prognostischen Größen erhalten. Diese Eigenschaft der Methode kommt vor allem dann zum Tragen, wenn die Verteilung der prognostischen Größen durch Sprungfunktionen beschrieben wird, da Näherungsfehler der bislang verwendeten Methoden, wie Oszillation und Glättung, an solchen Gradienten verstärkt auftreten. Die Untersuchung der Genauigkeit und Anwendbarkeit der nicht-interpolierenden Partikel-Lagrangeschen Methode findet durch Modellstudien statt. Die Methode selbst wird am Beispiel verschiedener Anfangswert-Aufgaben für ein dichtekonstantes barotropes Flachwasser-System beschrieben, gefolgt von der Nachbildung von zwei Ausbreitungsszenarien für chemisch träge Stoffe in einer hydrostatischen Modellatmosphäre, sowie des trocken- und feuchtadiabatischen Aufstiegs einer warmen Luftblase unter nicht- hydrostatischen Bedingungen. Im Hinblick auf numerische Fehler wird gefordert, daß die numerische Lösung monoton bleibt, wobei unter Monotonität ein oszillationsfreier Verlauf der Lösung verstanden wird. Mittels Vergleich zwischen den numerischen Lösungen wird festgestellt, daß die Genauigkeit der nicht-interpolierenden numerischen Lösung mit Ausnahme einer Anfangswert-Aufgabe gleich oder höher ist als bei den mit herkömmlichen Methoden erzielten Resultaten. Eine herausragende Steigerung der Genauigkeit ist dann zu beobachten, wenn die Advektion im Vergleich zu anderen Prozessen eine viel stärkere Rolle spielt, wie z.B. im Falle der Konvektion in trockener Atmosphäre.
Die vorliegende Arbeit liefert einen Beitrag zum Verständnis der Rolle des RO x bei der troposphärischen Ozonbildung. Troposphärisches Ozon (O 3 ) spielt eine wichtige Rolle bei der Selbstreinigung der Atmosphäre. Andererseits führen erhöhte Ozonkonzentrationen zu gesundheitlichen Beeinträchtigungen beim Menschen und Schäden an Pflanzen und Umwelt. Die Anwesenheit von flüchtigen organischen Verbindungen (VOCs) führt zur Bildung von Peroxyradikalen (RO x ), die das normale photochemische Gleichgewicht zwischen Ozon und Stickoxiden zu Gunsten erhöhter OzonKonzentrationen verschieben. Im Rahmen der Arbeit wurde ein chemischer Verstärker zur Messung der GesamtPeroxyradikalkonzentration gebaut. RO x reagiert im Einlass des Gerätes mit hinzugefügtem NO und CO in einer Kettenreaktion und bildet dabei NO 2 . Dieses wird mit einem Luminoldetektor nachgewiesen. Der Detektor wird alle 2 Stunden kalibriert. Die Kettenlänge wird durch eine Kalibrierung des Gerätes mit HO 2 Radikalen bestimmt, die durch die Photolyse von H 2 O gebildet werden. Der Verstärkungsfaktor wurde in Bezug auf eine Querempfindlichkeit gegen Wasserdampf korrigiert. Die Messgenauigkeit ist etwa 70% bei 60% relativer Feuchte. Messungen am Taunus Observatorium auf dem Kleinen Feldberg in den Sommermonaten der beiden Jahre 1998 und 1999 werden vorgestellt. Die Ozon und RO x Konzentrationen sind gut miteinander korreliert. Allerdings ist die Tagestemperatur die für die Ozon und RO x Konzentrationen bei weitem wichtigste Einflussgröße und ist daher der beste Parameter zur statistischen Beschreibung von photochemischen Vorgängen. Auf der Grundlage der Messungen am Kleinen Feldberg wurde ein einfaches statistisches Modell zur Vorhersage des Ozonmaximums erstellt. Mit den Parametern Temperatur und Ozonkonzentration am Vortag konnte das statistische Modell bereits 80% der Variation der Ozonkonzentration erklären. Durch die Berücksichtigung der RO x Messungen am Vormittag konnte lediglich eine Verbesserung der erklärten Varianz um 0.5% erzielt werden. Um einen Hinweis auf den Einfluss anthropogener Emissionen zu bekommen, wurde der Wochengang von Ozon, RO x und NO x ebenfalls untersucht. Die Zunahme des Ozonmischungsverhältnisses am Wochenende bei gleichzeitigem Rückgang des Mischungsverhältnisses der Stickoxide wird damit erklärt, dass am Kleinen Feldberg eine VOClimitierte Situation vorgefunden wurde. Die Ozonbildungsrate auf Basis der Reaktion zwischen RO x und NO wurde für Tage mit einem Maximum der Globalstrahlung über 600 W m tdatensatz niedrig (r = 0,46). Die beobachtete Änderung des Ozonmischungsverhältnisses wurde mit dem berechneten mittleren Tagesgang der Ozonbildungsrate verglichen. Die Ozonbildungsrate lag um die Mittagszeit bei etwa 5 ppbv h Verlustprozesse zu erklären. Am Abend werden etwa 2 ppbv O 3 pro Stunde abgebaut. Im Rahmen einer Messkampagne im Juni/Juli 2000 am Meteorologischen Observatorium Hohenpeißenberg fanden Messungen der Konzentrationen von RO x , OH, einer Reihe von VOCs, und anderen relevanten Spurengasen statt. Die Messdaten werden mit Hilfe eines auf der Annahme des lokalen photostationären Gleichgewichts der Radikale basierenden Modells interpretiert. Die Modellergebnisse stimmten sehr gut mit den Messungen überein. Die Überschätzung der Konzentration an 2 Tagen wurde durch den Einfluss sauerstoffhaltiger VOCs erklärt. Das '' Recycling" der HO 2 Radikale (die Reaktion zwischen HO 2 und NO) ist die wichtigste Quelle für OH und die wichtigste Senke für RO x . Durch die erhöhte NOKonzentration am Vormittag wird HO 2 sehr schnell in OH umgewandelt, das wiederum für die VOCOxidation und RO x Bildung verantwortlich ist. Die wichtigste OHSenke und RO x Quelle ist die Oxidation von Isopren und den Terpenen. Um die Rolle der photochemischen Ozonbildung auf regionaler Skala zu untersuchen, wurden Ozonmessungen aus ganz Deutschland auf unterschiedlichen zeitlichen und räumlichen Skalen statistisch untersucht. Die Netto Änderungsrate der Ozonkonzentration war tagsüber an 3 nahe zusammenliegenden Stationen sehr ähnlich. Die OzonMessdaten von 277 deutschen Messstationen wurden mit den an einer Waldmessstelle nahe Königstein gemessenen Ozonwerten korreliert. Die Ozonmessungen in Königstein erklären 50% der Varianz der sommerlichen Ozonmessungen zwischen 11:00 und 16:00 MEZ an Stationen, die in einem Umkreis von etwa 250 km von Königstein liegen. Auf das ganze Jahr bezogen, liegt diese ''charakteristische Entfernung" bei etwa 350 km. Diese Ergebnisse deuten darauf hin, dass die Prozesse, die einen wichtigen Einfluss auf die Ozonkonzentration ausüben, auf regionalen Skalen von einigen hundert Kilometern aktiv sind. Zusammenfassend lässt sich sagen, dass die gemessenen RO x Konzentrationen mit den aufgrund der Oxidation der VOCs durch OH berechneten Konzentrationen konsistent sind. Obwohl die RO x Konzentationen für die chemische Modellierung von Bedeutung sind, tragen RO x Messungen nur wenig zu einer Verbesserung der Qualität von kurzfristigen statistischen Ozonprognosen bei. Keywords: Ozone, Troposphere, Peroxy Radicals, Free Radicals, Photochemistry, Chemical Amplifier
In der hier vorliegenden Arbeit wurde der troposphärische Kreislauf von Carbonylsulfid (COS) untersucht. COS ist ein Quellgas des stratosphärischen SulfatAerosols, das die Strahlungsbilanz beeinflussen und den chemischen Abbau des stratosphärischen Ozons beschleunigen kann. Trotz zahlreicher Studien sind die Quellen und Senken des atmosphärischen COS bisher nur unzulänglich quantifiziert. Insbesondere bestehen große Unsicherheiten in den Abschätzungen der Beiträge des Ozeans und der anthropogenen Quellen, sowie der Senkenstärke der Landvegetation. Schiffs und flugzeuggetragene Messungen des atmosphärischen COS ergaben kein einheitliches interhemisphärisches Verhältnis (IHR=MNH /M SH ). Während die Messungen von Bingemer et al. (1990), StaubesDiederich (1992) und Johnson et al. (1993) ein IHR zwischen 1.10 und 1.25 zeigten, fanden die Messungen von Torres et al. (1980), StaubesDiederich (1992), Weiss et al. (1995) und Thornton et al. (1996) keinen oder nur einen geringfügigen N/SGradienten. Die Untersuchung von Chin und Davis (1993) zeigt ein N/SVerhältnis der COS Quellstärke von 2.3, das hauptsächlich auf die stärkeren anthropogenen Quellen auf der Nordhalbkugel zurückzuführen ist. Es ist unklar, ob der zeitweilige Konzentrationsüberschuß der Nordhemisphäre Zeichen anthropogener Quellen dort oder Teil eines durch die Senkenfunktion der Landpflanzen verursachten saisonalen Signals ist. Die Konsistenz der Breitenverteilung des COSMischungsverhältnisses mit den geographischen bzw. saisonalen Variationen der COSQuellen und Senken muß überprüft werden. Dazu werden genaue Kenntnissen der Quell und Senkenstärken des atmosphärischen COS und ihrer raumzeitlichen Variabilität benötigt. Vor dem obigen Hintergrund ergeben sich als Schwerpunkte dieser Arbeit: (1) der Austausch von COS zwischen Atmosphäre und Ozean sowie (2) zwischen Atmosphäre und terrestrischer Vegetation und (3) die raumzeitliche Variabilität des atmosphärischen COS. Zur Untersuchung des Austausches von COS zwischen Atmosphäre und Ozean wurde das KonzentrationsUngleichgewicht von COS zwischen Ozean und Atmosphäre durch Messungen des COS im Seewasser und in der Meeresluft ermittelt und die resultierenden Austauschflüsse mit einem Modell berechnet. Die Messungen fanden an Bord des Forschungsschiffs Polarstern während der Fahrten ANT/XV1 (15.10.6.11.1997, BremerhavenKapstadt) und ANT /XV5 (26.5.6.20.1998, KapstadtBremerhaven) statt. Die Konzentration des gelösten COS und das Sättigungsverhältnis von COS zwischen Ozean und Atmosphäre zeigen ausgeprägte Tagesgänge und saisonale und geographische Variationen. Die mittlere Konzentration von COS im Seewasser beträgt 14.7 pmol L -1 für die HerbstFahrt bzw. 18.1 pmol L -1 für die SommerFahrt. Höchste COSKonzentrationen werden in der jeweiligen SommerHemisphäre und in Gebieten mit hoher biologischer Produktivität beobachtet, d.h. im BenguelaStrom im November, im NordostAtlantik im Juni und in den Auftriebgebieten vor Westafrika im Oktober bzw. Juni. In den übrigen Gebieten sind die Konzentrationen um eine Größenordnung niedriger. Die Konzentration von COS im Seewasser steigt frühmorgens von ihrem tiefsten Stand an. Um ca. 15 Uhr Ortszeit erreicht sie ihr Maximum, danach nimmt sie ab. Der Tagesgang unterstützt die Theorie, daß COS im Seewasser photochemisch produziert wird. Während der Tagesstunden wird eine Übersättigung des offenen Ozean für COS gefunden. Dagegen ist eine Untersättigung des Ozeans in den späten Nachtstunden zu beobachten. Der Ozean wirkt in den Tagesstunden als COSQuelle, in der späten Nacht als COSSenke. Die Untersättigung tritt sogar im Sommer in produktiven Meeresgebieten regelmäßig auf. Eine Konsequenz dieser Beobachtung ist die weitere Reduzierung der ozeanischen Quelle von COS gegenüber bisher publizierten Abschätzungen. Methylmercaptan (CH 3 SH) ist in allen Seewasserproben zu beobachten. Der Tagesmittelwert der CH 3 SHKonzentration variiert zwischen 29 und 303 pm L -1 und ist 316 fach größer als der der COSKonzentration. Der Tagesgang der CH 3 SHKonzentration zeigt ein Minimum um die Mittagszeit. Die Tagesmittel der CH 3 SH und COSKonzentrationen sind signifikant miteinander korreliert. Diese Daten liefern den Beweis dafür, daß CH 3 SH eine der wichtigen Vorgängersubstanzen von COS ist. Die Regressionslinie der Korrelation zwischen den mittleren COS und CH 3 SHKonzentrationen weist nur einen geringfügigen Achsenabschnitt auf. Somit kann die CH 3 SHKonzentration als ein Indikator der Konzentration von COSVorgängern benutzt werden. Es besteht außerdem eine Korrelation zwischen der CH 3 SHKonzentration und dem Logarithmus der Konzentration des gelösten Chlorophyll a. Diese Korrelation deutet darauf hin, daß der Gehalt von CH 3 SH im Seewasser eine enge Beziehung zur marinen Primärproduktion hat. COS wird im Seewasser durch Hydrolyse abgebaut. Die Abbaurate hängt von der Temperatur des Seewassers ab. Je wärmer das Seewasser ist, desto schneller wird COS abgebaut, und um so kürzer ist die Lebenszeit von COS im Seewasser. Die Lebenszeit kann einerseits durch das ReaktionsgeschwindigkeitsGesetz von Arrhenius berechnet werden, andererseits läßt sie sich durch exponentielle Anpassung an den nächtlichen Konzentrationsverlauf (d.h. bei Abwesenheit von Photoproduktion) abschätzen. Eine solche Anpassung des exponentiellen Abklingens wurde anhand von dicht gestaffelten Messungen während einiger Nächte vorgenommen. Die gefitteten Lebenszeiten stimmen mit den theoretischen Werten gut überein, obwohl die gefittete Lebenszeit neben Hydrolyse noch von anderen Prozessen (z.B. Transport nach unten, AirSeaAustausch, usw.) beeinflußt wird. Diese gute Übereinstimmung unterstützt die Aussage, daß die Hydrolyse eine bedeutende Rolle beim Abbau von COS im Seewasser spielt. Die berechnete HydrolyseLebenszeit ist mit dem Tagesmittel der COSKonzentration korreliert. Da die Tagesmittelwerte sowohl zeitliche wie auch räumliche Mittelwerte der COSKonzentrationen darstellen, zeigt diese Korrelation, daß Hydrolyse eine bedeutende Rolle in der raumzeitlichen Variabilität der COSKonzentration einnimmt. Da die Konzentration des gelösten COS von mehreren Faktoren abhängig ist, scheint eine multivariable Betrachtung sinnvoll. Hierfür wurde eine "Multiple Linear Regression Analysis'' (MLRA) ausgeführt. Diese Analyse ergibt ein empirisches Modell der folgenden Form für die Berechnung des Tagesmittels der COSKonzentration: [COS] = 1.8# 13log[Chl] - 1.5W s 0.057G - 0.73, mit [COS] = mittlere Konzentration von COS in pmol L -1 # = HydrolyseLebenszeit in Stunde [Chl] = mittlere Konzentration von Chlorophyll a in mg m -3 W s = Windgeschwindigkeit in m s -1 G = Intensität der Globalstrahlung in W m -2 . Die Parameter auf der rechten Seite der Gleichung können direkt oder indirekt von Satelliten aus gemessen werden, deshalb kann dieses Modell für die Abschätzung der Konzentration von COS im Seewasser anhand von Satelliten Daten verwendet werden. Das empirische Modell soll noch durch weitere Messungen bestätigt bzw. verbessert werden. Der Austauschfluß von COS zwischen der Atmosphäre und dem offenen Ozean wurde mit dem AirSeaFlußModell von Liss and Slater (1974) zusammen mit dem Modell von Erickson (1993) f
Die vorliegende Arbeit liefert einen Beitrag zum besseren Verständnis des stratosphärischen Transports. Dieser ist ein wichtiger Parameter im komplexen gekoppelten System der Stratosphäre, das neben dem Transport vor allem von Chemie und Strahlungshaushalt geprägt wird. Neben verschiedenen Modelliertechniken bietet die Messung langlebiger Spurengase das effektivste Werkzeug für Untersuchungen von stratosphärischen Transportprozessen. Daher wurde am Institut für Meteorologie und Geophysik an der Universität Frankfurt ein Instrument zur in-situ-Messung von Spurengasen entwickelt, das sowohl an Stratosphärenballonen als auch auf dem russischen Höhenforschungsflugzeug M-55 "Geophysica" Echtzeitmessungen von Spurengasmischungsverhältnissen durchführen kann. Der "High Altitude Gas Analy- ser" (HAGAR) ist in der Lage, mit einem Zwei-Kanal-Gaschromatographen die Mischungsverhältnisse von N 2 O, F12, F11 und Halon-1211 mit einer Zeitauflösung von 90 s und das von SF 6 alle 45 s zu bestimmen. Ein an die speziellen Gegebenheiten von Stratosphärenmessungen angepasster CO 2 -Sensor der Firma LI-COR erreicht eine Zeitauflösung von ca. 10 s. Im Rahmen dieser Arbeit wurden entscheidende Beiträge zur Entwicklung von HAGAR geleistet. Für die Steuerung des Instruments auf Basis eines Industrie-PCs wurde ein umfangreiches Softwarepaket entwickelt, das die zuverlässige vollautomatische Steuerung des Instruments, sowie eine komfortable Konfigurationsmöglichkeit bietet. Nach einem ersten Ballontestflug am 13.5.1998 wurde das Instrument vollständig neu aufgebaut, um einen Sensor zur Messung von CO 2 zu integrieren. Des Weiteren wurden eine Reihe von Verbesserungen und Anpassungen durchgeführt, die für den Betrieb an Bord der Geophysica notwendig waren. Im Zeitraum von Dezember 1998 bis Oktober 1999 nahm HAGAR an drei Messkampagnen teil. Im Rahmen von APE-ETC ("Airborne Platform for Earth Observation - Extensive Test Campaign") wurde das Instrument erstmals an Bord der Geophysica montiert und eingesetzt. Trotz einer Reihe von kleineren Schwierigkeiten erwies sich das HAGAR-Konzept als gut ge- eignet für den Einsatz an Bord eines Höhenforschungsflugzeugs. So konnten zumindest während drei von sechs Testflügen Daten aufgezeichnet werden. Im Februar/März 1999 war HAGAR Teil der Geophysica-Nutzlast während der Messkampagne APE-THESEO ("Airborne Platform for Earth Observation - The Contribution to the Third European Stratospheric Experiment on Ozone"), die Mahè/Seychellen als Basis nutzte. HAGAR konnte hier während ca. 30 Flugstunden Daten aufnehmen. Dabei konnte ein umfangreicher Datensatz vor allem im Bereich der tropischen Tropopausenregion gewonnen werden. Die Tropen sind von besonderer Bedeutung für den stratosphärischen Transport, unter anderem da hier der Haupteintrag von troposphärischer Luft in die Stratosphäre stattfindet. Der Untersuchung des antarktischen Polarwirbels in der Phase des maximalen Ozonabbaus war die Messkampagne APE-GAIA ("Airborne Polar Experiment - Geophysica Aircraft in Antarctica") gewidmet, die im September und Oktober in Ushuaia/Argentinien stattfand. Als südlichste Stadt der Erde bietet Ushuaia die beste geographische Lage, um den stratosphärischen Polarwirbel mittels Flugzeugmessungen zu untersuchen. HAGAR arbeitete zuverlässig während aller wissenschaftlichen Flüge und einem Testflug in Ushuaia. Zusätzlich konnte während sechs Transferflugetappen zwischen Sevilla und Ushuaia zumindest für einen Teil der Substanzen Daten aufgezeichnet werden. Insgesamt liegen für etwa 60 Flugstunden Daten vor, darunter auch erstmals ein hochaufgelöstes Vertikalprofil im Polarwirbel, dass von über 20 km Höhe bis hinunter zur Tropopausenregion reicht. Für ein neu entwickeltes Messinstrument wie HAGAR ist eine Validierung der Daten sehr wichtig. Da eine direkte Validierung durch parallele Messungen nicht möglich war, musste auf ältere, vergleichbare Datensätze zurückgegriffen werden, die anhand des troposphärischen Trends korrigiert wurden. Als Vergleich dienten Datensätze der in-situ-Gaschromatographen GhOST und ACATS, der kryogenen Luftprobensammler und des CO 2 -Instrumentes der Harvard University. Dabei zeigte sich stets eine gute bis sehr gute quantitative Übereinstimmung der Daten. Auch die Präzision der Messungen, die bereits endgültig ausgewertet wurden, sind sehr zufriedenstellend und zumindest vergleichbar mit denen von "etablierten" Instrumenten. So war die Präzision für N 2 O, F12 und F11 zumeist deutlich besser als 1 %. Für CO 2 konnte die Präzision für APE-GAIA auf 0,15 ppm bzw. 0,05 % verbessert werden. Die Präzision der vorläufigen Daten von Halon-1211 und SF 6 beträgt bisher etwa 5 %. Der im Jahre 1999 von HAGAR aufgenommene Datensatz bietet umfangreiche Möglichkeiten zur wissenschaftlichen Analyse. Nur exemplarisch sind daher die Punkte zu sehen, die in dieser Arbeit diskutiert werden. Das mittlere Alter der Luft kann als die Zeit beschrieben werden, die die Bestandteile eines Luftpakets im Mittel benötigten, um von der tropischen Tropopausenregion an seine aktuelle Position in der Stratosphäre zu gelangen. Zur Bestimmung des mittleren Alters der Luft werden Messungen von Spurengasen verwendet, die in der Stratosphäre konservativ sind und deren troposphärisches Hintergrundmischungsverhältnis einen zeitlich linear ansteigenden Trend aufweist ("Alterstracer"). HAGAR ist in der Lage, die Mischungsverhältnisse der beiden gebräuchlichsten Alterstracer CO 2 und SF 6 zu messen. Das Alterskonzept bietet eine einfach zu bestimmende Kenngröße für den stratosphärischen Transport, die im Gegensatz zu Mischungsverhältnissen direkt mit Messungen, die zu anderen Zeitpunkten gewonnen wurden, vergleichbar ist. Es konnte gezeigt werden, dass die erreichbare Genauigkeit der Altersbestimmung nicht von der Messgenauigkeit von CO 2 und SF 6 limitiert ist, sondern von der Abweichung der troposphärischen Trends vom (zeitlich linear ansteigenden) Ideal. Insbesondere im Fall von CO 2 wird dies deutlich, wobei die von HAGAR erreichte Messgenauigkeit für eine maximale Unsicherheit in der Altersbestimmung von ca. zwei Monaten ausreichen würde. Neben den saisonalen Schwankungen, die in mittleren Breiten ab ca. 16 km Höhe keine Rolle mehr spielen, sorgen vor allem die jährlichen Schwankungen dafür, dass die Altersbestimmung mit CO 2 momentan kaum besser als mit einem Fehler von etwa 0,7 Jahren durchgeführt werden kann. In den Tropen kann die Messung des CO 2 -Mischungsverhältnisses nicht direkt zur Altersbestimmung herangezogen werden. Durch die starke Vertikalbewegung in den Tropen kann das saisonale CO 2 -Signal im Vertikalprofil beobachtet werden. HAGAR konnte solche Profile während zweier Jahreszeiten (Februar/März bzw. Mitte September) aufzeichnen. Die Tropen sind in der Stratosphäre durch sogenannte Mischbarrieren für den horizontalen Transport gegenüber den mittleren Breiten abgegrenzt. Dies zeigt sich unter anderem in veränderten Tracer-Tracer-Korrelationen. Gealterte Luft aus den mittleren Breiten, die groÿteils bereits einmal die groÿräumige Brewer-Dobson-Zirkulation durchlaufen hat, wird jedoch zu einem geringen Maße erneut in den Bereich der tropischen Aufwärtsströmung eingemischt. Für die Gesamtverweilzeit von langlebigen Spurengasen in der Stratosphäre ist diese Einmischung von besonderer Bedeutung. Während nahezu aller Flüge von APE-THESEO (1° N - 19° S) ergaben die HAGAR- Daten eine kompakte F11-N 2 O-Korrelation; beim letzten Flug, der nur bis 15° S führte, ergaben sich jedoch Datenpunkte, die eher zu einer Korrelation passen, die aus mittleren Breiten bekannt ist. Es ist noch im Detail zu klären, ob hier möglicherweise direkt ein Einmischungsereignis beobachtet wurde. Auch der Polarwirbel ist im Winter von einer effektiven Transportbarriere umgeben. Hier ist eine wichtige Frage, inwieweit Luft aus dem Wirbel in die mittleren Breiten vordringen und dort die chemische Zusammensetzung der Stratosphäre verändern kann. Dieser Luftmassenaustausch findet häufig in Form von sogenannten Filamenten statt, Luftmassen also, die vom Wirbel abgetrennt wurden und sich nun immer länger gezogen vom Wirbelrand wegbewegen. Hochaufgelöste Tracermessungen, wie sie mit HAGAR durch- geführt werden, stellen eine ideales Werkzeug zur Untersuchung und Charakterisierung solcher Abläufe dar. So konnten zahlreiche Strukturen innerhalb und außerhalb des Wirbels untersucht werden, deren Tracermischungsverhältnis darauf hinwies, dass sie jeweils von der anderen Seite des Wirbelrandes stammten. Dabei konnten keine signifikanten Strukturen beobachtet werden, die eine geringere horizontale Ausdehnung als 50 km hatten. Mit dem Ende der vorliegenden Arbeit ist weder die Entwicklung des Instrumentes noch die Interpretation des 1999 gewonnenen Datensatzes abgeschlossen. So ist neben einer neuen Datenerfassung für Temperaturen auch eine Erweiterung von Kanal 1 des Gaschromatographen in Planung. Neben SF 6 soll in Zukunft auch noch CH 4 mit einer Zeitauflösung von etwa 90 s gemessen werden. Zudem soll mit einer verbesserten Druckregelung für den Kessel die Präzision insbesondere der CO 2 -Messungen optimiert werden. Die Präzision der Daten von Halon-1211 sowie SF 6 sind mit 5 % bisher nicht zufriedenstellend. Grund hierfür ist letzlich die Tatsache, dass das Signal-Rausch-Verhältnis für diese beiden Substanzen aufgrund ihrer geringen Mischungsverhältnisse von nur einigen ppt in der Stratosphäre sehr schlecht ist. Aus diesem Grunde wurde eine neue Auswertemethode entwickelt und innerhalb des Softwarepakets zur Datenauswertung (NOAH-Chrom) realisiert. Bei dieser Methode werden die Peaks durch Gauß-Funktionen angenähert. Erste Tests verliefen vielversprechend, zeigen jedoch, dass der Einsatz der Methode noch eine Menge Detailarbeit erfordert. Aus diesem Grunde steht eine vollständige Auswertung des HAGAR-Datensatzes für diese beide Substanzen noch aus; die Methodik ist jedoch im Anhang erläutert. Die in dieser Arbeit dargestellten Analysen sollten als Wegweiser für weitere Untersuchungen und Diskussionen dienen können. So wird insbesondere die Diskussion um die Altersbestimmung wieder aufgenommen werden müssen, wenn sowohl endgültige SF 6 -Daten von HAGAR als auch neue Daten über den aktuellen troposphärischen Trend von SF 6 aus dem NOAA/CMDL- Netzwerk vorliegen. Einen weiteren Schwerpunkt wird die Untersuchung der Mischung über den Rand des Polarwirbels hinweg bilden, wobei sich insbesondere die Frage nach der Höhenabhängigkeit der Mischung stellt. Hier sind insbesondere auch Modellstudien möglich, denen mit den HAGAR-Daten eine weit präzisere und vor allem höher aufgelöste Eingangsdatenbasis zur Verfügung steht, als sie etwa aus Satellitendaten gewonnen werden kann. Von besonderem Interesse ist dabei ein Phänomen, das in den HAGAR-Daten, aber auch bereits in einem Datensatz der ER-2 von 1994 zu beobachten ist: So weicht die F11-N 2 O-Korrelation im Bereich des Polarwirbels für F11-Mischungsverhältnisse zwischen 40 ppb und 170 ppb nach unten von der normalen, aus mittleren Breiten bekannten Korrelation ab (vgl. Abbildung 7.5 auf Seite 142). Dies ist möglicherweise auf noch nicht vollständig verstandene Mischungsprozesse zurückzuführen. In jedem Falle ist damit zu rechnen, dass der im Jahre 1999 von HA-GAR an Bord der Geophysica aufgezeichnete umfangreiche Datensatz weitere Schritte hin zu einem differenzierteren Verständnis des stratosphärischen Transportes einleiten wird.