Geowissenschaften
Refine
Year of publication
Document Type
- Article (590)
- Doctoral Thesis (139)
- Book (25)
- Contribution to a Periodical (21)
- Conference Proceeding (19)
- Working Paper (19)
- Part of Periodical (10)
- Diploma Thesis (8)
- diplomthesis (7)
- Part of a Book (5)
Is part of the Bibliography
- no (868)
Keywords
- climate change (13)
- Climate change (5)
- Geochemistry (5)
- Klimaänderung (5)
- Atmospheric chemistry (4)
- Boden (4)
- Deutschland (4)
- Klima (4)
- Modellierung (4)
- Stratosphäre (4)
Institute
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
In dieser Arbeit wird die erstmals von Stevenson et al. (89, GRL) beschriebene spannungsangetriebene Schmelzsegregation, die Kanalisierungsinstabilität, numerisch mit Hilfe des 2D Finite-Differenzen-Codes FDCON (Schmeling, 00, Kluwer) untersucht. Diese Untersuchung stellt eine Weiterführung der numerischen Experimente von Richardson et al. (96, JGR) und Hall et al. (00, GRL) dar, so dass die Erforschung der Kanalisierungsinstabilität erweitert wird um den Aspekt ihres Verhaltens bezüglich eines äußeren Spannungsfeldes bei verschiedenen initialen Porositätsverteilungen, der Untersuchung der Kanalisierungsinstabilität bei großen Dehnungen und der damit verbundenen Analyse der entstehenden Strukturen, des Einflusses des Auftriebs auf die Ausbildung von Kanalnetzwerken und um die abschließende Prüfung, ob durch ein durch die Kanalisierungsinstabilität ausgebildetes Kanalnetzwerk die Möglichkeit besteht, Schmelze zu einem MOR zu fokussieren. Die Kanalbildung wird derzeit von Holtzman et al. (03, G3) (Hochdruckexperimente an synthetischem Olivin+MORB), Spiegelman et al. (03, G3) (theoretische Untersuchung der Kanalisierungsinstabilität) und Rabinowicz et al. (04, JGR) (numerische Simulation und theoretische Betrachtung der Kanalisierungsinstabilität) intensiv untersucht, die Fokussierung der Schmelze behandeln Sparks et al. (94, Academic Press), Hall et al. (03, G3) sowie Kühn (05, in-press). Viskositätsunterschiede in einer schmelzgefüllten porösen Matrix verursachen bei deren Deformation einen Druckgradienten, welcher die Schmelze in Richtung der maximalen Hauptspannung anreichert und zur Ausbildung von Kanälen, welche eine inhomogene Schmelzverteilung aufweisen, führt. Die Wachstumsrate Alpha dieser Kanäle weist zur Wellenzahl k eine Proportionalität von Alpha ~ ak^2/(1+bk^2) auf. Dieser Zusammenhang hat zur Folge, dass sich ab einer bestimmten Wellenzahl alle Schmelzverteilungen größerer Wellenzahl gleich verstärken. Bei anhaltender Dehnung kann beobachtet werden, dass die ausgebildeten Kanäle an den verarmten Kanalstellen auseinander gerissen werden. Nachfolgend verbinden sich die hierdurch entstandenen Schmelzlinsen unter der Bildung von en-echelon arrays wieder, wodurch sich wiederum ein langer, in etwa um 45° ausgelenkter (linksdrehendes Koordinatensystem, mit 0° gleich der Vertikalen) Kanal bildet. Diese Beobachtungen fanden unter der Bedingung, dass kein Auftrieb zwischen Schmelze und Matrix existiert, statt. Wird dieser Auftrieb hinzugefügt, so ist erkennbar, dass eine Kombination zwischen den die Kanalisierungsinstabilität und den Auftrieb bestimmenden Parametern existiert, bei der sich Solitonen ausbilden. Diese Solitonen folgen bei ihrem schnelleren Aufstieg dem Verlauf der schmelzgefüllten Kanäle und passieren dabei, ohne ihre Form zu verändern, andere kleine Solitonen, die ihren Weg kreuzen. Die durchschnittliche Aufstiegsgeschwindigkeit der Solitonen entspricht einem Vielfachen der Aufstiegsgeschwindigkeit der Schmelze aufgrund von Segregation. Weiterhin deckt sich die Solitonaufstiegsgeschwindigkeit mit der von Schmeling angegebenen. Bisher konnte in die Theorie für trockene (wasserfreie) Medien kein frühzeitiger Abfall der Wachstumsrate bei großen Wellenzahlen implementiert werden. Lediglich unter dem Gesichtspunkt der Diffusion von Wasser zwischen der Matrix und der Schmelze und des erweichenden Effekts von Wasser konnte bei einer spezifischen Wellenzahl eine maximale Wachstumsrate gefunden werden (Hall et al., 2000, GRL). Der Versuch der Anwendung der bisher erzielten Ergebnisse auf die Interaktion eines aufsteigenden Plumes mit einer spreizenden Kruste erbrachte keine direkte Fokussierung der Schmelze zum MOR hin. Die Spannungsverteilung dieser Experimente zeigt, dass der Plumestamm aufgrund eines defokussierenden Kanalnetzwerks im Stamm sowie eines nahezu vertikal verlaufenden Kanalnetzwerks am Rand des Plumestammes von einer Zone erhöhter Schmelzkonzentration ummantelt sein könnte. In dieser Ummantelung steigt die Schmelze dann in vertikal verlaufenden Kanälen auf, wobei sie in den hier vorgestellten Experimenten (Plumekopfausdehnung ~150 km) in einer Entfernung von ~100 km zum MOR auf die Lithosphärenunterseite (Tiefe ~50 km) treffen würde. Aufgrund der Lithosphärenstruktur (Wurzel-t-Gesetz) könnte die Schmelze an der schrägen Lithosphärenunterseite zum MOR hin strömen (Sparks et al., 94, Academic Press sowie Hall et al., 03 G3). Diese Prozesse (Kanalisierungsinstabilität (Stevenson et al., 89, GRL), Entlangströmen der Schmelze an der Lithosphärenunterseite (Sparks et al., 94, Academic Press sowie Hall et al., 03, G3) und der Recyclingprozess der Schmelze) stellen das Erklärungsmodell dieser Arbeit dar, wie eine Fokussierung von Schmelze zum MOR bei einer Interaktion von diesem mit einem Plume aussehen könnte.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
In dieser Arbeit wurden zwei Idealkristallsysteme und drei Systeme, die im weitesten Sinne als Domänenkristalle zu bezeichnen sind, mit quantenmechanischen Methoden untersucht, die auf Dichte-Funktional-Theorie basieren. Dabei wurden je nach System unterschiedliche Eigenschaften der jeweiligen Kristalle betrachtet. Zusätzlich wurden die berechneten Domänenkristalle jeweils mit entsprechenden Idealkristallen bezüglich ihrer Stabilität verglichen. Insgesamt konnte gezeigt werden, dass sich die hier verwendeten Rechenmethoden sehr gut zur Untersuchung von Grundzuständen und Strukturen unter hydrostatischem Druck sowie von Bindungseigenschaften eignen. Desweiteren lieferten die Ergebnisse starke Hinweise darauf, dass Kristalle mit Strukturgradienten nur dann existieren können, wenn sie sich vom Idealkristall um sehr geringe Energien unterscheiden, die unter der Fehlergrenze der hier angewendeten Methode (2-3 kJ/Mol) liegen.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies During the 1980s and early 1990s, the importance of small firm growth and industrial districts in Italy became the focus of a large number of regional development studies. According to this literature, successful industrial districts are characterized by intensive cooperation and market producer-user interaction between small and medium-sized, flexibly specialized firms (Piore and Sabel, 1984; Scott, 1988). In addition, specialized local labor markets develop which are complemented by a variety of supportive institutions and a tradition of collaboration based on trust relations (Amin and Robins, 1990; Amin and Thrift, 1995). It has also been emphasized that industrial districts are deeply embedded into the socio-institutional structures within their particular regions (Grabher, 1993). Many case studies have attempted to find evidence that the regional patterns identified in Italy are a reflection of a general trend in industrial development rather than just being historical exceptions. Silicon Valley, which is focused on high technology production, has been identified as being one such production complex similar to those in Italy (see, for instance, Hayter, 1997). However, some remarkable differences do exist in the institutional context of this region, as well as its particular social division of labor (Markusen, 1996). Even though critics, such as Amin and Robins (1990), emphasized quite early that the Italian experience could not easily be applied to other socio-cultural settings, many studies have classified other high technology regions in the U.S. as being industrial districts, such as Boston s Route 128 area. Too much attention has been paid to the performance of small and medium-sized firms and the regional level of industrial production in the ill-fated debate regarding industrial districts (Martinelli and Schoenberger, 1991). Harrison (1997) has provided substantial evidence that large firms continue to dominate the global economy. This does not, however, imply that a de-territorialization of economic growth is necessarily taking place as globalization tendencies continue (Storper, 1997; Maskell and Malmberg, 1998). In the case of Boston, it has been misleading to define its regional economy as being an industrial district. Neither have small and medium-sized firms been decisive in the development of the Route 128 area nor has the region developed a tradition of close communication between vertically-disintegrated firms (Dorfman, 1983; Bathelt, 1991a). Saxenian (1994) found that Boston s economy contrasted sharply with that of an industrial district. Specifically, the region has been dominated by large, vertically-integrated high technology firms which are reliant on proprietary technologies and autarkic firm structures. Several studies have tried to compare the development of the Route 128 region to Silicon Valley. These studies have shown that both regions developed into major 2 agglomerations of high technology industries in the post-World War II period. Due to their different traditions, structures and practices, Silicon Valley and Route 128 have followed divergent development paths which have resulted in a different regional specialization (Dorfman, 1983; Saxenian, 1985; Kenney and von Burg, 1999). In the mid 1970s, both regions were almost equally important in terms of the size of their high technology sectors. Since then, however, Silicon Valley has become more important and has now the largest agglomeration of leading-edge technologies in the U.S. (Saxenian, 1994). Saxenian (1994) argues that the superior performance of high technology industries in Silicon Valley over those in Boston is based on different organizational patterns and manufacturing cultures which are embedded in those socio-institutional traditions which are particular to each region. Despite the fact that Saxenian (1994) has been criticized for basing her conclusions on weak empirical research (i.e. Harrison, 1997; Markusen, 1998), she offers a convincing explanation as to why the development paths of both regions have differed.1 Saxenian s (1994) study does not, however, identify which structures and processes have enabled both regions to overcome economic crises. In the case of the Boston economy, high technology industries have proven that they are capable of readjusting and rejuvenating their product and process structures in such a way that further innovation and growth is stimulated. This is also exemplified by the region s recent economic development. In the late 1980s, Boston experienced an economic decline when the minicomputer industry lost its competitive basis and defense expenditures were drastically reduced. The number of high technology manufacturing jobs decreased by more than 45,000 between 1987 and 1995. By the mid 1990s, however, the regional economy began to recover. The rapidly growing software sector compensated for some of the losses experienced in manufacturing. In this paper, I aim to identify the forces behind this economic recovery. I will investigate whether high technology firms have uncovered new ways to overcome the crisis and the extent to which they have given up their focus on self-reliance and autarkic structures. The empirical findings will also be discussed in the context of the recent debate about the importance of regional competence and collective learning (Storper, 1997; Maskell and Malmberg, 1998). There is a growing body of literature which suggests that some regional economies an develop into learning economies which are based on intra-regional production linkages, interactive technological learning processes, flexibility and proximity (Storper, 1992; Lundvall and Johnson, 1994; Gregersen and Johnson, 1997). In the next section of this paper, I will discuss some of the theoretical issues regarding localized learning processes, learning economies and learning regions (see, also, Bathelt, 1999). I will then describe the methodology used. What follows is a brief overview of how Boston s economy has specialized in high technology production. The main part of the paper will then focus on recent trends in Boston s high technology industries. It will be shown that the high technology economy consists of different subsectors which are not tied to a single technological development path. The various subsectors are, at least partially, dependent on different forces and unrelated processes. There is, however, tentative evidence which suggests that cooperative behavior and collective learning in supplierproducer- user relations have become important factors in securing reproductivity in the regional structure. The importance of these trends will be discussed in the conclusions.
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Obwohl Böden unzweifelhaft ein signifikanter Pool von organischem Kohlenstoff sind, ist ihre Bedeutung als potenzielle langfristige Senke für atmosphärischen Kohlenstoff keineswegs klar. Trotz bedeutender wissenschaftlicher Forschritte aus den letzten Jahren zur Klärung der Kohlenstoffdynamik in Böden gibt es nach wie vor offene Fragen insbesondere hinsichtlich der spezifischen geochemischen Mechanismen, die für die Stabilisierung organischen Kohlenstoffs in Böden verantwortlich sind. Vor diesem Hintergrund besteht ein wesentliches Ziel der vorliegenden Dissertation darin, in unterschiedlichen Bodentypen die Konzentration von organischem Kohlenstoff und Stickstoff sowie die mineralogische Zusammensetzung zu untersuchen, um Hinweise auf einen möglichen Einfluss der Tonmineralogie, der spezifischen Oberfläche und der Oxidkonzentration auf die Stabilisierung organischen Materials zu ermitteln. Die Ergebnisse sollen einen Beitrag dazu liefern, die Mechanismen der Fixierung organischer Substanz in Böden besser zu verstehen und das vorhandene Wissen hierüber zu erweitern. Hierzu wurden fünf verschiedene Bodenprofile aus Hessen mit unterschiedlicher mineralogischer Zusammensetzung untersucht. Um die Auswirkungen verschiedener physikalischer und geochemischer Faktoren auf den Gehalt organischer Substanz in den untersuchten Böden festzustellen, wurden folgende Parameter untersucht: -Tonmineralogie, -organische Kohlenstoff- und Stickstoff-Konzentrationen, -%-Kationensättigung, -spezifische Oberfläche, -dithionit- und oxalatlösliche Gehalte an Fe, Al und Mn. Anhand dieser Parameter wurden weiterführende statistische Analysen unter Verwendung der Statistiksoftware SPSS für Windows durchgeführt, um mögliche statistische Zusammenhänge aufzudecken, die für die Stabilisierung von organischem Kohlenstoff in den betrachteten Böden verantwortlich sind. Die im Rahmen der vorliegenden Dissertation ermittelten Ergebnisse zeigen, dass der Tonanteil und die Tonmineralogie der untersuchten Böden nur einen begrenzten Einfluss auf die Stabilisierung organischer Substanz haben. Weiterhin wird gezeigt, dass die in der Literatur propagierte Beziehung zwischen spezifischer Oberfläche und der Konzentration organischen Kohlenstoffs nicht auf alle Böden anwendbar ist. Die Ergebnisse deuten darauf hin, dass die Präsenz von amorphen Eisen- und Aluminiumoxiden der wichtigste Einflussfaktor für die Fixierung von organischem Material in den untersuchten Böden ist. Die größeren Konzentrationen von organischem Kohlenstoff in den kleinsten Fraktionen (Feinschluff und Ton) der Profile sind vor allem darauf zurückzuführen, dass Oxide ebenfalls in diesen Fraktionen aufzufinden sind. Tonminerale haben demnach eine sekundäre Bedeutung, indem sie Komplexe mit den Oxiden bilden, die zur Stabilisierung von organischer Substanz führen können. Insgesamt deuten die Ergebnisse daraufhin, dass Böden keine geeignete Senke für die langfristige Speicherung von organischem Kohlenstoff sind. Obwohl Mechanismen wie die Adsorption von organischer Substanz an Oxide die Stabilisierung organischen Materials unterstützen, scheinen diese nicht stark genug zu sein, um eine permanente Speicherung von organischem Kohlenstoff zu bewirken.
Zur Erkundung der Depotfunktion von quellfähigen Tonmineralen für organische Umweltchemikalien und der möglichen Verdrängung dieser Chemikalien durch biogene Tenside wurden kinetische Untersuchungen mit Hilfe von Batch-Experimenten durchgeführt. Dabei wurde zunächst das Adsorptions- und Desorptionsverhalten von ausgesuchten Umweltchemikalien an mineralische Festphasen und danach die Verdrängung dieser Chemikalien durch biogene Tenside untersucht. Als Umweltchemikalien dienten in den Experimenten Di-(n-butyl)phthalat (DBP) und Di-(2-ethylhexyl)phthalat (DEHP), die in industriellem Maßstab hauptsächlich als Weichmacher in Kunststoffen verwendet werden und fünf ausgewählte polycyclische aromatische Kohlenwasserstoffe (PAK), die bei pyrolytischen Prozessen sowie der unvollständigen Verbrennung organischen Materials entstehen. In den durchgeführten Versuchsreihen dienten ein smektitreicher Bentonit, Quarzsand und Gemische aus diesen beiden Stoffen mit verschiedenen Gewichtsanteilen der Bentonit- und Sandphase sowie Seesand als Adsorbermedium für die Umweltchemikalien. Diese Variationen sollten das unterschiedliche Verhalten der verschiedenen Festphasen bezüglich der drei untersuchten Prozesse (Adsorption, Desorption und Austausch) mit den Chemikalien verdeutlichen. Untersuchungen am verwendeten Bentonit ergaben, daß sein Hauptbestandteil ein Calcium- Montmorillonit war. Der Montmorillonit ist ein quellfähiges, dioktaedrisches Tonmineral aus der Gruppe der Smektite. Die Quellfähigkeit dieses Smektits wurde in Quellversuchen mit Ethylenglykol und Glycerin mittels Röntgendiffraktometrie festgestellt. Die chemische Zusammensetzung des Minerals wurde mit Röntgenfluoreszenzmessungen analysiert. Mit dem Greene-Kelly-Test wurde der Montmorillonit als smektitischer Anteil im Bentonit identifiziert. Im Laufe einer jeden Versuchsreihe sind nacheinander drei Prozesse mit jeder Probe im Labor untersucht worden: 1. Adsorption von Umweltchemikalien (Phthalate und PAK) an Sandproben mit unterschiedlichen Tongehalten und an reinen Tonproben. 2. Desorption der adsorbierten Umweltchemikalien aus den Sand/Ton-Gemischen und Tonproben in vier Schritten. 3. Austausch dieser Chemikalien aus den Sand/Ton-Gemischen und Tonproben gegen biogene Tenside. Im ersten Schritt der Batch-Experimente wurden die beiden Phthalate bzw. die PAK (Naphthalin, Acenaphthen, Fluoren, Phenanthren und Fluoranthen) aus einer wässrigen Lösung an die mineralischen Festphasen adsorbiert. Die Phthalate wurden in einem 1:1 Verhältnis in den Experimenten eingesetzt, die fünf PAK als ein Gemisch oder auch einzeln. Für die PAKAdsorption wurde auch eine Wasser-Aceton-Mischung beim Adsorptionsversuch verwendet, da sich dadurch ihre Löslichkeit erheblich verbessern ließ und die kinetischen Reihenversuche bezüglich der Gleichgewichtseinstellung wesentlich gleichmäßiger verliefen. Die Proben wurden 20 Stunden lang bis zur Einstellung des Gleichgewichts im Überkopfmischer geschüttelt. Die festen Phasen wurden danach von den wässrigen Phasen getrennt und zur Ermittlung der Einstellung des Desorptionsgleichgewichts weiterverwendet. Die wässrigen Phasen wurden mit organischen Lösemitteln extrahiert und der Gehalt an Umweltchemikalien gaschromatographisch quantifiziert. Die verbliebenen Festphasen wurden jeweils viermal mit frischem, destilliertem Wasser 20 Stunden lang zur Ermittlung des Gleichgewichts der Desorption geschüttelt, wobei nach Abtrennung der wässrigen Phasen diese auf ihren Organikgehalt hin wie oben beschrieben untersucht wurden. An diese vier Desorptionsschritte schloß sich das Verdrängungsexperiment einer Versuchsreihe an. Hierbei wurden verseifte, langkettige biogene Tenside (Alkoholate und Carbonsäuresalze mit geradzahliger Anzahl der Kohlenstoffatome) zu jeder Probe hinzugegeben und jede Festphase nochmals mit frischem Wasser im Überkopfmischer geschüttelt. In diesem Schritt sollte überprüft werden, ob die in den Festphasen verbliebenen Phthalate und PAK durch Zugabe von biogenen Tensiden in höherem Maße in der wässrigen Phase wiedergefunden werden als dies aus dem jeweiligen Desorptionsgleichgewicht zu erwarten war. Mit den Ergebnissen konnten Adsorptionsisothermen (nur für Phthalate) aufgenommen und Angaben zur Einstellung des Desorptionsgleichgewichts oder dessen Störung nach Austauschexperimenten gemacht werden. Die Auswertung der Adsorptionsexperimente ergab, daß Festphasen mit Bentonitanteil befähigt sind, einen höheren Anteil an Phthalaten und PAK zu adsorbieren als reine Sandproben. Bei kleinen Phthalatkonzentrationen wurde DEHP aufgrund einer stärkeren Affinität zur Festphase besser adsorbiert als DBP. Stiegen die Phthalatzugaben, so wurde DBP in höherem Maße als DEHP adsorbiert. Dies wurde durch eine bessere Einlagerung der DBP-Moleküle in die innerkristallinen Zwischenschichten des Montmorillonit-Minerals ermöglicht (Interkalation). Röntgenographisch wurde ein deutlich vergrößerter Wert für den Schichtabstand im Montmorillonit nachgewiesen als im ursprünglichem Zustand (bis zu 18 Å gegenüber 15,3 Å). Die Desorptionsisothermen zeigten für Festphasen mit Quarzsandanteilen häufig ein ungleichmäßiges Verhalten. So wurde häufig im zweiten und dritten Desorptionsschritt eine unerwartet hohe Menge an Phthalaten in der wässrigen Lösung gefunden. Reine Bentonitproben zeigten dagegen eine gleichmäßige Konzentrationsabnahme der Phthalate nach jedem Desorptionsschritt. Der eingesetzte Bentonit war in der Lage, Phthalate stärker von der Desorption zurückzuhalten als Quarzsand. Die Einstellung des Desorptionsgleichgewichts erfolgte mit reinem Bentonit schneller als bei Sandproben oder Sand-Bentonit Gemischen. Bei Austauschexperimenten, in denen die ursprünglich eingesetzte Menge an Phthalaten unter 1 mg lag, wurden keine Verdrängungsprozesse festgestellt. Stiegen die Konzentrationen der Phthalate (bis zu ca. 200 mg), so kam es aufgrund der größeren Oberflächenbelegung im Montmorillonit zu Verdrängungsprozessen der Phthalate durch biogene Tenside. Die Extraktion der wässrigen Lösung ergab nach dem Austauschexperiment eine höhere Menge an Phthalaten als es aus dem Desorptionsexperimenten erwartet worden war. Insgesamt wurde mehr DBP als DEHP nach den Austauschexperimenten in der wässrigen Lösung gefunden. Da DBP besser als DEHP in die Zwischenschichten des Montmorillonits eingebaut wurde, konnte auch diese Feststellung damit erklärt werden, daß biogene Tenside die Phthalate aus den innerkristallinen Zwischenschichten verdrängen. Bei PAK wurden Verdrängungsprozesse nur im Falle von Phenanthren festgestellt. Bei anderen in den Experimenten eingesetzten PAK (vorwiegend Naphthalin, Acenaphthen und Fluoren) war offenbar der Dampfdruck so groß, daß vor dem Austauschexperiment nicht mehr genügend organisches Material in der Bodenprobe adsorbiert war. Bei parallel durchgeführten Versuchen mit reinem Quarzsand und mit Seesand als Festphase wurde dagegen weder bei Phthalaten noch PAK eine wesentliche Störung des Desorptionsgleichgewichts in der Größenordnung der bentonithaltigen Proben nach dem Verdrängungsexperiment festgestellt. Dies ist ein Hinweis darauf, daß Verdrängungsprozesse bevorzugt auf Oberflächen von Tonmineralen stattfinden. Insgesamt konnte mit dieser Arbeit gezeigt werden, daß Gleichgewichtseinstellungen von Umweltchemikalien an Tonmineralen durch biogene Tenside gestört werden können. Durch die Einwirkung der biogenen Tenside kommt es zu einer verstärkten Desorption der Umweltchemikalien aus den Tonmineralen.
The focus of this study were Celtic gold coins excavated from the Martberg, a Celtic oppidium and sanctuary, occupied in the first century B.C. by a Celtic tribe known as the Treveri. These coins and a number of associated coinages, were characterised in terms of their alloy compositions and their geochemical and isotopic signatures so as to answer archaeological and numismatic questions of coinage development and metal sources. This required the development of analytical methods involving; Electron Microprobe (EPMA), Laser Ablation-ICP-MS, solution Multicollector-ICPMS and LA-MC-ICP-MS. The alloy compositions (Au-Ag-Cu-Sn) were determined by EPMA on a small polished area on the edge of the coins. A large beam size, 50µm (diameter), was used to overcome the extreme heterogeneity of these alloys. These analyses were shown to be representative of the bulk composition of the coins. The metallurgical development of the coinages was defined and showed that the earlier coinages followed a debasement trend, which was superceded by a trend of increasing copper at the expense of sliver while gold compositions remained stable. This change occurred with the appearance of the inscribed "POTTINA" coinage, Scheers 30/V. Two typologically different coinages, Scheers 16 and 18 ("Armorican Types") were found to have markedly different compositions which do not fit into the trends described above. A Flan for a gold coin, which may indicate the presence of a mint at the Martberg, was found to have an identicle weight and composition as the Scheers 30/I coins, which preceeded the majority of the coins found at the Martberg in the coin development chronology. The trace element anaylses were made by Laser Ablation-ICPMS using an AridusTM desolvating nebuliser to introduce matrix matched solution standards to calibrate the measurements, which were then normalised to 100%. Quantitative results were obtained for the following elements: Sc, Ti, Cr, Mn, Co, Ni, Cu, Zn, Se, Ru, Rh, Pd, Ag, Sb, Te, W, Ir, Pt, Pb, Bi. The remaining elements remain problematic as they produced incorrect standardisations mainly due to chemical effects in solution such as adsorption onto the beaker walls or oxidation : V, Fe, Ga, Ge, As, Mo, Sn, Re, Os, Hg. Changes in the sources of Au, Ag and Cu were observed during the development of the coinages through the variation of trace elements, which correlate positively with the major components of the coin alloys. Changes in the Pt/Au ratios show that the Scheers 23 coins contain distinctly different gold from the later coinages and that the Scheers 18 gold source was also different. Te/Ag was used to show that the Sch.23 coins also contained different silver and some subgroups were observed in the Sch. 30/V coins. A major change in copper source is indicated by the sudden increase of Sb and Ni with the introduction of the Sch. 30/V coins (POTTINA), which can be linked to a similar change in copper observed in the contemporary silver coinage, Sch. 55 (with a ring). Lead isotopic analyses were made by solution- and Laser Ablation - MC-ICP-MS, The laser technique proved to be in good agreement with the solution analyses with precisions between 1 and 0.1%o (per mil). The development of the laser method opens the way for easy and virtually non-destructive Pb isotopic determinations of ancient gold coins. The results showed that Sch. 23 is very different from the following coinages, Sch. 16 and 18 are also different, forming their own group, and all the later "Eye" staters (Sch. 30/I-VI) lie on a mixing line controlled by the addition of copper from a Mediterranean source, probably Sardinia or Spain. An indication of gold and silver sources should be possible with further analyses of the Sch. 23 and Rainbow Cup gold coins and the Sch. 54 and 55 silver coinages. Copper Isotopic analyses were made by solution- and Laser Ablation - MC-ICP-MS. Both techniques require further development to produce more reproducible results. The results show that there appears to be a trend to more positive d Cu65 values for the later coinages and that the link between the copper used in the Sch. 30/V (POTTINA) coins and the silver Sch. 55 (with a ring) coins is also shown by similarly postive d Cu65 values. The full suite of analyses were also made on samples of gold from the region. They were mostly composed of "placer gold", alluvial gold found in rivers. It was found that when a study is restricted to a limited number of deposits or areas then it is possible to distinguish between deposits based on the concentration of those elements which are least affected by transport related alteration processes. These elements include; the PGE's, due to their refractory nature, and those elements which are usually present in high enough concentrations to remain relatively unaffected, eg: Cu, Pb and Sb. Due to the nature of the coin alloy it is not possible to link the gold used in the coins studied here with gold deposits, as the large amounts of Ag and Cu, added to the coin alloys, have masked the Au signature. However, further Pb isotopic analyses of gold deposits should prove useful in determining from which regions Celtic gold was derived.
In dieser Arbeit wurde der chemische Ozonverlust in der arktischen Stratosphäre über elf Jahre hinweg, zwischen 1991 und 2002, mit Hilfe der so genannten "Ozon-Tracer Korrelationstechnik" (TRAC), untersucht. Bei dieser Methode werden Korrelationen zwischen Ozon und langlebigen Spurenstoffen im Verlauf des Winters im Polarwirbels beobachtet und so der jährliche akkumulierte Ozonverlust berechnet. Die Ergebnisse dieser Arbeit basieren im wesentlichen auf Messdaten der Satelliteninstrumente: HALOE (Halogen Occultation Experiment) auf UARS (Upper Atmosphere Research Satellite) und ILAS (Improved Limb Atmospheric Spectrometer) Instrument auf ADEOS (Advanced Earth Observing Satellite). Das HALOE Instrument misst seit Oktober 1991 kontinuierlich alle zwei bis drei Monate für einige Tage in höheren nördlichen Breiten. ILAS lieferte ausschließlich für den Winter 1996-97 Messungen, die über sieben Monate hinweg in hohen Breiten aufgenommen wurden. Aufgrund der eingeführten Erweiterungen und Verbesserungen der Methode in dieser Arbeit, konnte die Methode anhand einer detaillierten Studie für den Winter 1996-97 validiert werden. Die ILAS Messreihe wurde dazu verwendet, erstmals die Untersuchung der zeitlichen Entwicklung von Ozon-Tracer Korrelationen kontinuierlich für die gesamte Lebensdauer des Polarwirbels durchzuführen. Dabei wurden auch Korrelationen während der Bildung des Wirbels untersucht und im Besonderen mögliche Mischungsvorgänge zwischen Wirbelluft und Luftmassen außerhalb des Wirbels. Ausserdem wurde ein Vergleich der Ergebnisse von ILAS und HALOE Messdaten durchgeführt und Unterschiede in den Ergebnissen tiefgreifend analysiert. Basierend auf HALOE Messungen konnte die erweiterte TRAC Methode über elf Jahren hinweg angewendet werden. Damit war erstmals eine konsistente Analyse von Ozonverlust und Chloraktivierung über diesen Zeitraum möglich. Die Erweiterungen führten zu einer Verringerung und genauen Quantifizierung von Unsicherheiten der Ergebnisse. Ein deutlicher Zusammenhang zwischen meteorologischen Bedingungen, Chloraktivierung und dem chemischen Ozonverlust wurde deutlich. Weiterhin zeigte sich eine Abhängigkeit zwischen den meteorologischen Bedingungen und der Homogenität des Ozonverlustes innerhalb eines Winters, sowie der mögliche Einfluss von horizontaler Mischung auf Luftmassen in einem schwach ausgeprägten Polarwirbel. In dieser Arbeit wurde eine positive Korrelation zwischen den über die gesamte Lebensdauer des Wirbels auftretenden möglichen PSC-Flächen und den akkumulierten Ozonverlusten für die elf untersuchten Jahre deutlich. Es konnte darüber hinaus gezeigt werden, dass der Ozonverlust von deutlich mehr Einflüssen als nur von der Fläche möglichen PSC Auftretens bestimmt wird, sondern zum Beispiel von der Stärke der Sonneneinstrahlung abhängt. Außerdem lassen sich Auswirkungen von Vulkanausbrüchen, wie zum Beispiel im Jahr 1991 der des Mount Pinatubo, identifizieren.
Der 300 km breite Eucla Schelf Südaustraliens gehört zu den weltgrößten modernen nicht-tropischen Ablagerungssystemen. Während des Pleistozäns wurde hier ein etwa 500 m mächtiger pleistozäner Sedimentstapel abgelagert, der sich aus progradierenden Klinoformen zusammensetzt. Die Ocean Drilling Program Sites 1127, 1129 und 1131 bilden ein proximal-distal Profil entlang des Eucla Shelfs-Kontinentalhangs. Die dabei erbohrten pleistozänen Periplattform-Ablagerungen bestehen überwiegend aus bioklastenreichen, fein- bis grobkörnigen, unlithifizierten bis teilweise lithifizierten Pack-, Wacke- und Grainstones. Eine ausgeprägte sedimentäre Zyklizität der analysierten Ablagerungen drückt sich in Fluktuationen der Korngröße und der mineralogischen Zusammensetzung, der natürlichen Radioaktivität, der stabilen Isotope sowie in Veränderungen der Fazies aus. Zur Untersuchung der sedimentären Zyklizität dieser nicht-tropischen Sedimente wurden sechs Sedimentintervalle früh- bis mittelpleistozänen Alters innerhalb der Bohrungen Site 1127, 1129 und 1131 ausgewählt. Die früh- bis mittelpleistozäne Periplattform-Sedimentabfolge des Eucla Schelfs wird durch die Stapelung genetischer Sequenzen gebildet. Diese entstehen als eine Folge hochfrequenter Meeresspiegelschwankungen, die unmittelbare Auswirkungen auf den Grad der Überflutung und damit auf den Sedimentexport vom Eucla Schelf ins angrenzende Becken haben. Eine genetische Sequenz weist eine Mächtigkeit von etwa 25 m unmittelbar beckenwärts der Schelfkante auf. Die maximale Mächtigkeit von ca. 30 m wird in beckenwärtigeren Bereichen erreicht, bevor die genetische Sequenz erneut auskeilt und in den hier untersuchten distalsten Ablagerungsbereichen Mächtigkeiten von 10-15 m aufweist. Die Begrenzungen der genetischen Sequenzen werden durch abrupte Korngrößenwechsel oder durch Umkehrpunkte in Korngrößentrends gebildet. Innerhalb einer genetischen Sequenz werden Hochstands-Ablagerungen durch grobkörnige bioklastenreiche Pack- bis Grainstones charakterisiert, die wiederum große Mengen an Tunikaten Spikulae, braunen hoch-Mg Bioklasten und Bryozoen-Detritus beinhalten. Tiefstands-Ablagerungen andererseits werden durch feinkörnige Packstones mit erhöhten Gehalten an Schwammnadeln und Mikrit charakterisiert. Die metastabilen Karbonatmodifikationen Aragonit und Hoch-Mg Kalzit können jeweils bis zu 34 % der Gesamtprobe ausmachen und sind in Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands angereichert. Hauptaragonitbildner sind dabei Tunikaten Spikulae. Dolomit ist auf Ablagerungen des beginnenden Meeresspiegel-Anstiegs beschränkt. Die primäre Verteilung der metastabilen Karbonatmodifikationen innerhalb der genetischen Sequenzen führt so während späterer Versenkungsstadien möglicherweise zu einer differentiellen Diagenese. Die sedimentäre Zyklizität der Ablagerungen des späten Mittelpleistozäns unterscheidet sich von der Zyklizität des frühen- bis mittleren Pleistozäns durch eine Zunahme der Häufigkeit allochthoner Schelfkomponenten wie Rotalgen-Detritus und brauner Hoch-Mg Kalzit-Bioklasten. Zugleich zeigt sich ein Häufigkeits-Rückgang autochthoner Schwammnadeln. Diese Variationen während des frühen und mittleren Pleistozäns werden als eine Folge der Progradation der Schelfkante und der sich daraus ergebenden verändernden relativen Position zur Schelfkante sowie des sich verändernden Nährstoffeintrags interpretiert. Site 1127 zeigt darüberhinaus eine Verdopplung der Zyklenmächtigkeiten der mittelpleistozänen Ablagerungen. Dies ist höchstwahrscheinlich auf Veränderungen der Erdorbitalparameter (Milankovitch-Zyklizität) zurückzuführen. Im letzten Teil der Arbeit werden die sedimentären Zyklizitäten dieser nicht-tropischen Periplattform-Karbonate mit pleistozänen tropischen Ablagerungen der westlichen Flanke der Großen Bahama Bank verglichen (ODP Site 1009). Die Gliederung in Coarsening Upward-Zyklen ist dabei ein wesentliches Merkmal sowohl der nicht-tropischen als auch der tropischen Periplattform-Karbonate. Im Gegensatz zu den untersuchten nicht-tropischen Karbonaten werden jedoch tropische Ablagerungen des Meeresspiegel-Anstiegs und -Hochstands durch feinkörniges, mikritreiches Material. Maxima des Aragonit- bzw. Minima des Hoch-Mg Kalzitgehalts charakterisiert. Die Mächtigkeit einzelner Zyklen von ca. 10 m ist darüberhinaus aufgrund geringfügig niedrigerer Sedimentationsraten geringer als in den untersuchten nicht-tropischen Karbonaten, in denen die minimalen Zyklenmächtigkeiten 10-15 m betragen.
Diese Arbeit besteht aus zwei Teilen. Im ersten Teil wurde der Einfluss der anthropogen verursachten Erhöhung der atmosphärischen Konzentration von Treibhausgasen auf beobachtete Klimaelemente für die letzten 100 bis 120 Jahre untersucht. Die bodennahe Lufttemperatur wurde in unterschiedlicher räumlicher Auflösung und Abdeckung analysiert: Globales und hemisphärische Mittel, 84 flächengleiche Gebietsmittel globaler Abdeckung und 5°x5°-Gitterpunkte für die europäische Region, für die außerdem der auf Meeresniveau reduzierte Luftdruck und der Niederschlag untersucht wurden. Es wurde ein empirisch-statistischer Ansatz verwendet, der die Datenfelder zunächst in ihre räumlichen und zeitlichen Hauptstrukturen zerlegt (EOF-Zerlegung) und nachfolgend Regressionsbeziehungen zwischen den zeitlichen Hauptstrukturen (Zielgrößen) und den potenziellen Einflussgrößen mittels einer Selektionsstrategie (schrittweise Regression) findet, was zu einer Signaltrennung bezüglich der unterschiedlichen anthropogenen sowie natürlichen Einflüsse führt. Durch eine Abschätzung der Überzufälligkeit der Signal-Rausch-Verhältnisse wurden die Signifikanzen der einzelnen Signale berechnet. Als anthropogene Einflussgrößen wurden neben der logarithmierten Treibhausgaskonzentration (GHG) noch die Konzentration von troposphärischem Sulfat (SUL) aus anthropogenen Quellen verwendet. Die natürlichen Einflussgrößen umfassen Schwankungen der Solarkonstanten (SOL), Strahlungsantrieb explosiver Vulkanausbrüche (VUL), den Southern Oscillation Index (SOI, als Maß für das El-Nino-Phänomen) und den Nord-Atlantik-Oszillations-Index (NAO). In der globalen und den hemisphärischen Mitteltemperaturen dominiert das GHG-Signal. Es unterscheidet sich dabei hochsignifikant vom Zufall und von der natürlichen Variabilität und weist eine mittlere Signalamplitude von etwa 0,5 K auf. Das SUL-Signal ist hier, wie auch in den anderen Datensätzen, unplausibel, was an den fragwürdigen verwendeten Einflüssen liegt, welche die zugrundeliegenden Prozesse nicht hinreichend erfassen. In den räumlich differenzierten Datensätzen ist der zufallsartige Anteil in den Zeitreihen generell höher als in den gemittelten, was die Signifikanzen der GHG-Signale herabsetzt. In Europa ist vor allem im Winter die NAO dominant, was dort zusätzlich den Nachweis des GHG-Signals erschwert. Im europäischen Luftdruck und Niederschlag werden zwar ebenfalls GHG-Signale gefunden, die jedoch aufgrund der hohen Rauschkomponente nur sehr schwach signifikant sind. Des Weiteren ist die Wirkung der anthropogenen Erhöhung der Treibhausgase auf diese Klimaelemente indirekter als bei der Temperatur, wodurch die statistische Ähnlichkeitsbetrachtung hier eventuell auch natürlich verursachte Trendkomponenten irrtümlich als anthropogen selektiert. Im zweiten Teil der Arbeit wurden Witterungseinflüsse auf Ernteerträge in der BRD (West) von 1950-1998 untersucht. Die Ertragsdaten der 21 untersuchten Fruchtarten sind mit ausgeprägten Trends behaftet, die wahrscheinlich zum weitaus überwiegenden Teil durch gewollte Ertragssteigerungen verursacht worden sind. Diese sog. Züchtungsvarianz wurde daher mittels eines Gaußschen Tiefpassfilters von der interannulären Variabilität getrennt, welche Umwelteinflüssen zugeordnet wird. Hierdurch können keine Wirkungen langfristiger Klimatrends auf die Erträge untersucht werden. Als meteorologische Parameter wurden Bundeslandmittel der bodennahen Lufttemperatur und des Niederschlages in monatlicher Auflösung verwendet. Die quadrierten Klima- Zeitreihen sind ein Maß für extreme Anomalien. Durch Bildung von Produkten bzw. Quotienten aus Temperatur und Niederschlag erhält man Zeitreihen, welche die kombinierte Wirkung beider Klimaelemente beschreiben. Die Witterungsabhängigkeiten der Erträge wurden durch Korrelation und Regression (schrittweise Regression) mit den meteorologischen Parametern quantifiziert. Hierbei zeigte sich unter anderem ein negativer Einfluss feucht-warmer April-Anomalien auf Getreide-Erträge. Des Weiteren konnten Ernteeinbrüche verschiedener Fruchtarten mit extrem trocken-heißen Witterungsperioden im Sommer in Verbindung gebracht werden. Korrelationen und Regressionskoeffizienten von quadratischen Einflussreihen sind fast ausschließlich negativ. Somit wirken sich vor allem extreme Anomalien der meteorologischen Parameter ertragsmindernd aus. Mit Hilfe einer Monte-Carlo-Simulation konnte die Überzufälligkeit der durch die meteorologischen Parameter erklärten Varianzen an den Erträgen qualitativ bewertet werden. In etwa 40% der untersuchten Beziehungen ist ein Witterungsein deutlich sichtbar. Des Weiteren ist eine Untersuchung der Veränderungen (Intensität und Häufung) extremer Witterungen, vor allem sommerlicher Hitzeperioden, nötig, um den Klima-Impakt auf deutsche Ernteerträge besser abzuschätzen. Auch ist die Frage noch offen, ob langfristige anthropogene Klimaänderungen, wie sie hier detektiert worden sind, mit Änderungen des Extremwertverhaltens verknüpft sind.
Im Rahmen der vorliegenden Arbeit wurde zunächst ein Vorschlag für eine Direktive zur Anwendung von Monitored Natural Attenuation (MNA) an Grundwasserschadensfällen durch Mineralölprodukte unter Berücksichtigung der in Deutschland geltenden Vorgaben für eine konkrete technische Durchführung erarbeitet. Das darin enthaltene Untersuchungs- und Auswertungsprogramm zum Nachweis von Natural Attenuation (NA) berücksichtigt die gesetzlichen Regelungen des Bundes-Bodenschutzgesetzes (BBodSchG) und der BundesBodenschutz- und Altlastenverordnung (BBodSchV). Das entwickelte Untersuchungs- und Auswertungsprogramm wurde in einem weiteren Schritt an einer laufenden MNA-Maßnahme aus der Praxis überprüft. Hierfür wurde ein Kerosin-kontaminierter Teilbereich am Standort des ehemaligen Militärflughafens Wegberg-Wildenrath in Nordrhein-Westfalen ausgewählt. Im Grundwasser liegt eine Kontamination überwiegend aus aromatischen Kohlenwasserstoffen (BTEX und weitere alkylierte Aromaten) sowie MKW (H18) vor. Anhand des Praxisbeispiels wurde die generelle Verwendbarkeit von bereits im Rahmen der bisherigen Altlastenbearbeitung erhobenen Daten im Sinne des erarbeiteten Untersuchungsprogramms aufgezeigt. Hydrogeologische Untersuchungen belegten eine Abhängigkeit der Konzentration von Schadstoffen im Wasser von einem bis zu /- 1,7 m schwankenden Grundwasserstand, wodurch ein instationäres Fahnenverhalten vorlag. Aufbauend auf den Erkenntnissen der hydrogeologischen Erkundung und der Auswertung von hydrochemischen Daten wurden für den Standort zwei sich ergänzende konzeptionelle Modellvorstellungen (ein hydrochemisches Modell sowie ein hydrodynamisches Modell) bezüglich der Prozesse, die das Fahnenverhalten steuern, entwickelt. Beim hydrochemischen Modell erfolgt durch schwankende Grundwasserstände ein Recycling der Elektronenakzeptoren S042- und Fe3 für den Schadstoffabbau im herdnahen Bereich. Bei hohem Grundwasserstand werden reduzierte Eisenspezies als unlösliche Eisenmonosulfide ausgefällt. Bei niedrigem Grundwasserstand werden diese Eisenmonosulfide in Folge von Belüftung zu löslichen Fe3 /SO42-haltigen Mischkristallen oxidiert. Bei einem erneuten Anstieg des Grundwassers steht dieser Elektronenakzeptorpool für einen weiteren Schadstoffabbau zur Verfügung, was wiederum zur Ausfällung der reduzierten Eisenspezies führt. Beim hydrodynamischen Modell werden die beobachteten Konzentrationsänderungen im Grundwasser hauptsächlich durch Schadstoff-Phasenübergänge und der Größe der dabei zur Verfügung stehenden Grenzflächen hervorgerufen. Der Austausch von Schadstoffen aus der NAPL (non-aqueous phase liquids)-Phase in die Bodenluft bei niedrigen Grundwasserständen ist erheblich größer im Vergleich zum Austausch der NAPL-Phase in die (Grund)wasserphase bei hohen Grundwasserständen. Daraus resultieren höhere Schadstoffgehalte im Schadenszentrum bei niedrigen Grundwasserständen und geringere Gehalte bei hohen Grundwasserständen. Eine wichtige Erkenntnis dieser Arbeit war die Herausarbeitung der Art des Einflusses schwankender Grundwasserstände auf die Fahnendynamik. Anhand der Untersuchung auf aromatische Säuren (Metabolite), die im (my)g/l-Bereich nachzuweisen waren, konnte der direkte Beweis für einen aktiven Bioabbau am Standort erbracht werden. Durch einen Vergleich des Aromatenspektrums mit dem vorgefundenen Metabolitenspektrum wurden Aussagen zum Abbauverhalten von einzelnen aromatischen Schadstoffgruppen ermöglicht. Die Abbauprognose ist aufgrund des instationären Fahnenverhaltens mit größeren Unsicherheiten behaftet. Attenuations- bzw. Abbauraten zwischen 0,0003 * 1/d und 0,001 * 1/d wurden anhand von zwei unterschiedlichen Verfahren ermittelt.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel