Refine
Year of publication
Document Type
- Doctoral Thesis (52)
- Article (47)
- Book (25)
- Contribution to a Periodical (21)
- Part of Periodical (10)
- Working Paper (10)
- diplomthesis (8)
- Diploma Thesis (7)
- Conference Proceeding (6)
- Report (4)
Language
- German (203) (remove)
Is part of the Bibliography
- no (203)
Keywords
- Klimaänderung (5)
- Klima (4)
- Deutschland (3)
- Eiskeime (3)
- Klimawandel (3)
- Stratosphäre (3)
- Anisotropie (2)
- Atmosphäre (2)
- Geschichte 1900-2000 (2)
- Hessen (2)
Institute
- Geowissenschaften (203) (remove)
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Li6UO6 has a reversible phase transformation at 680°C and decomposes above about 850°C. At high pressure the low temperature modification becomes unstable because of an invariant point in the system Li2O—Li4UO5 at approximately 13 Kb and 620°C. β-Li6UO6 has a triclinic unit cell with a = 5.203, b= 5.520, c = 5.536 Å, α = 114.7, β = 120.7 and γ = 75.5°. The close relationship between the crystal structures of Li6TeO6 and Li6UO6 is also suggested from similar infrared spectra and from partial solid solution Li6UO6—Li6TeO6.
Seit nunmehr 20 Jahren findet regelmäßig alle zwei Jahre das Symposium "Tektonik — Strukturgeologie — Kristallingeologie" (TSK) statt. Die Tagung soll insbesondere jungen Nachwuchswissenschaftlern die Möglichkeit bieten, ihre Ergebnisse zu diskutieren und einem breiten Fachpublikum vorzustellen. Dies ist natürlich besonders attraktiv, wenn auch die ‚alten Hasen‘ der Zunft eifrig dabei sind.
In diesem Jahr wird schon TSK 11 — nach Tübingen, Erlangen, Graz, Frankfurt, Salzburg, Freiberg, Freiburg und Aachen nun zum zweiten Mal nach 1994 wieder in Göttingen durchgeführt. Wir freuen uns, auch dieses Mal wieder ein vielseitiges Tagungsprogramm präsentieren zu können. Die vorgestellten Arbeiten befassen sich mit Geländebeobachtungen, Laboranalysen und -experimenten bis hin zu Computermodellierungen. Im Maßstab reichen sie vom submikroskopischen Bereich bis hin zu ganzen Orogenen. Dabei werden sowohl duktile als auch spröde Deformationsprozesse beleuchtet. Regionale Geologie ist ebenso Thema wie auch eher angewandte Fragestellungen.
Um die einzelnen Beiträge schnell auffinden zu können, wurden diese alphabetisch nach Erstautoren geordnet. Aus Zeitgründen konnte nur der kleinere Teil der mehr als einhundert eingegangen Beiträge in das Vortragsprogramm aufgenommen werden. Auf parallele Vortragssitzungen haben wir bewusst verzichtet. Besonderen Raum für anregende Diskussionen sollen auch die thematisch zusammengestellten Postersitzungen bieten, für die wir spezielle Zeiten eingeräumt haben. Hierzu werden Poster jeweils vorher im Plenum kurz vorgestellt.
Die eingegangenen Manuskripte wurden, wie bei TSK üblich, für die Publikation keinem Gutachterverfahren unterzogen. Daher sind die jeweiligen Autoren allein für den Inhalt verantwortlich. ...
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Aus Franken wird die Entwicklung quartärer Hohlformen beschrieben, deren Rekonstruktion mit Hilfe lößstratigraphischer Methoden (fossile Böden, Tuffbänder, Umlagerungszonen etc.) möglich ist. Bei vielen Formen zeigt sich, daß sie bereits größere Vorläuferformen präwürmzeitlichen Alters hatten. Die Entwicklung während des Würms läßt sich an manchen Beispielen in besonders instruktiver Weise verfolgen. Zu Beginn des Würms, im unteren Mittelwürm und im unteren Jungwürm dominierte zeitweise die Abtragung und Verlagerung. Im oberen Mittelwürm sowie im oberen Jungwürm herrschte äolische Lößsedimentation vor. Diese Ergebnisse stimmen gut mit den bereits aus anderen mitteleuropäischen Lößgebieten bekannten Befunden überein. Mit dem Trockental-System von Helmstadt wird die Entwicklung von Hohlformen beschrieben, deren Anlage bis in das ältere Pleistozän zurückreicht.
Das Cranium eines fossilen Hominiden des Formenkreises Homo sapiens sapiens wurde relativ-geologisch sowie absolut durch Radiokohlenstoff und Aminosäuren auf ungefähr 31 000 Jahre B.P. datiert. Andere absolute sowie relative Daten an Mollusken und Mammutzähnen in überlagernden jüngeren Straten datieren auf 18 000 — 21000 und 16 000 Jahren B.P. Geomorphologische und geophysikalische Datierungen stimmen somit gut überein. Er ist der älteste datierte und früheste Bewohner Zentraleuropas, der dem Homo sapiens sapiens angehört.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Laut jüdischem Kalender entstand die Welt vor genau 5778 Jahren, nach der Bibel vor 6021 Jahren. Doch als Forscher begannen, auf und in der Erde selbst nach Spuren ihres Alters zu suchen, mussten sie die Zahl immer weiter nach oben korrigieren. Nach heutigen Datierungsmethoden ist unser Planet zwischen 4,5 und 4,6 Milliarden Jahre alt.
Wolken haben einen maßgeblichen Einfluss auf den Wasserhaushalt der Erde, das Wettergeschehen und das Klima. Sie wissenschaftlich zu beschreiben, ist schwierig – und das erschwert die Niederschlagsvorhersage ebenso wie die Klimamodellierung. Wichtig für die Entstehung von Regen in unseren Breiten sind Eispartikel. Sie machen einen großen Teil der Wolken aus. Doch wie bilden sie sich, und warum sind sie für viele physikalische Prozesse in den Wolken unentbehrlich? Und schließlich: Wirkt sich menschliches Handeln auf die Wolken aus?
Im Zusammenhang mit der Diskussion des globalen Klimawandels stellt sich die Frage, ob extreme Wettersituationen wahrscheinlicher werden. Diese Frage ist wegen der Gefahren, die von extremen Wettersituationen ausgehen, weit über die Grenzen der Meteorologie hinaus von Bedeutung. Dennoch findet man in der Fachliteratur sehr wenige Beiträge zu diesem Thema. Dies liegt im wesentlichen daran, dass bei der Analyse von Extremwerten im allgemeinen von konstanten Überschreitungswahrscheinlichkeiten für Schwellwerte ausgegangen wird. Wenn diese Arbeitshypothese wahr ist, können Wiederkehrzeiten einfach als Kehrwert der Eintrittswahrscheinlichkeit angesehen werden. Dann – nur dann - macht der Ausdruck Jahrhundertereignis einen Sinn, der über den Moment hinaus reicht. In diesem Beitrag soll zunächst das Vokabular zur Beschreibung von Extremwerten (hier als Werte oberhalb von Schwellen) vorgestellt bzw. in Erinnerung gerufen werden. Diese werden auf den einfachen Fall stationärer Zeitreihen angewendet, woraus die üblichen vereinfachten Zusammenhänge folgen. Im Anschluss wird ein künstliches Beispiel einer Variable mit veränderlichem Mittelwert untersucht. Dieses zeigt deutlich, wie stark die Kenngrößen des Extremverhaltens von Schwankungen im Mittelwert abhängen können. Bei der Analyse klimatologischer Beobachtungsdaten, steht man vor dem Problem, dass kein einfaches Modell für die Generierung der Zeitreihe zur Verfügung steht, woraus man die Eigenschaften des Extremverhaltens ableiten könnte. Gelingt es jedoch, die Beobachtungen mit Hilfe einfacher empirischer Modellgleichungen hinreichend gut zu beschreiben, so ist der Weg zur Analyse der Extremwerte in instationären Zeitreihen geebnet. Dabei braucht man nicht, wie oft üblich, nur die (relativ wenigen) (Extremwerte für die Analyse des Extremverhaltens heranzuziehen, sondern kann die gesamte von der Zeitreihe zur Verfügung gestellte Information nutzen. Diese Strategie wird exemplarisch an zwei Zeitreihen vorgestellt. Aus Gründen der Einfachheit sind dies Monatsmittel bzw. Jahresmittel der Temperatur. In diesen sind eindeutige Änderungen sowohl im mittleren als auch im extremen Verhalten sichtbar. Daraus kann zwar geschlossen werden, dass sich die Wettersituationen im Laufe der Zeit verändert haben, nicht aber wie. Ein häufigeres Auftreten extremer Mittelwerte kann bedeuten, dass warme Wettersituationen häufiger oder wärmer geworden sind, oder das kalte Wettersituationen wärmer oder weniger geworden sind, oder aber, dass eine Überlagerung verschiedener Veränderungen zu diesem Ergebnis führt. So kann die Frage, ob extreme Wettersituationen wahrscheinlicher werden, in diesem Beitrag nicht abschließend geklärt werden, jedoch wird ein Werkzeug vorgestellt, das geeignet erscheint, diese Frage zu beantworten.
Wasser weltweit : wie groß sind die globalen Süßwasserressourcen, und wie nutzt sie der Mensch?
(2008)
Ohne Wasser kein Leben – die ersten organischen Moleküle entwickelten sich im Wasser, aus Wasser plus Kohlenstoff und Stickstoff, und auch heute brauchen Pflanzen, Tiere und Menschen viel Wasser, um zu überleben. Die Erde ist der einzige Planet mit flüssigem Wasser und der einzige Planet, auf dem es Leben gibt, zumindest in unserem Sonnensystem. Zwei Umstände bewirken gemeinsam, dass nur die Erde die richtige Temperatur für flüssiges Wasser an ihrer Oberfl äche hat: ihr Abstand zur Sonne und ihre Masse. Aufgrund ihrer ausreichend großen Masse kann sie eine Atmosphäre halten, die die mittlere Oberflächentemperatur von –18 °C auf +15 °C erhöht. Nur daher konnte sich im Frühstadium der Erdentstehung das Wasser, das in großen Mengen aus dem Erdinnern ausgaste, an der Oberfläche als flüssiges Wasser in den Ozeanen sammeln.
Wenn Klimaforscher wissen wollen, was die Zukunft
bringt, schauen sie gern in die Vergangenheit. Während
der Kreidezeit herrschte auf der Erde ein Treibhausklima
mit atmosphärischen CO2-Gehalten, die weitaus
höher waren als heute. Welche Konsequenzen das für
die Meeresströmungen und die marinen Ökosysteme
hatte, können Geowissenschaftler heute nicht mehr direkt
messen. Bei der Spurensuche helfen ihnen die
Fossilien mikroskopisch kleiner Einzeller, deren wunderschöne
Kalkschalen als Klimagedächtnis dienen.
Den Löwen die Freiheit? Raus aus Zirkus und Zoo? Was würde ein Löwe sagen, könnte er nur reden? Der Paläontologe Joachim Scholz meint in Anlehnung an Malraux: Man lasse den Löwen zu einem Gegenstand der Forschung werden, statt zu einem solchen der Offenbarung. Jeder Löwe hat eine eigene Persönlichkeit, kein Tier gleicht dem anderen. Scholz regt Langzeitstudien nicht nur in Zoos, sondern auch im Zirkus an. Denn in der sogenannten Freiheit könnte es Löwen schon bald nicht mehr geben.
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
Die drei Atolle Glovers Reef, Lighthouse Reef und Turneffe Islands vor der belizischen Küste im Karibischen Meer unterscheiden sich in Geomorphologie, Lagunentiefe, Sedimentbeschaffenheit, Mangroven- und Seegrasbewuchs, Wellen- und Strömungseinfluss sowie in ihren Sedimentationsraten und ihrem Entstehungsalter. Um herauszufinden, ob die Bivalven-Vergesellschaftungen verschiedener Lagunenzonen diese Unterschiede widerspiegeln, wurden 32 bis 44 rezente Sedimentproben auf jedem Atoll entnommen (Gesamtprobenzahl: 111). Deren Datensatz von insgesamt 32 122 Bivalvenschalen wurde anschließend Q-Mode-Cluster-Analysen unterzogen. Neben der Verteilung charakteristischer Arten wurde auch die Verteilung von Bivalven unterschiedlicher Lebens- und Ernährungsweise untersucht. Chione cancellata, ein flach grabender Suspensionsfresser, besiedelt bevorzugt (1) flache, wellen- und strömungsbeeinflusste Lagunenzonen. Die Sedimente (2) sehr hoch energetischer Flachwasserbereiche enthalten zudem hohe Anteile tiefer grabender Suspensionsfresser der Gattung Ervilia. Im (3) Rückriffbereich und am Atollrand sind tief grabende, Detritus fressende Telliniden häufig. Gouldia cerina, wie Chione ein flach grabender Suspensionsfresser, ist typisch für (4) geschlossene Flachwasserbereiche, während die Chemosymbionten-tragende, ebenfalls flach grabende Parvilucina sp. A. vorwiegend in (5) geschlossenen, tiefen Lagunenzonen vorkommt. Charakteristisch für (6) Mangrovengebiete ist Crassinella lunulata, ein sehr flach grabender Suspensionsfresser. Die Anteile taphonomischer Signaturen auf den Schalen, wie Bohrspuren, Inkrustationen, Fragmentierung und Abrasion sowie Diversität, Evenness und Richness sind auf Glovers Reef am höchsten und nehmen über Lighthouse Reef nach Turneffe Islands ab. Da in die gleiche Richtung zunehmende Sedimentationsraten auf den drei Atollen zu verzeichnen sind (GISCHLER 2003), ist vermutlich der abnehmende Effekt des Time-averaging für diesen Trend verantwortlich. Neben der rezenten Fauna wurden auch die Bivalven aus Vibrationsbohrkernen (ein Kern von jedem Atoll) untersucht. Die fossilen Bivalven-Vergesellschaftungen der inneren Lagunen von Glovers Reef, Lighthouse Reef und Turneffe Islands zeigen seit deren Entstehung eine für das jeweilige Atoll typische Fauna, die sich seit ~7000 YBP weiter entwickelte. Sie reflektieren damit die bereits im Anfangsstadium charakteristischen Unterschiede der drei Atolle.