Universitätspublikationen
Refine
Year of publication
Document Type
- Book (25)
- Contribution to a Periodical (21)
- Article (19)
- Doctoral Thesis (18)
- Part of Periodical (9)
- Working Paper (4)
- Diploma Thesis (3)
- Periodical (2)
- Bachelor Thesis (1)
- Conference Proceeding (1)
- diplomthesis (1)
- Habilitation (1)
- Master's Thesis (1)
- Report (1)
Language
- German (107) (remove)
Is part of the Bibliography
- no (107)
Keywords
- Eiskeime (3)
- Anisotropie (2)
- Meteorologie (2)
- Monsun (2)
- Rhein-Main-Gebiet (2)
- Schwerewellen (2)
- loess (2)
- Aerosol (1)
- Akteursmodellierung (1)
- Alpen (1)
- Amrum (1)
- Angewandte Geophysik (1)
- Anisotropy (1)
- Atlas (1)
- Atmosphäre (1)
- Bildungswesen (1)
- CCLM (1)
- CORDEX-EAS (1)
- Crystal Structure (1)
- Dielektrizitätszahl (1)
- Dämpfung (1)
- ESD (1)
- East African Rift (1)
- Eisbildung (1)
- Eiskeimzähler (1)
- Elektromagnetische Reflexionsmethode (1)
- Erweiterte Radarstratigraphie (1)
- Exkursion (1)
- Federal Republic of Germany (1)
- Flusssediment (1)
- Forschungsbohrung Sichenhausen (1)
- France (1)
- Führer (1)
- GPR (1)
- GRSN (1)
- General circulation model (1)
- Geoelektrik (1)
- Geologie (1)
- Georadar (1)
- High Pressure Stability (1)
- Himalaja (1)
- IR (1)
- Ice Formation (1)
- Ice Nuclei (1)
- Innovationsprozesse (1)
- Inversion (1)
- Kinzigtal (1)
- Klima (1)
- Klimaänderung (1)
- Lisieux (1)
- Lithium-uranate(VI) (1)
- Magnetotelluric (1)
- Magnetotellurik (1)
- Meteorology (1)
- Mobile organische Fremdstoffe (1)
- Modellierung (1)
- Normandie (1)
- North Sea/German Bight (1)
- Nördlicher Oberrheingraben (1)
- Ostafrikanisches Rift (1)
- Ostasien (1)
- Phase Tensor (1)
- Pleistocene (1)
- RCM (1)
- Radarfazies (1)
- Reflexionsanalyse (1)
- Regional climate model (1)
- Regionales Klimamodell (1)
- Regionalisierung (1)
- Rhine-Main-Region (1)
- Rwenzori Gebirge (1)
- Rwenzori Mountains (1)
- SKS (1)
- STARS (1)
- Schwach nichtlineare Dynamik (1)
- Schwarmbeben (1)
- Sediment-Massenbilanzierung (1)
- Seismische Gefährdung (1)
- Seismizität (1)
- Sozialstruktur (1)
- Szenarienentwicklung (1)
- Südhessen (1)
- Transdisziplinarität (1)
- Untermain (1)
- Vacuum-Diffusion Chamber (1)
- Vakuum-Diffusionskammer (1)
- Verkehr (1)
- Verwaltung (1)
- Vogelsberg (1)
- WKB-Modelle (1)
- WKB-Theorie (1)
- Wassergehalt (1)
- Westhessen (1)
- Wirtschaft (1)
- advanced radarstratigraphy (1)
- barokline Wellen (1)
- barrier island stratigraphy (1)
- barrier sandbar migration (1)
- carbon-dating (1)
- dielectric permittivity (1)
- differentiell geheizter rotierender Annulus (1)
- fluvial sediments (1)
- fossil Ah-horizons (1)
- ground-penetrating radar (GPR) (1)
- holocene (1)
- holocene landscape development (1)
- paleomagnetism (1)
- periglacial sediments (1)
- pleistocene (1)
- pleistocene fluvial sediments (1)
- reflection analysis (1)
- regionale Klimasimulation (1)
- sequence of fossil soils (1)
- spontane Schwerewellenabstrahlung (1)
- stratigraphic classification (1)
- stratigraphie correlation (1)
Institute
- Geowissenschaften (107) (remove)
Geoelektrische Methoden sind weit verbreitet und werden häufig zur Erkundung des oberflächennahen Untergrundes eingesetzt. Angewendet werden standardmäßig meist nur linienhafte Anordnungen der Sender- und Empfängerelektroden, die nur wenige Zehner Meter lang sind. Hierdurch haben diese Methoden nur geringe Eindringtiefen. Um größere Eindringtiefen und 3-dimensionale Informationen über den Untergrund zu erhalten, sind in der vorgestellten Studie die Empfänger- und Senderdipole in mehr oder weniger regelmäßigen Abständen über das Untersuchungsgebiet verteilt worden. Mit jeder Empfängerstation sind kontinuierlich die elektrischen Spannungen in bis zu drei Richtungen aufgezeichnet worden. Für die Einspeisungen wurde ein Rechtecksignal verwendet, das sich gut von den Störfrequenzen und den natürlichen Spannungen abhebt. Die Richtungen der Einspeisedipole sind entsprechend den örtlichen Gegebenheiten, jedoch möglichst parallel zu den Messrichtungen, gewählt worden. Zur Auswertung der erhobenen Messdaten wurde ein Programmpaket entwickelt, das eine weitestgehend automatisierte Auswertung der Daten erlaubt. Die Bestimmung der scheinbaren spezifischen Widerstände und ihrer Messfehler wurde an den fouriertransformierten Datenzeitreihen durchgeführt. Hierdurch konnten Störeinflüsse minimiert werden und es wurde möglich selbst stark verrauschte Datensätze auszuwerten. Um die erhobenen Daten interpretieren zu können sind die berechneten scheinbaren spezifischen Widerstände als Grundlage für Inversionen und Modellstudien verwendet worden. Die oben beschriebene Methode wurde im Rahmen der vorliegenden Arbeit in zwei unterschiedlichen Messgebieten angewandt.
Messgebiet im Hohen Vogelsberg
Im Juli 2007 wurde damit begonnen, die Forschungsbohrung Sichenhausen-Eschwald im Hohen Vogelsberg abzuteufen. Ziel war es, Informationen über den strukturellen Aufbau des größten geschlossenen Vulkankomplexes Mitteleuropas zu gewinnen. Die Gesteinsansprache der Tiefbohrung lieferte bereits relativ früh Hinweise darauf, dass ein großer magmatischer Körper aufgeschlossen wurde.Aufgrund der begrenzten räumlichen Aussagekraft der Bohrung und fehlender Geländebefunde war es nicht möglich, den Mechanismus der Platznahme und die Größe des Körpers näher zu beschreiben. Die Kampagne hatte das Ziel diese Lücke zu schließen und ein 3-dimensionales Modell des Untergrundes zu erstellen.In dem annähernd quadratischen Untersuchungsgebiet, das eine Fläche von ca. 25 $km²$ aufweist, wurden 20 Datenlogger zur Aufzeichnung der elektrischen Spannungen aufgebaut. Die Empfängerdipole waren zwischen 20 m und 30 m lang. Insgesamt wurden 36 Stromeinspeisungen mit Stromstärken zwischen 28 A und 40 A an 16 unterschiedlichen Positionen für jeweils 2 bis 3 verschiedene Dipolrichtungen vorgenommen. Die Einspeisedipole waren zwischen 100 m und 300 m lang. Insgesamt konnten 1.439 scheinbare spezifische Widerstände berechnet werden.Die Ergebnisse der Modellierungen und der Inversion der Daten zeigen, dass mit der Forschungsbohrung ein domartiger Körper angebohrt wurde. Anhand der Ergebnisse kann die räumliche Ausdehnung des Körpers eingegrenzt und ein vorher noch nicht kartierter Gang nachgewiesen werden.
Messgebiet im Bereich der Kinzigtalsperre
Das etwa Ost-West verlaufende Kinzigtal bildet die naturräumliche und geologische Grenze zwischen dem vulkanischen Vogelsberg im Norden und dem, in diesem Bereich aus Sedimentgesteinen aufgebauten, Spessart im Süden.Die zwischen Steinau a. d. Str. und Bad Soden-Salmünster befindliche Kinzigtalsperre dient dem Hochwasserschutz und der Regulierung des Pegels der Kinzig bei Dürreperioden. Der aufgestaute See ist relativ flach und weist im Normalstau maximale Tiefen von ca. 6~m auf. Der Stausee ist jedoch über weite Teile etwa 4~m tief. In dieser Kampagne betrug der Abstand zwischen den einzelnen Empfängerstationen etwa 100 m bis 300 m. Es wurde aufgrund der beengten Platzverhältnisse eine Dipollänge von ca. 48 m für die Einspeise- und die Empfängerdipole im Messgebiet gewählt. Insgesamt wurden 14 Empfängerstationen im Messgebiet aufgebaut, von denen sich Neun auf dem Seegrund befanden. Das Messraster orientierte sich am vermuteten Verlauf der Kinzigtalstörung. An 8 Positionen sind in 21 Richtungen elektrische Ströme mit Stärken zwischen 2,2 A und 40 A in den Untergrund eingespeist worden. Es konnten 536 scheinbare spezifische Widerstände berechnet werden. Ziel war es, den Verlauf der Störung näher zu bestimmen und die Tiefe der im Untergrund vorhandenen salinären Grundwässer zu bestimmen. Die Bestimmung des Verlaufs der Kinzigtalstörung sowie die Tiefenbestimmung der salinären Grundwässer war mit den erhobenen Daten jedoch nicht möglich.
In vorliegender Untersuchung wurde der Rißlöß zwischen der 1. und 2. fossilen Parabraunerde anhand schwächerer Bodenbildungen und eingeschalteter Abtragungsphasen zu gliedern versucht. Im jüngeren Riß herrschte starke Lößsedimentation vor, wobei es in mindestens 6 kaltfeuchten Abschnitten zur Ausbildung schwacher periglazialer Naßböden kam. Die Naßbodenserie wurde als Bruchköbeler Böden (B) bezeichnet. Im jüngsten Rißlöß ist wenige dm unter dem Eemboden als tephrochronologischer Leithorizont der Krifteler Tuff (vgl. SEMMEL 1968) eingeschaltet. Den mittleren Profilbereich im Rißlöß zeichnen feuchtere Klimaabschnitte mit starken Verschwemmungsphasen aus, die in den meisten Profilen zu erheblichen Diskordanzen geführt haben. An der Basis der wenigen kompletten Rißlöß-Profile treten vorwiegend in Hessen über der zumeist gekappten 2. fossilen Parabraunerde maximal zwei Schwarzerden auf, die von SEMMEL (1968) als Weilbacher Humuszonen bezeichnet werden. Unmittelbar über diesen Schwarzerden folgt die Ostheimer Zone, eine Fließerde aus aufgearbeitetem Solumaterial der liegenden Böden. Insgesamt zeigt die aus den Rißböden rekonstruierte Klimaabfolge — neben geringfügigen Abweichungen — überraschende Parallelen zur paläopedologisch-klimatischen Gliederung der Würmkaltzeit.
Ein Finite-Volumen-Modell des differentiell geheizten rotierenden Annulus wird verwendet, um die spontane Schwerewellenabstrahlung durch die großskalige, von baroklinen Wellen beherrschte Strömung zu untersuchen. Bei diesem Vorgang bilden barokline Wellen und der durch sie abgelenkte und verzerrte Strahlstrom, die sich näherungsweise im hydrostatischen und geostrophischen Gleichgewicht befinden, durch ihre Dynamik Ungleichgewichte aus, die sich als Schwerewellen ausbreiten. Neben der Anregung von Schwerewellen durch Prozesse wie Gebirgsüberströmung, Konvektion und Frontogenese, bildet dieser Vorgang vermutlich eine weitere wichtige Quelle von Schwerewellen in der Atmosphäre. Anders als für orographisch und konvektiv angeregte Schwerewellen gibt es für die spontane Schwerewellenabstrahlung bislang keine befriedigende Parametrisierung in Wettervorhersage- und Klimamodellen, die diesen Prozess nicht auflösen können. Die Durchführung von Messungen zur spontanen Schwerewellenabstrahlung in der Atmosphäre ist üblicherweise sehr aufwendig, sodass die Untersuchung dieses Vorganges in einem wiederholbaren und steuerbaren Laborexperiment reizvoll erscheint. Ob dafür möglicherweise das Experiment des differentiell geheizten rotierenden Annulus infrage kommt, untersuchen wir mit einem eigens dafür entwickelten numerischen Modell, dessen Tauglichkeit wir zunächst im Rahmen einer Validierung durch den Vergleich mit Labormessungen überprüfen. Damit die Ergebnisse zur Schwerewellendynamik im Annulus auf die Atmosphäre übertragbar sind, verwenden wir eine neue, atmosphärenähnliche Annuluskonfiguration. Im Gegensatz zu den klassischen Annuluskonfigurationen ist in der neuen Konfiguration die Brunt-Väisälä-Frequenz größer als der Coriolis-Parameter, sodass die Schwerewellen ein ähnliches Ausbreitungsverhalten zeigen sollten wie in der Atmosphäre. Deutliche Hinweise auf eine Schwerewellenaktivität in der atmosphärenähnlichen Konfiguration geben die horizontale Geschwindigkeitsdivergenz und eine Normalmodenzerlegung der kleinräumigen Strukturen der simulierten Strömung. Um der Herkunft der beobachteten Schwerewellen auf den Grund zu gehen, zerlegen wir die Strömung in den schwerewellenfreien quasigeostrophischen Anteil und den schwerewellenenthaltenden ageostrophischen Anteil. Bereiche innerhalb der baroklinen Welle, in denen ein erhöhter spontaner Antrieb des ageostrophischen Anteils durch die quasigeostrophische Strömung beobachtet wird, fallen mit Bereichen erhöhter Schwerewellenaktivität zusammen. Dies deutet darauf hin, dass die spontane Schwerewellenabstrahlung auch im Annulus zum Schwerewellenfeld beiträgt, sodass dieses Experiment als Labormodell dieser Schwerewellenquelle für deren weitere Erforschung geeignet erscheint.
Im Rahmen einer Zusammenarbeit zwischen der Thüringer Landesanstalt für Umwelt und Geologie und der Goethe-Universität Frankfurt fand in Kooperation mit dem Deutschen Wetterdienst (DWD) eine umfassende Studie zum konvektiven Unwetterpotential über Thüringen statt. Unwetterereignisse, die durch konvektive Prozesse in der Atmosphäre verursacht werden, besitzen ein nicht unerhebliches Schadenspotential, obwohl sie oftmals eine räumlich eng begrenzte Ausdehnung aufweisen. Aufgrund ihrer Charakteristik ist sowohl die Vorhersage solcher Ereignisse, als auch eine vollständige, systematische Erfassung für eine detaillierte Auswertung längerer Zeitreihen noch immer eine Herausforderung. Zusätzliches Interesse besteht in der Abschätzung der durch den Klimawandel abhängigen Entwicklung des zukünftigen Gefährdungspotentials konvektiver Unwetter. Für eine gezielte Untersuchung des Themenkomplexes ist eine Vielzahl unterschiedlicher Daten und Methoden verwendet worden. Mit Hilfe von Fernerkundungsdatensätzen wird ein räumlich differenziertes Gefährdungspotential über Thüringen nachgewiesen. Bedingt durch das Relief ist das Auftreten von Konvektion am häufigsten und intensivsten über dem südlichen Thüringer Wald und dessen Ostrand zu beobachten, während Nordthüringen eine deutlich geringere Aktivität solcher Unwetterereignisse aufweist. Eine Abschätzung mittels globaler Klimamodelle und daraus abgeleiteten Wetterlagen zeigt unter Berücksichtigung des RCP8.5 Klimaszenarios für die nahe Zukunft (2016-2045) eine Zunahme des Gefährdungspotentials durch konvektive Unwetter. Aufgrund des Anstiegs feuchter Wetterlagen (49 % auf 82 %) erhöht sich die Zunahme der Gefährdung für den Zeitraum 2071-2100 noch deutlicher. Im Vergleich zu diesem statistischen Ansatz nimmt die projizierte Gefährdung durch extreme Ereignisse erheblich zu (Faktor 6), wenn die Ergebnisse expliziter Simulationen konvektiver Ereignisse mit einem regionalen Klimamodell (mit horizontaler Gitterdistanz von 1 km) und eine Zunahme der Tage mit konvektiven Extremereignissen berücksichtigt werden. Ein Anstieg der Gefährdung durch konvektive Unwetter in der Zukunft ist wahrscheinlich. Eine Quantifizierung bleibt jedoch unsicher.
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
Ziel dieser Arbeit, die im Rahmen der Ice Nuclei Research Unit (INUIT) Forschergruppe erstellt wurde, war ursprünglich die saisonale und geographische Variabilität von bodennahen Eiskeimen zu untersuchen. Die Konzentrationen, Quellen und Zusammensetzung der Eisnuklei (ice nuclei, IN) sollte als Basis für Parametrisierungen dienen. Das Verständnis von Eiskeimen und deren Einfluss auf Wetter und Klima sind nur zum Teil bekannt und bedürfen daher noch weitgehender Forschung. Auch die Änderung der Eiskeimkonzentration mit der Zeit kann von Bedeutung sein, diese sollte durch die Fortführung einer Langzeitmessreihe untersucht werden. Durch Hinzuziehen von lokalen Parametern und Trajektorien sollten Proxies für die IN Konzentration ermittelt werden.
Im Rahmen dieser Arbeit taten sich jedoch Probleme am Messverfahren auf, weshalb die ursprünglichen Ziele in den Hintergrund gerieten und die Verbesserung und Neuaufnahme des Messverfahrens in den Vordergrund trat. Anhand von zielgerichteten Experimenten wurde ein Messfehler ermittelt, der durch die vorherige Fehlinterpretation von deliqueszierenden Partikeln und von Tröpfchen als vermeintliche Eiskristalle entstand. Dieser Fehler wurde charakterisiert und durch optische Analysen dessen Ursprung ermittelt. Datensätze, die durch diese hygroskopischen Partikel fehlerbehaftet waren, wurden korrigiert und reanalysiert. Ein in früheren Arbeiten am Taunus Observatorium/Kleiner Feldberg ermittelter Jahresgang in der Eiskeimkonzentration mit einem Maximum im Sommer und einem Minimum im Winter konnte bestätigt werden, die Absolutzahlen sind jedoch deutlich geringer als bisher angenommen. Lokale Parameter sowie Trajektorien wurden zur weiteren Analyse hinzugezogen.
Die Reevaluierung der Datensätze vom Taunus Observatorium führte zu keinem abschließenden Ergebnis. Ein allgemein gültiger Zusammenhang zwischen Eiskeimkonzentration und Parametern, welche das Staubvorkommen in der Atmosphäre quantifizieren (PM10 und Aerosol Optische Dicke), konnte nicht festgestellt werden. Da die Messungen bei relativ warmen Bedingungen (≥-18°C) durchgeführt wurden, Staub aber erst bei kälteren Temperaturen als effektiver Eiskeim gilt, ist dieses Ergebnis jedoch zu erwarten gewesen.
Auch die Luftmassenherkunft scheint keinen eindeutigen Einfluss zu haben. Betrachtungen der Bodenfeuchte lieferten signifikante Korrelationen, welche jedoch monatsabhängig positiv oder negativ ausfallen können. Im Frühling ist eine hohe Bodenfeuchte mit einer erhöhten Konzentration von IN in Verbindung zu bringen, im Sommer liegt bei niedriger Bodenfeuchte eine tendenziell höhere Eiskeimkonzentration vor. Die Windrichtung hat für die Eiskeimkonzentration einen Einfluss, wenn der Wind aus Südost zum Taunus Observatorium strömt. Anthropogenes Aerosol aus Frankfurt am Main hemmt hier vermutlich die Eisbildung, was zu einer signifikant niedrigeren mittleren Konzentration aus dieser Richtung führt.
Da das Messverfahren noch nicht in seinem vollen Potential genutzt wurde, wurde es um eine Analysemethode erweitert. Mittels Tröpfchengefrierexperimenten konnte ein weiterer Gefriermodus betrachtet werden. Nun deckt das hier genutzte Messverfahren drei der vier bekannten Gefriermoden ab. Anhand von Testsubstanzen wurde die Zuverlässigkeit der neu eingeführten Methode überprüft und nachgewiesen.
Erste Parallelproben der korrigierten Depositions- und Kondensationsgefriermessmethode und der neu eingeführten Immersionsgefriermessung wurden am Taunus Observatorium/Kleiner Feldberg genommen. Dabei wurde auch ein Staubereignis beprobt und detailliert ausgewertet. Zwischen lokalen Parametern und Eiskeimkonzentration fanden sich Zusammenhänge. Bei Messbedingungen <-20°C konnte ein signifikanter Zusammenhang zwischen PM10 und Eiskeimkonzentration im Immersions- und Kondensationsmodus gefunden werden. Der Depositionsgefriermodus blieb unauffällig. Zwischen Bodenfeuchte und IN-Konzentration konnten ebenfalls wie bei der Reevaluierung der alten Messdaten Signifikanzen festgestellt werden.
Die neu eingeführte Immersionsmessmethode und die korrigierte Methode zur Bestimmung von Depositions- und Kondensationsgefrierkernen liefern Messdaten, welche im Bereich anderer Eiskeimzähler liegen. Vergleiche mit Parametrisierungen zeigen, dass die Messwerte dem aktuellen Stand der Forschung entsprechen und davon ausgegangen werden kann, dass sie vertrauenswürdig und belastbar sind.
Nach dem Reaktorunfall in Fukushima im März 2011 und dem darauf folgendem Beschluss in Deutschland, den Atomausstieg zu vollziehen, wird dort – sowohl auf nationaler, als auch auf regionaler Ebene – über eine alternative Energieversorgung diskutiert. Für die vorliegende Arbeit stellten sich die Fragen, wie die energiepolitische Ausgangssituation in Hessen aussieht und welche Potenziale erneuerbarer Energien in Hessen vorhanden sind. Mit einer Politikfeldanalyse wurde untersucht, welche Akteure am Ausbau erneuerbarer Energien beteiligt sind, wie diese interagieren, welche Instrumente zur Förderung erneuerbarer Energien in Hessen existieren und welche Erfolgsbedingungen und Restriktionen sich daraus ergeben. Ferner wurde anhand der jeweiligen Energiekonzepte die Frage verfolgt, welche Zukunftspotenziale für erneuerbare Energien die relevanten Akteure sehen und welche energiepolitischen Maßnahmen getroffen werden müssen, um den Ausbau zu forcieren. Bei einem Vergleich des Bundeslandes Hessen mit den Ländern Niedersachsen, Nordrhein-Westfalen und Sachsen-Anhalt wurde festgestellt, welche energiepolitischen Maßnahmen in diesen Bundesländern erfolgreich waren und auf Hessen übertragbar sind. Einerseits wurde aufgezeigt, dass Bemühungen den Ausbau erneuerbarer Energien zu forcieren erkennbar sind. Anderseits konnten ebenso die restriktiven Rahmenbedingungen dargestellt werden, die einen durchschlagenden Erfolg des Ausbaus erneuerbarer Energien bisher behindern. Die Untersuchung der Energiekonzepte hat ergeben, dass die Akteure die Zukunftspotenziale erneuerbarer Energien sehr unterschiedlich sehen und gewichten – sowohl was das zeitliche Ausbauziel als auch die Potenziale der jeweiligen erneuerbaren Energieträger betrifft.
Das Ziel dieser Studie ist es, die Möglichkeiten und Grenzen von hochauflösenden Klimaprojektionen in orographisch beeinflussten Gebieten an den Beispielen der europäischen Alpen und des Himalajas zu prüfen. Insbesondere wird die Fragestellung untersucht, ob beobachtete regionale Muster in den höher aufgelösten Daten besser wiedergegeben werden als in den antreibenden großskaligen Daten. Dazu werden regionale Klimasimulationen des COSMO-CLM Modells und Daten von zwei statistischen Regionalisierungsmethoden mit ERA40 Reanalysen sowie Daten des globalen Atmosphäre-Ozean Modells ECHAM5/MPIOM für verschiedene Parameter des Klimasystems verglichen. Ein Vergleich mit den Reanalysen anhand täglicher Niederschlagsstatistiken ergibt, dass die COSMO-CLM Niederschlagsdaten auf der 0.5° Skala vergleichbar sind mit ERA40 Niederschlägen und mit statistisch regionalisierten ERA40 Niederschlägen. Eine zusätzliche Fehlerkorrektur der COSMO-CLM Niederschläge liefert gute Ergebnisse. Dabei sind jedoch etwa 500 Regentage notwendig, um eine robuste Fehlerabschätzung zu gewährleisten. Für das südasiatische Gebiet ist eine realistische Wiedergabe des indischen Sommermonsuns (ISM) in den Modellen von hoher Relevanz. Betrachtet man nur die Mittelwerte und zeitlichen Variabilitäten von verschiedenen Indizes des ISM, so liefert das COSMO-CLM keinen Mehrwert im Vergleich zu den antreibenden Daten. Allerdings werden die räumlichen Strukturen von Niederschlag und vertikaler Windscherung, sowie die zeitliche Korrelation der modellierten Indizes gegenüber dem ECHAM5/MPIOM Modell verbessert. Die durchgeführten COSMO-CLM Projektionen für die Jahre 1960 bis 2100 zeigen negative Trends des ISM für die SRES Szenarien A2, A1B und B1. Die negativsten Trends sind dabei im Szenario A2 zu finden, gefolgt von A1B und B1. Fast keine Trends zeigen sich im commitment Szenario. Trotz großen zeitlichen Variabilitäten sind die Abnahmen in Niederschlagsmengen, ausgehender langwelliger Strahlung und Windscherung statistisch signifikant in großen Regionen des Simulationsgebietes. Für Nordwest-Indien weisen die Projektionen teilweise einen Rückgang der Monsunniederschläge von über 70% in 100 Jahren auf. Der Rückgang der Windscherung ist hauptsächlich auf Veränderungen in der oberen Troposphäre bei 200 hPa zurück zu führen. Während in den COSMO-CLM Projektionen alle Indizes des ISM synchrone Negativtrends aufweisen, sind die Trends für den Monsunregen über Indien im globalen ECHAM5/MPIOM Model positiv. Gemäß den Definitionen der verschiedenen Indizes, sind jedoch synchrone Trends wahrscheinlicher und das COSMO-CLM liefert zu den globalen ISM Projektionen ebenfalls einen Mehrwert. Insgesamt zeigen die Ergebnisse dieser Studie, dass das COSMO-CLM wertvolle regionale Zusatzinformationen zu den globalen Modellen in den beiden untersuchten Regionen liefert. Für die Einzugsgebiete der oberen Donau und des oberen Brahmaputra liefern die COSMO-CLM Projektionen einen signifikanten Anstieg der Temperatur für alle Jahreszeiten der Jahre 1960 bis 2100. Die Werte sind generell höher im Brahmaputragebiet, mit den größten Trends in der Region des tibetanischen Plateaus. Im Niederschlag zeigen die saisonalen Anteile ebenfalls klare Trends, beispielsweise eine Zunahme des Frühjahrsniederschlags im Einzugsgebiet der oberen Donau. Die größten Trends werden wiederum in der Region des tibetanischen Plateaus projiziert mit einem Anstieg von bis zu 50% in der Länge der Trockenperioden zwischen Juni und September und einem gleichzeitigen Anstieg von etwa 10% für die maximale Niederschlagsmenge an fünf aufeinander folgenden Tagen. Für die Region Assam in Indien, zeigen die Projektionen zudem eine Zunahme von 25% in der Anzahl der aufeinander folgenden trockenen Tage während der Monsunzeit
Die vorliegende Arbeit wurde im Rahmen des Forschungsprojekts „Integrierte Analyse von mobilen, organischen Fremdstoffen in Fließgewässern“ (INTAFERE) am Institut für Physische Geographie an der Goethe-Universität Frankfurt erstellt. In INTAFERE wurde das Gefährdungspotenzial von mobilen, organischen Fremdstoffen (MOF) für aquatische Ökosysteme und die natürlichen Wasserressourcen in integrierter und partizipativer Art und Weise untersucht. MOF sind chemische Substanzen, die in Alltagsprodukten enthalten sind und durch unterschiedliche Eintragsfade in unbekannten Mengen in Oberflächengewässer eingetragen werden. Problematisch sind aus Umweltgesichtspunkten ihre Eigenschaften: sie besitzen im Wasser eine hohe Mobilität und sind schwer abbaubar. Dies führt zu einer Persistenz über lange Zeiträume. Für einige dieser Substanzen wurde zudem gezeigt, dass sie in sehr geringen Konzentrationen biologisch aktiv sind und für aquatische Ökosysteme eine Gefahr darstellen. In INTAFERE wurden drei zentrale Ziele verfolgt: Charakterisierung des Problemfeldes MOF, Erzeugung von praxisrelevantem Wissen für das Management von MOF und Entwicklung einer Softwareanwendung, die gesellschaftliche Aushandlungsprozesse durch eine transparente Darstellung der Wirkungszusammenhänge im Problemfeld unterstützt. Um einen Beitrag für die Erfüllung der Ziele zu leisten, war es die Aufgabe der Verfasserin, eine Akteursanalyse und -modellierung durchzuführen sowie Zukunftsszenarien im Bereich der MOF zu entwickeln. Dafür existierte keine adäquate Methodik, daher verfolgt die Dissertation zum einen die Entwicklung einer Methodik und zum anderen deren Anwendung im Kontext des Projektes INTAFERE. Da im Forschungsprozess die Durchführung von Analysen, die wissenschaftliche und gesellschaftliche Sichtweise der Problematik sowie die Erarbeitung von praktischen Lösungen im Mittelpunkt standen, wurde eine transdisziplinäre Herangehensweise gewählt. Ziel war es, eine Methodik zu entwerfen, die sowohl eine Entwicklung von Szenarien als auch eine Modellierung von Handlungsentscheidungen umfasst. Eine Modellierung und Visualisierung von Handlungsentscheidungen ist notwendig, um Strategien für ein Umweltproblem für verschiedene Szenarien zu ermitteln, und damit einen Lernprozess der Stakeholder zu initiieren. Dies wurde mit der transdisziplinären Methode „Akteursbasierte Modellierung“ umgesetzt. Hierbei wurden insbesondere Aspekte der Problemwahrnehmung von Akteuren und deren Darstellung, der partizipativen Szenarienentwicklung sowie der semi-quantitativen Modellierung von Handlungsentscheidungen berücksichtigt. Die Verfasserin hat mit der semi-quantitativen akteursbasierten Modellierung eine Methode erarbeitet und getestet, die bisher unverbundene Komponenten (wie die Software Dynamic Actor Network Analysis (DANA) und die Szenarienentwicklung) zusammenführt. Um Handlungsentscheidungen unter verschiedenen Szenarien zu modellieren hat die Autorin eine sequentielle Modellierung entwickelt, die mit der Software DANA durchgeführt werden kann. Die dafür notwendige Weiterentwicklung von DANA wurde von Dr. Pieter Bots (TU Delft) umgesetzt. Die akteursbasierte Modellierung läuft in drei methodischen Schritten ab: 1. Modellierung von Akteurs-Sichtweisen in Form von Wahrnehmungsgraphen und deren Analyse, aufbauend auf Ergebnissen von qualitativen, leitfaden-gestützten Expertengesprächen (= Akteursmodellierung), 2. partizipative Szenarienentwicklung mit den Akteuren und 3. Zusammenführung der Ergebnisse der Akteursmodellierung und der Szenarienentwicklung und darauf aufbauend eine sequentielle Modellierung von Handlungsentscheidungen und deren Auswirkungen auf Schlüsselfaktoren. Im Zuge der Anwendung auf das Problemfeld der MOF wurde für folgende Akteure jeweils ein Wahrnehmungsgraph modelliert: Obere Wasserbehörde, Umweltbundesamt, Umwelt- und Verbraucherschutzorganisationen, Wasserversorger sowie für die Hersteller von verschiedenen MOF, weiterhin für die European Flame Retardants Association und die Weiterverarbeitende Industrie. Das Ergebnis der Szenarienentwicklung waren vier Szenarien: ein Gesundheitsszenario, unter der Annahme von hohen lokalen Umweltstandards durch nachhaltigkeitsorientierte KonsumentInnen, ein Umweltszenario, in dem eine starke Regulierung und nachhaltigkeitsorientierter Konsum Hand in Hand gehen, ein Globalisierungsszenario, in dem Wirtschaftsmacht und preisbewusste KonsumentInnen statt staatliche Regulierung vorherrschen und ein Technikszenario, unter der Annahme, dass Kläranlagen, bedingt durch eine starke Regulierung, aufgerüstet werden. Bei der Modellierung von Handlungsentscheidungen wurden die Wahrnehmungsgraphen und die vier Szenarien miteinander verknüpft. Pro Substanz wurde ein Modell entwickelt, welches die wichtigsten Systemkomponenten in einer angemessenen Komplexität umfasst und die von den Akteuren gemeinsam getragene Einschätzung der Wirkungsbeziehungen darstellt. Insgesamt wurden 16 Modelle entwickelt. Basierend auf den simulierten Akteurshandlungen wurden relativen Veränderungen der Schlüsselfaktoren Produktion, Import und Leistungsfähigkeit der Kläranlagen für die vier genannten Szenarien berechnet. In Zusammenarbeit mit Pieter Bots konnten algorithmische Beiträge zur Analyse- und Modellierungssoftware DANA getestet und verbessert werden. Da keine vollständige und zugleich leicht verständliche Einführung zu DANA vorlag, wurde für Nutzer im Rahmen dieser Dissertation eine Anleitung verfasst, die die Modellierung von Wahrnehmungsgraphen und deren Analyse sowie alle Schritte der akteursbasierten Modellierung mit DANA erläutert.