Refine
Document Type
- Article (6)
- Doctoral Thesis (5)
- Working Paper (3)
- Part of Periodical (2)
Has Fulltext
- yes (16)
Is part of the Bibliography
- no (16) (remove)
Keywords
- Modellierung (16) (remove)
Institute
- Geowissenschaften (4)
- Geographie (2)
- Informatik (1)
- Mathematik (1)
- Physik (1)
Dieser Arbeit war zum Ziel gesetzt, Methoden zur Simulation von neuronalen Prozessen zu entwickeln, zu implementieren, einzusetzen und zu vergleichen. Ein besonderes Augenmerk lag dabei auf der Frage, wo eine volle räumliche Auflösung der Modelle benötigt wird und wo darauf zugunsten von vereinfachenden niederdimensionalen Modellen, die wesentlich weniger Ressourcen und mathematischen Sachverstand erfordern, verzichtet werden kann. Außerdem wurde speziell bei der Beschreibung der verschiedenen Modelle für die Elektrik der Nervenzellen das Anliegen verfolgt, deren Zusammenhänge und die Natur vereinfachender Annahmen herauszuarbeiten, um deutlich zu machen, an welchen Stellen Probleme bei der Benutzung der weniger komplexen Modelle auftreten können.
In etlichen Beispielen wurde daraufhin untersucht, inwieweit die Vereinfachung auf ein eindimensionales Kabelmodell sowie der Verzicht auf die Betrachtung einzelner Ionensorten die realistische Darstellung der zellulären Elektrik beeinträchtigen können. Dabei stellte sich heraus, dass alle betrachteten Modelle für das rein elektrische Verhalten der Neuronen im Wesentlichen dieselben Ergebnisse liefern, weshalb zu dessen Simulation in den allermeisten Fällen ein 1D-Kabelmodell völlig ausreichend und angezeigt sein dürfte.
Nur wenn Größen von Interesse sind, die in diesem Modell nicht erfasst werden, etwa das Außenraumpotential oder die Ionenkonzentrationen, muss auf genauere Modelle zurückgegriffen werden. Außerdem ist in einer Konvergenzstudie exemplarisch vorgeführt worden, dass bereits eine recht grobe Darstellung der zugrundeliegenden Rechengitter genügt, um korrekte Ergebnisse bei der Simulation der rein elektrischen Signale sicherzustellen.
In scharfem Kontrast steht hierzu die Simulation von einzelnen Ionen-Dynamiken. Bereits in der Untersuchung des Poisson-Nernst-Planck-Modells für das Membranpotential erwies sich, dass für eine korrekte Simulation der diffusiven Anteile der Ionenbewegung wesentlich feinere Gitter benötigt werden.
Noch viel deutlicher wurde dies in Simulationen von Calcium-Wellen in Dendriten, wo -- neben anderen Einsichten -- aufgezeigt werden konnte, dass nicht nur eine feine axiale
(und Zeit-) Auflösung der Dendritengeometrie zur Sicherstellung exakter Ergebnisse notwendig ist, sondern auch die räumliche Auflösung in die übrigen Dimensionen wichtig ist, weswegen eine eindimensionale Kabeldarstellung der Calcium-Dynamik erheblich fehlerbehaftet und
(jedenfalls im Zusammenhang mit Ryanodin-Rezeptorkanälen) von deren Nutzung dringend abzuraten ist. Auch die Darstellung von Kanälen als eine kontinuierliche Dichte in der Membran kann, wie darüber hinaus vorgeführt wurde, problematisch sein.
Ihre exaktere Modellierung, etwa durch Einbettung auch probabilistischer Einzelkanaldarstellungen in das räumliche Modell sollte in zukünftigen Arbeiten noch mehr thematisiert werden.
Mit Blick auf die Wiederverwendbarkeit bereits implementierter Funktionalität innerhalb dieser Arbeiten wurden spezielle Teile dieser Funktionalität hier in einem gesonderten
Kapitel genauer beschrieben. Als komplexes Beispiel für das, was simulationstechnisch bereits im Bereich des Machbaren
liegt, und gleichsam für eine Anwendung, die zeigt, wie möglichst viele der im Rahmen dieser Arbeit entwickelten Methoden miteinander kombiniert werden können, wurde die
Calcium-Dynamik eines kompletten Dendriten innerhalb eines großen aktiven neuronalen Netzwerks simuliert.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
In diversen Wissenschaftsdisziplinen ist derzeit eine Konjunktur der Begriffe Modell und Modellierung zu beobachten. Darunter sind auch solche Disziplinen, die Begriff wie Praxis des Modells bislang nicht zu ihrem methodischen Kernbereich zählten. Die Aktualität des Begriffs wie die Notwendigkeit einer Arbeit mit Modellen zeigt sich beispielsweise im Kontext sogenannter 'global challenges' wie klimatischer oder ökonomischer Krisen, die immer schon die Zuständigkeit einzelner Wissenschaften überschreiten und eine interdisziplinäre Zusammenarbeit verlangen. Eine zunehmende Resonanz modellhaften Denkens lässt sich indessen auch dort erkennen, wo kanonische Themen aus dem Geltungsbereich der Geistes- und Kulturwissenschaften zur Diskussion stehen. Es liegt daher die Vermutung nahe, der Modellbegriff erweise sein Potenzial nicht nur hinsichtlich der Analyse und Prognose komplexer dynamischer Systeme, sondern auch im Hinblick auf die interdisziplinäre Untersuchung tradierter Gegenstände wie literarischer Formen und Epochen, deren geschichtlicher Wandel beleuchtet werden soll. Die neue Anschlussfähigkeit für literatur- und kulturwissenschaftliche Ansätze ist u. a. der jüngeren Modelltheorie zu verdanken, welche das Modell bzw. den Modellierungsvorgang selbst im Modell erfasst und zugleich auf die 'aktiven Potenziale' sowie auf die Grenzen von Modellen hinsichtlich ihres epistemischen Status oder ihrer Materialität hingewiesen hat.
Within the framework of the Transboundary Waters Assessment Programme (TWAP), initiated by the Global Environment Facility (GEF), we contributed to a comprehensive baseline assessment of transboundary aquifers (TBAs) by quantifying different groundwater indicators using the global water resources and water use model WaterGAP 2.2. All indicators were computed under current (2010) and projected conditions in 2030 and 2050 for 91 selected TBAs larger than 20,000 km2 and for each nation’s share of the TBAs (TBA-CU: country unit). TBA outlines were provided by the International Groundwater Resources Assessment Centre (IGRAC). The set of indicators comprises groundwater recharge, groundwater depletion, per-capita groundwater recharge, dependency on groundwater, population density, and groundwater development stress (groundwater withdrawals to groundwater recharge). Only the latter four indicators were projected to 2030 and 2050. Current-state indicators were quantified using the Watch Forcing Data climate dataset, while projections were based on five climate scenarios that were computed by five global climate models for the high-emissions scenario RCP 8.5. Water use projections were based on the Shared Socio-economic Pathway SSP2 developed within ISI-MIP. Furthermore, two scenarios of future irrigated areas were explored. For individual water use sectors, the fraction of groundwater abstraction was assumed to remain at the current level.
According to our assessment, aquifers with the highest current groundwater depletion rates worldwide are not transboundary. Exceptions are the Neogene Aquifer System (Syria) with 53 mm/yr between 2000 and 2009 and the Indus River Plain aquifer (India) with 28 mm/yr. For current conditions, we identified 20 out of 258 TBA-CUs suffering from medium to very high groundwater development stress, which are located in the Middle East and North Africa region, in South Asia, China, and the USA. Considering projections, ensemble means of per-cent changes or percent point changes to current conditions were determined. Per-capita groundwater recharge is projected to decrease in 80-90% of all TBA-CUs until 2030/2050. Due to the strongly varying projections of the global climate models, we applied a worst-case scenario approach to define future hotspots of groundwater development stress, taking into account the strongest computed increase until either 2030 or 2050 among all scenarios and individual GCMs. Based on this approach, the number of TBA-CUs under at least medium groundwater development stress increases from 20 to 58, comprising all hotspots under current conditions. New hotspots are projected to develop mainly in Sub-Saharan Africa, China, and Mexico.
In diversen Wissenschaftsdisziplinen ist derzeit eine Konjunktur der Begriffe Modell und Modellierung zu beobachten. Darunter sind auch solche Disziplinen, die Begriff wie Praxis des Modells bislang nicht zu ihrem methodischen Kernbereich zählten. Die Aktualität des Begriffs wie die Notwendigkeit einer Arbeit mit Modellen zeigt sich beispielsweise im Kontext sogenannter 'global challenges' wie klimatischer oder ökonomischer Krisen, die immer schon die Zuständigkeit einzelner Wissenschaften überschreiten und eine interdisziplinäre Zusammenarbeit verlangen. Eine zunehmende Resonanz modellhaften Denkens lässt sich indessen auch dort erkennen, wo kanonische Themen aus dem Geltungsbereich der Geistes- und Kulturwissenschaften zur Diskussion stehen. Es liegt daher die Vermutung nahe, der Modellbegriff erweise sein Potenzial nicht nur hinsichtlich der Analyse und Prognose komplexer dynamischer Systeme, sondern auch im Hinblick auf die interdisziplinäre Untersuchung tradierter Gegenstände wie literarischer Formen und Epochen, deren geschichtlicher Wandel beleuchtet werden soll. Die neue Anschlussfähigkeit für literatur- und kulturwissenschaftliche Ansätze ist u. a. der jüngeren Modelltheorie zu verdanken, welche das Modell bzw. den Modellierungsvorgang selbst im Modell erfasst und zugleich auf die 'aktiven Potenziale' sowie auf die Grenzen von Modellen hinsichtlich ihres epistemischen Status oder ihrer Materialität hingewiesen hat.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Flusssysteme im mediterranen Raum reagieren besonders sensitiv auf Veränderungen von Umweltbedingungen, z.B. durch Neotektonik, Klimaänderungen und Landnutzung. Geowissenschaftler der Goethe-Universität Frankfurt untersuchen in diesem Zusammenhang das Einzugsgebiet des Rio Palancia (Spanien), um über die Erstellung einer Sediment-Massenbilanzierung die Entwicklungsgeschichte des Systems zu erforschen. Zur Identifizierung und Quantifizierung verschiedener Sediment-Ablagerungstypen wurde das Georadarverfahren (GPR) eingesetzt. Ziel dieser Arbeit ist es, am Beispiel fluvialer Lockersedimente das Zustandekommen von Radargrammen noch besser zu verstehen und möglichst viel Information über den Untergrund aus einem Radargramm zu extrahieren. An 30 Standorten wurden GPR-Messungen durchgeführt und mit Geoelektrik und Rammkernsondierungen kombiniert. Die Einführung einer Bearbeitungs- und Auswertesystematik gewährleistet die Vergleichbarkeit von Radardaten unterschiedlicher Standorte. Als Besonderheit werden die Radargramme jeweils auf zwei verschiedene Arten bearbeitet und dargestellt, um sowohl Strukturen herauszuarbeiten als auch die – zumindest relative – Amplitudencharakteristik zu erhalten. Erst dadurch wird eine Auswertung mithilfe der erweiterten Radarstratigraphie-Methode möglich. Diese setzt sich aus der klassischen Radarstratigraphie und der neu entwickelten Reflexionsanalyse zusammen. Dabei werden systematisch Radar-Schichtflächen, Radareinheiten und Radarfazies ermittelt und anschließend die Amplitudengröße, die Polarität und die Breite der Reflexionen betrachtet. Die Radarstratigraphie liefert objektive Erkenntnisse über Form und Verlauf von Untergrundstrukturen, während mithilfe der Reflexionsanalyse Aussagen zu relativen Änderungen von Wassergehalt, Korngrößenverteilung und elektrischer Leitfähigkeit möglich sind. Mithilfe der Radarstratigraphie wurde die Radarantwort verschiedener Sediment-Ablagerungstypen im Untersuchungsgebiet verglichen. Die Radargramme zeigen unterschiedliche Zusammensetzungen von Radarfazies. Eine Unterscheidung und räumliche Abgrenzung verschiedener Ablagerungstypen mit GPR ist somit durchführbar. Die Dielektrizität des Mediums bestimmt, zusammen mit der elektrischen Leitfähigkeit, die Geschwindigkeit und Dämpfung der elektromagnetischen Welle sowie die Reflexionskoeffizienten. Um das Zustandekommen von Radargrammen im Detail nachvollziehen zu können, ist es notwendig, die Dielektrizitätskoeffizienten (DK) der untersuchten Sedimente zum Zeitpunkt der Messung zu kennen und die Abhängigkeit des DK von petrophysikalischen Parametern zu verstehen. Deshalb wurden Proben aus den Rammkernsondierungen entnommen. Im Labor wurden der Real- und Imaginärteil des DK im Radarfrequenzbereich (mit Schwerpunkt auf 200 MHz) in Abhängigkeit von Wassergehalt, Trockendichte, Korngrößenverteilung und Kalkgehalt mithilfe der Plattenkondensatormethode bestimmt. Der DK ist in erster Linie vom Wassergehalt abhängig. Es konnte eine für die Sedimente im Untersuchungsgebiet charakteristische Wassergehalts-DK-Beziehung ermittelt werden. Die resultierende Kurve ist gegenüber entsprechenden in der Fachliteratur zu findenden Beziehungen verschoben, was vermutlich auf die hohen Kalkgehalte der Proben zurückzuführen ist. Für trockene Sedimente wurde eine Korrelation des DK mit der Trockendichte festgestellt. Bei der Bestimmung der Absorptionskoeffizienten fiel auf, dass Proben mit hohem Tonanteil selbst bei geringen Wassergehalten außerordentlich hohe Dämpfungskoeffizienten aufweisen können. Die charakteristische Wassergehalts-DK-Beziehung wurde für Modellierungen von Radardaten genutzt, die dann mit Messdaten verglichen wurden. Über die Modellierung einer einzelnen Radarspur konnte die spezielle Charakteristik der entsprechenden gemessenen Spur erklärt werden, die durch den Einfluss einer dünnen Schicht zustande kommt, deren Mächtigkeit an der Grenze der theoretischen Auflösung für die verwendete Radarfrequenz liegt. Auf Basis der Erkenntnisse aus der erweiterten Radarstratigraphie an einem Radargramm auf fluvialen Lockersedimenten war es zudem möglich, ein komplettes Radargramm zu simulieren. Es gibt das gemessene Radargramm vereinfacht, aber in guter Übereinstimmung wieder. Die Georadarmethode erwies sich als sehr gut geeignet für die Untersuchung, Identifizierung und Quantifizierung fluvialer Sedimente im Palancia-Einzugsgebiet. Die im Rahmen dieser Doktorarbeit entwickelte erweiterte Radarstratigraphie-Methode stellt ein systematisches und weitgehend objektives Verfahren zur Auswertung von Radargrammen dar, das sich auch auf andere Untersuchungsgebiete übertragen lassen sollte. Durch Laboruntersuchungen wurde der Einfluss petrophysikalischer Parameter auf den DK bestimmt. Über die Modellierungen konnten die Ergebnisse großskaliger Geländemessungen mit denen kleinskaliger Labormessungen verknüpft werden. Die insgesamt gewonnenen Erkenntnisse tragen zu einem besseren Verständnis von Radargrammen bei.
Waldwachstumsmodelle sind ein ideales Werkzeug, um Auswirkungen veränderter Umweltbedingungen auf das Wachstum der Bäume aufzuzeigen. Ziel des Teilprojektes „Waldwachstumsreaktionen und Systemprozesse“ im Rahmen von ENFORCHANGE war, durch die Kombination von Wachstumsmodellen mit unterschiedlichen methodischen Ansätzen regionale Auswirkungen standörtlicher und klimatischer Veränderungen auf die Waldentwicklung zu analysieren und somit bessere Grundlagen für eine angepasste Forstbetriebsplanung zu schaffen. Anhand des physiologischen Wachstumsmodells BALANCE wurde der Einfluss der prognostizierten Klimaänderungen auf das Wachstum der Bäume abgeschätzt. Die für verschiedene Baumarten und regionaltypische Bestände gewonnenen Reaktionsmuster konnten anschließend in das managementorientierte Wachstumsmodell SILVA übertragen werden. Die Entwicklung repräsentativer Waldbestände wurde in SILVA für einen Zeitraum von 30 Jahren simuliert, wobei verschiedene Nutzungsszenarien untersucht wurden, um Handlungsspielräume und mögliche strategische Planungen für Forstbetriebe aufzuzeigen. Die gewonnenen Erkenntnisse für die praktische Betriebsplanung wurden am Beispiel des kommunalen Forstbetriebes Zittau dargestellt. Es wird deutlich, wie die Forstplanung von derartigen Szenarioanalysen profitieren kann. Die Simulationsrechnungen unter Annahme geänderter Klimaverhältnisse zeigen, dass die Bestände unter diesen Bedingungen ein verringertes Reaktionsvermögen auf waldbauliche Maßnahmen aufweisen, was insbesondere bei den Zuwächsen bemerkbar ist. Dabei haben Laubholzbestände, die bereits jetzt auf 27% der Betriebsfläche stocken, vermutlich eine Pufferwirkung und mildern die Auswirkungen der Klimaänderungen auf die Produktivität des Gesamtbetriebes ab.
Die vorliegende Untersuchung wurde im Rahmen des Verbundprojekts „BIOTA West Afrika“ durchgeführt und befasst sich mit der raum/zeitlichen Analyse der Landbedeckung und der räumlichen Modellierung von Mustern der Pflanzenvielfalt in drei Untersuchungsgebieten in Burkina Faso und Benin. Der erste Teil der Untersuchung beinhaltet die Dokumentation und Analyse der Landbedeckung und Landnutzung und ihrer raum/zeitlichen Veränderungen entlang eines Klimagradienten vom ariden Norden Burkina Fasos bis in den semiariden Norden Benins. Auf der Basis von multitemporalen LANDSAT - Satellitendaten und umfangreichen Geländedaten werden im sahelischen und den sudanischen Untersuchungsgebieten Karten der Landbedeckung mit hoher räumlicher und thematischer Auflösung erstellt. Je nach Untersuchungsgebiet können zwischen zehn und fünfzehn Landbedeckungsklassen differenziert werden. Die Gesamtklassifikationsgüte erreicht Werte zwischen 74% und 87%. In den sudanischen Untersuchungsgebieten werden Landnutzungsveränderungen mit Hilfe von LANDSAT - Satellitendaten, Luftbildern und Geländedaten über einen Zeitraum von ca. 15 Jahren (1986 – 2001) dokumentiert. Für beide Untersuchungsgebiete werden gravierende Landnutzungsveränderungen festgestellt. Der Anteil der ackerbaulich genutzten Fläche steigt für das nordsudanische Untersuchungsgebiet von 17% auf 41% und für das südsudanische Untersuchungsgebiet von 10% auf 14%. Im Mittelpunkt des zweiten Teils dieser Untersuchung steht die Frage nach den räumlichen Mustern der Pflanzenvielfalt und ihrer zeitlichen Veränderungen in den Untersuchungsgebieten der Sahel-, der Nord- und Südsudanzone. Zur Bearbeitung dieser Aufgabenstellungen kommt ein breites Methodenspektrum zur Anwendung. Kernstück der Untersuchung ist die Entwicklung eines verbesserten methodischen Ansatzes der Biodiversitätsmodellierung. Dazu werden bereits existierende räumliche Modellierungsansätze durch die Einbindung von Satellitendaten weiterentwickelt. Auf der Basis von georeferenzierten botanischen Daten (aktuell über 4500 pflanzensoziologische Aufnahmen mit insgesamt 104000 Datensätzen) werden für das sahelische, nord- und südsudanische Untersuchungsgebiet modellierte Verbreitungskarten von 138, 123 und 165 Pflanzenarten erstellt. Die Güte der Karten wird auf der Basis von unabhängigen Geländedaten überprüft. Die einzelnen Verbreitungskarten werden gebietsweise zusammengefasst, so dass im Ergebnis für jedes Untersuchungsgebiet eine hochauflösende Karte der Pflanzenvielfalt vorliegt. Im Rahmen einer Fallstudie werden die zeitlichen Veränderungen der Verbreitungsgebiete von Nutzbaumarten über einen Zeitraum von 13 Jahren untersucht. Es werden aktuelle und historische Verbreitungsgebiete der Nutzbaumarten auf der Basis von hochauflösenden Satellitendaten modelliert und die Veränderungen der Verbreitungsgebiete vor dem Hintergrund des Landnutzungswandels im Untersuchungsgebiet analysiert. Für 17 der 18 untersuchten Baumarten werden rückgängige Verbreitungsgebiete beobachtet.
It is commonly agreed that cortical information processing is based on the electric discharges (spikes') of nerve cells. Evidence is accumulating which suggests that the temporal interaction among a large number of neurons can take place with high precision, indicating that the efficiency of cortical processing may depend crucially on the precise spike timing of many cells. This work focuses on two temporal properties of parallel spike trains that attracted growing interest in the recent years: In the first place, specific delays (phase offsets') between the firing times of two spike trains are investigated. In particular, it is studied whether small phase offsets can be identified with confidence between two spike trains that have the tendency to fire almost simultaneously. Second, the temporal relations between multiple spike trains are investigated on the basis of such small offsets between pairs of processes. Since the analysis of all delays among the firing activity of n neurons is extremely complex, a method is required with which this highly dimensional information can be collapsed in a straightforward manner such that the temporal interaction among a large number of neurons can be represented consistently in a single temporal map. Finally, a stochastic model is presented that provides a framework to integrate and explain the observed temporal relations that result from the previous analyses.
Artificial drainage of agricultural land, for example with ditches or drainage tubes, is used to avoid water logging and to manage high groundwater tables. Among other impacts it influences the nutrient balances by increasing leaching losses and by decreasing denitrification. To simulate terrestrial transport of nitrogen on the global scale, a digital global map of artificially drained agricultural areas was developed. The map depicts the percentage of each 5’ by 5’ grid cell that is equipped for artificial drainage. Information on artificial drainage in countries or sub-national units was mainly derived from international inventories. Distribution to grid cells was based, for most countries, on the "Global Croplands Dataset" of Ramankutty et al. (1998) and the "Digital Global Map of Irrigation Areas" of Siebert et al. (2005). For some European countries the CORINE land cover dataset was used instead of the both datasets mentioned above. Maps with outlines of artificially drained areas were available for 6 countries. The global drainage area on the map is 167 Mio hectares. For only 11 out of the 116 countries with information on artificial drainage areas, sub-national information could be taken into account. Due to this coarse spatial resolution of the data sources, we recommended to use the map of artificially drained areas only for continental to global scale assessments. This documentation describes the dataset, the data sources and the map generation, and it discusses the data uncertainty.
Groundwater recharge is the major limiting factor for the sustainable use of groundwater. To support water management in a globalized world, it is necessary to estimate, in a spatially resolved way, global-scale groundwater recharge. In this report, improved model estimates of diffuse groundwater recharge at the global-scale, with a spatial resolution of 0.5° by 0.5°, are presented. They are based on calculations of the global hydrological model WGHM (WaterGAP Global Hydrology Model) which, for semi-arid and arid areas of the globe, was tuned against independent point estimates of diffuse groundwater recharge. This has led to a decrease of estimated groundwater recharge under semi-arid and arid conditions as compared to the model results before tuning, and the new estimates are more similar to country level data on groundwater recharge. Using the improved model, the impact of climate change on groundwater recharge was simulated, applying two greenhouse gas emissions scenarios as interpreted by two different climate models.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.