Refine
Document Type
- Article (6)
- Doctoral Thesis (5)
- Working Paper (3)
- Part of Periodical (2)
Has Fulltext
- yes (16)
Is part of the Bibliography
- no (16)
Keywords
- Modellierung (16) (remove)
Institute
- Geowissenschaften (4)
- Geographie (2)
- Informatik (1)
- Mathematik (1)
- Physik (1)
It is commonly agreed that cortical information processing is based on the electric discharges (spikes') of nerve cells. Evidence is accumulating which suggests that the temporal interaction among a large number of neurons can take place with high precision, indicating that the efficiency of cortical processing may depend crucially on the precise spike timing of many cells. This work focuses on two temporal properties of parallel spike trains that attracted growing interest in the recent years: In the first place, specific delays (phase offsets') between the firing times of two spike trains are investigated. In particular, it is studied whether small phase offsets can be identified with confidence between two spike trains that have the tendency to fire almost simultaneously. Second, the temporal relations between multiple spike trains are investigated on the basis of such small offsets between pairs of processes. Since the analysis of all delays among the firing activity of n neurons is extremely complex, a method is required with which this highly dimensional information can be collapsed in a straightforward manner such that the temporal interaction among a large number of neurons can be represented consistently in a single temporal map. Finally, a stochastic model is presented that provides a framework to integrate and explain the observed temporal relations that result from the previous analyses.
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
Dieser Arbeit war zum Ziel gesetzt, Methoden zur Simulation von neuronalen Prozessen zu entwickeln, zu implementieren, einzusetzen und zu vergleichen. Ein besonderes Augenmerk lag dabei auf der Frage, wo eine volle räumliche Auflösung der Modelle benötigt wird und wo darauf zugunsten von vereinfachenden niederdimensionalen Modellen, die wesentlich weniger Ressourcen und mathematischen Sachverstand erfordern, verzichtet werden kann. Außerdem wurde speziell bei der Beschreibung der verschiedenen Modelle für die Elektrik der Nervenzellen das Anliegen verfolgt, deren Zusammenhänge und die Natur vereinfachender Annahmen herauszuarbeiten, um deutlich zu machen, an welchen Stellen Probleme bei der Benutzung der weniger komplexen Modelle auftreten können.
In etlichen Beispielen wurde daraufhin untersucht, inwieweit die Vereinfachung auf ein eindimensionales Kabelmodell sowie der Verzicht auf die Betrachtung einzelner Ionensorten die realistische Darstellung der zellulären Elektrik beeinträchtigen können. Dabei stellte sich heraus, dass alle betrachteten Modelle für das rein elektrische Verhalten der Neuronen im Wesentlichen dieselben Ergebnisse liefern, weshalb zu dessen Simulation in den allermeisten Fällen ein 1D-Kabelmodell völlig ausreichend und angezeigt sein dürfte.
Nur wenn Größen von Interesse sind, die in diesem Modell nicht erfasst werden, etwa das Außenraumpotential oder die Ionenkonzentrationen, muss auf genauere Modelle zurückgegriffen werden. Außerdem ist in einer Konvergenzstudie exemplarisch vorgeführt worden, dass bereits eine recht grobe Darstellung der zugrundeliegenden Rechengitter genügt, um korrekte Ergebnisse bei der Simulation der rein elektrischen Signale sicherzustellen.
In scharfem Kontrast steht hierzu die Simulation von einzelnen Ionen-Dynamiken. Bereits in der Untersuchung des Poisson-Nernst-Planck-Modells für das Membranpotential erwies sich, dass für eine korrekte Simulation der diffusiven Anteile der Ionenbewegung wesentlich feinere Gitter benötigt werden.
Noch viel deutlicher wurde dies in Simulationen von Calcium-Wellen in Dendriten, wo -- neben anderen Einsichten -- aufgezeigt werden konnte, dass nicht nur eine feine axiale
(und Zeit-) Auflösung der Dendritengeometrie zur Sicherstellung exakter Ergebnisse notwendig ist, sondern auch die räumliche Auflösung in die übrigen Dimensionen wichtig ist, weswegen eine eindimensionale Kabeldarstellung der Calcium-Dynamik erheblich fehlerbehaftet und
(jedenfalls im Zusammenhang mit Ryanodin-Rezeptorkanälen) von deren Nutzung dringend abzuraten ist. Auch die Darstellung von Kanälen als eine kontinuierliche Dichte in der Membran kann, wie darüber hinaus vorgeführt wurde, problematisch sein.
Ihre exaktere Modellierung, etwa durch Einbettung auch probabilistischer Einzelkanaldarstellungen in das räumliche Modell sollte in zukünftigen Arbeiten noch mehr thematisiert werden.
Mit Blick auf die Wiederverwendbarkeit bereits implementierter Funktionalität innerhalb dieser Arbeiten wurden spezielle Teile dieser Funktionalität hier in einem gesonderten
Kapitel genauer beschrieben. Als komplexes Beispiel für das, was simulationstechnisch bereits im Bereich des Machbaren
liegt, und gleichsam für eine Anwendung, die zeigt, wie möglichst viele der im Rahmen dieser Arbeit entwickelten Methoden miteinander kombiniert werden können, wurde die
Calcium-Dynamik eines kompletten Dendriten innerhalb eines großen aktiven neuronalen Netzwerks simuliert.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Within the framework of the Transboundary Waters Assessment Programme (TWAP), initiated by the Global Environment Facility (GEF), we contributed to a comprehensive baseline assessment of transboundary aquifers (TBAs) by quantifying different groundwater indicators using the global water resources and water use model WaterGAP 2.2. All indicators were computed under current (2010) and projected conditions in 2030 and 2050 for 91 selected TBAs larger than 20,000 km2 and for each nation’s share of the TBAs (TBA-CU: country unit). TBA outlines were provided by the International Groundwater Resources Assessment Centre (IGRAC). The set of indicators comprises groundwater recharge, groundwater depletion, per-capita groundwater recharge, dependency on groundwater, population density, and groundwater development stress (groundwater withdrawals to groundwater recharge). Only the latter four indicators were projected to 2030 and 2050. Current-state indicators were quantified using the Watch Forcing Data climate dataset, while projections were based on five climate scenarios that were computed by five global climate models for the high-emissions scenario RCP 8.5. Water use projections were based on the Shared Socio-economic Pathway SSP2 developed within ISI-MIP. Furthermore, two scenarios of future irrigated areas were explored. For individual water use sectors, the fraction of groundwater abstraction was assumed to remain at the current level.
According to our assessment, aquifers with the highest current groundwater depletion rates worldwide are not transboundary. Exceptions are the Neogene Aquifer System (Syria) with 53 mm/yr between 2000 and 2009 and the Indus River Plain aquifer (India) with 28 mm/yr. For current conditions, we identified 20 out of 258 TBA-CUs suffering from medium to very high groundwater development stress, which are located in the Middle East and North Africa region, in South Asia, China, and the USA. Considering projections, ensemble means of per-cent changes or percent point changes to current conditions were determined. Per-capita groundwater recharge is projected to decrease in 80-90% of all TBA-CUs until 2030/2050. Due to the strongly varying projections of the global climate models, we applied a worst-case scenario approach to define future hotspots of groundwater development stress, taking into account the strongest computed increase until either 2030 or 2050 among all scenarios and individual GCMs. Based on this approach, the number of TBA-CUs under at least medium groundwater development stress increases from 20 to 58, comprising all hotspots under current conditions. New hotspots are projected to develop mainly in Sub-Saharan Africa, China, and Mexico.
Groundwater recharge is the major limiting factor for the sustainable use of groundwater. To support water management in a globalized world, it is necessary to estimate, in a spatially resolved way, global-scale groundwater recharge. In this report, improved model estimates of diffuse groundwater recharge at the global-scale, with a spatial resolution of 0.5° by 0.5°, are presented. They are based on calculations of the global hydrological model WGHM (WaterGAP Global Hydrology Model) which, for semi-arid and arid areas of the globe, was tuned against independent point estimates of diffuse groundwater recharge. This has led to a decrease of estimated groundwater recharge under semi-arid and arid conditions as compared to the model results before tuning, and the new estimates are more similar to country level data on groundwater recharge. Using the improved model, the impact of climate change on groundwater recharge was simulated, applying two greenhouse gas emissions scenarios as interpreted by two different climate models.
In diversen Wissenschaftsdisziplinen ist derzeit eine Konjunktur der Begriffe Modell und Modellierung zu beobachten. Darunter sind auch solche Disziplinen, die Begriff wie Praxis des Modells bislang nicht zu ihrem methodischen Kernbereich zählten. Die Aktualität des Begriffs wie die Notwendigkeit einer Arbeit mit Modellen zeigt sich beispielsweise im Kontext sogenannter 'global challenges' wie klimatischer oder ökonomischer Krisen, die immer schon die Zuständigkeit einzelner Wissenschaften überschreiten und eine interdisziplinäre Zusammenarbeit verlangen. Eine zunehmende Resonanz modellhaften Denkens lässt sich indessen auch dort erkennen, wo kanonische Themen aus dem Geltungsbereich der Geistes- und Kulturwissenschaften zur Diskussion stehen. Es liegt daher die Vermutung nahe, der Modellbegriff erweise sein Potenzial nicht nur hinsichtlich der Analyse und Prognose komplexer dynamischer Systeme, sondern auch im Hinblick auf die interdisziplinäre Untersuchung tradierter Gegenstände wie literarischer Formen und Epochen, deren geschichtlicher Wandel beleuchtet werden soll. Die neue Anschlussfähigkeit für literatur- und kulturwissenschaftliche Ansätze ist u. a. der jüngeren Modelltheorie zu verdanken, welche das Modell bzw. den Modellierungsvorgang selbst im Modell erfasst und zugleich auf die 'aktiven Potenziale' sowie auf die Grenzen von Modellen hinsichtlich ihres epistemischen Status oder ihrer Materialität hingewiesen hat.
In diversen Wissenschaftsdisziplinen ist derzeit eine Konjunktur der Begriffe Modell und Modellierung zu beobachten. Darunter sind auch solche Disziplinen, die Begriff wie Praxis des Modells bislang nicht zu ihrem methodischen Kernbereich zählten. Die Aktualität des Begriffs wie die Notwendigkeit einer Arbeit mit Modellen zeigt sich beispielsweise im Kontext sogenannter 'global challenges' wie klimatischer oder ökonomischer Krisen, die immer schon die Zuständigkeit einzelner Wissenschaften überschreiten und eine interdisziplinäre Zusammenarbeit verlangen. Eine zunehmende Resonanz modellhaften Denkens lässt sich indessen auch dort erkennen, wo kanonische Themen aus dem Geltungsbereich der Geistes- und Kulturwissenschaften zur Diskussion stehen. Es liegt daher die Vermutung nahe, der Modellbegriff erweise sein Potenzial nicht nur hinsichtlich der Analyse und Prognose komplexer dynamischer Systeme, sondern auch im Hinblick auf die interdisziplinäre Untersuchung tradierter Gegenstände wie literarischer Formen und Epochen, deren geschichtlicher Wandel beleuchtet werden soll. Die neue Anschlussfähigkeit für literatur- und kulturwissenschaftliche Ansätze ist u. a. der jüngeren Modelltheorie zu verdanken, welche das Modell bzw. den Modellierungsvorgang selbst im Modell erfasst und zugleich auf die 'aktiven Potenziale' sowie auf die Grenzen von Modellen hinsichtlich ihres epistemischen Status oder ihrer Materialität hingewiesen hat.