Refine
Document Type
- Article (6)
- Doctoral Thesis (4)
- Part of Periodical (2)
Language
- German (12) (remove)
Has Fulltext
- yes (12) (remove)
Is part of the Bibliography
- no (12) (remove)
Keywords
- Modellierung (12) (remove)
Institute
- Geowissenschaften (2)
- Geographie (1)
- Informatik (1)
- Physik (1)
Für eine möglichst vollständige analytische Beschreibung werden in der statistischen Klimatologie beobachtete Klimazeitreihen als Realisation eines stochastischen Prozesses, das heißt als eine Folge von Zufallsvariablen verstanden. Die Zeitreihe soll im wesentlichen durch eine analytische Funktion der Zeit beschrieben werden können und die Beobachtung nur durch Zufallseinflüsse von dieser Funktion abweichen. Diese analytische Funktion setzt sich aus der Summe zeitlich strukturierter Komponenten zusammen, welche aus klimatologischem Blickwinkel interpretierbar erscheinen. Es werden Funktionen zugelassen, die den Jahresgang, Trends, episodische Komponenten und deren Änderung beschreiben. Die Extremereignisse sind als eine besondere weitere Komponente in die Zeitreihenanalyse aufgenommen und als von Änderungen in den Parametern der Verteilung unabhängige, extreme Werte definiert. Die Zufallseinflüsse sollen zunächst als Realisierungen unabhängiger normalverteilter Zufallsvariablen mit dem Erwartungswert Null und im Zeitablauf konstanter Varianz interpretiert werden können. In diesem Fall beschreibt die analytische Funktion der Zeit, die Summe detektierter strukturierter Komponenten, den zeitlichen Verlauf des Mittels. Ein zu einem bestimmten Zeitpunkt tatsächlich beobachteter Wert kann dann als eine mögliche Realisation einer Zufallsvariablen interpretiert werden, die der Gaußverteilung mit dem Mittelwert µ(t) zur Zeit t und konstanter Varianz genügt. Da die zugrundeliegenden Annahmen, unter Verwendung klimatologisch interpretierbarer Basisfunktionen, in der Analyse von Klimazeitreihen, die nicht die Temperatur betreffen, zumeist nicht erfüllt sind, wird in eine Verallgemeinerung des Konzepts der Zeitreihenzerlegung in einen deterministischen und einen statistischen Anteil eingeführt. Zeitlich strukturierte Änderungen werden nun in verschiedenen Verteilungsparametern frei wählbarer Wahrscheinlichkeitsdichtefunktionen gesucht. Die gängige Beschränkung auf die Schätzung einer zeitlich veränderlichen Lokation wird aufgehoben. Skalenschätzer sowie Schätzer fär den Formparameter spielen ebenso relevante Rollen fär die Beschreibung beobachteter Klimavariabilität. Die Klimazeitreihen werden wieder als Realisation eines Zufallprozesses verstanden, jedoch genügen die Zufallsvariablen nun einer frei wählbaren Wahrscheinlichkeitsdichtefunktion. Die zeitlich strukturierten Änderungen in den Verteilungsparametern werden auf Basis der gesamten Zeitreihe für jeden Zeitpunkt geschätzt. Die aus der Analyse resultierende analytische Beschreibung in Form einer zeitabhängigen Wahrscheinlichkeitsdichtefunktion ermöglicht weiterhin die Schätzung von Über- und Unterschreitungswahrscheinlichkeiten beliebig wählbarer Schwellenwerte für jeden Zeitpunkt des Beobachtungszeitraums. Diese Methode erlaubt insbesondere eine statistische Modellierung monatlicher Niederschlagsreihen durch die Zerlegung in einen deterministischen und einen statistischen Anteil. In dem speziellen Fall von 132 Reihen monatlicher Niederschlagssummen deutscher Stationen 1901-2000 gelingt eine vollständige analytische Beschreibung der Reihen durch ihre Interpretation als Realisation einer Gumbel-verteilten Zufallsvariablen mit variablem Lage- und Streuparameter. Auf Basis der gewonnenen analytischen Beschreibung der Reihen kann beispielsweise im Westen Deutschlands auf Verschiebungen der jährlichen Überschreitungsmaxima des 95%-Perzentils von den Sommer- in die Wintermonate geschlossen werden. Sie werden durch relativ starke Anstiege in der Überschreitungswahrscheinlichkeit (bis 10%) in den Wintermonaten und nur geringe Zunahmen oder aber Abnahmen in den Sommermonaten hervorgerufen. Dies geht mit einer Zunahme der Unterschreitungswahrscheinlichkeit in den Winter- und einer Abnahme in den Sommermonaten einher. Monte-Carlo-Simulationen zeigen, daß jahreszeitlich differenzierte Schätzungen von Änderungen im Erwartungswert, also gebräuchliche Trends, auf Basis der Kleinst-Quadrate-Methode systematischen Bias und hohe Varianz aufweisen. Eine Schätzung der Trends im Mittel auf Basis der statistischen Modellierung ist somit ebenso den Kleinst-Quadrate-Schätzern vorzuziehen. Hinsichtlich der Niederschlagsanalysen stellen jedoch aride Gebiete, mit sehr seltenen Niederschlägen zu bestimmten Jahreszeiten, die Grenze der Methode dar, denn zu diesen Zeitpunkten ist eine vertrauenswürdige Schätzung einer Wahrscheinlichkeitsdichtefunktion nicht möglich. In solchen Fällen ist eine grundsätzlich andere Herangehensweise zur Modellierung der Reihen erforderlich.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Flusssysteme im mediterranen Raum reagieren besonders sensitiv auf Veränderungen von Umweltbedingungen, z.B. durch Neotektonik, Klimaänderungen und Landnutzung. Geowissenschaftler der Goethe-Universität Frankfurt untersuchen in diesem Zusammenhang das Einzugsgebiet des Rio Palancia (Spanien), um über die Erstellung einer Sediment-Massenbilanzierung die Entwicklungsgeschichte des Systems zu erforschen. Zur Identifizierung und Quantifizierung verschiedener Sediment-Ablagerungstypen wurde das Georadarverfahren (GPR) eingesetzt. Ziel dieser Arbeit ist es, am Beispiel fluvialer Lockersedimente das Zustandekommen von Radargrammen noch besser zu verstehen und möglichst viel Information über den Untergrund aus einem Radargramm zu extrahieren. An 30 Standorten wurden GPR-Messungen durchgeführt und mit Geoelektrik und Rammkernsondierungen kombiniert. Die Einführung einer Bearbeitungs- und Auswertesystematik gewährleistet die Vergleichbarkeit von Radardaten unterschiedlicher Standorte. Als Besonderheit werden die Radargramme jeweils auf zwei verschiedene Arten bearbeitet und dargestellt, um sowohl Strukturen herauszuarbeiten als auch die – zumindest relative – Amplitudencharakteristik zu erhalten. Erst dadurch wird eine Auswertung mithilfe der erweiterten Radarstratigraphie-Methode möglich. Diese setzt sich aus der klassischen Radarstratigraphie und der neu entwickelten Reflexionsanalyse zusammen. Dabei werden systematisch Radar-Schichtflächen, Radareinheiten und Radarfazies ermittelt und anschließend die Amplitudengröße, die Polarität und die Breite der Reflexionen betrachtet. Die Radarstratigraphie liefert objektive Erkenntnisse über Form und Verlauf von Untergrundstrukturen, während mithilfe der Reflexionsanalyse Aussagen zu relativen Änderungen von Wassergehalt, Korngrößenverteilung und elektrischer Leitfähigkeit möglich sind. Mithilfe der Radarstratigraphie wurde die Radarantwort verschiedener Sediment-Ablagerungstypen im Untersuchungsgebiet verglichen. Die Radargramme zeigen unterschiedliche Zusammensetzungen von Radarfazies. Eine Unterscheidung und räumliche Abgrenzung verschiedener Ablagerungstypen mit GPR ist somit durchführbar. Die Dielektrizität des Mediums bestimmt, zusammen mit der elektrischen Leitfähigkeit, die Geschwindigkeit und Dämpfung der elektromagnetischen Welle sowie die Reflexionskoeffizienten. Um das Zustandekommen von Radargrammen im Detail nachvollziehen zu können, ist es notwendig, die Dielektrizitätskoeffizienten (DK) der untersuchten Sedimente zum Zeitpunkt der Messung zu kennen und die Abhängigkeit des DK von petrophysikalischen Parametern zu verstehen. Deshalb wurden Proben aus den Rammkernsondierungen entnommen. Im Labor wurden der Real- und Imaginärteil des DK im Radarfrequenzbereich (mit Schwerpunkt auf 200 MHz) in Abhängigkeit von Wassergehalt, Trockendichte, Korngrößenverteilung und Kalkgehalt mithilfe der Plattenkondensatormethode bestimmt. Der DK ist in erster Linie vom Wassergehalt abhängig. Es konnte eine für die Sedimente im Untersuchungsgebiet charakteristische Wassergehalts-DK-Beziehung ermittelt werden. Die resultierende Kurve ist gegenüber entsprechenden in der Fachliteratur zu findenden Beziehungen verschoben, was vermutlich auf die hohen Kalkgehalte der Proben zurückzuführen ist. Für trockene Sedimente wurde eine Korrelation des DK mit der Trockendichte festgestellt. Bei der Bestimmung der Absorptionskoeffizienten fiel auf, dass Proben mit hohem Tonanteil selbst bei geringen Wassergehalten außerordentlich hohe Dämpfungskoeffizienten aufweisen können. Die charakteristische Wassergehalts-DK-Beziehung wurde für Modellierungen von Radardaten genutzt, die dann mit Messdaten verglichen wurden. Über die Modellierung einer einzelnen Radarspur konnte die spezielle Charakteristik der entsprechenden gemessenen Spur erklärt werden, die durch den Einfluss einer dünnen Schicht zustande kommt, deren Mächtigkeit an der Grenze der theoretischen Auflösung für die verwendete Radarfrequenz liegt. Auf Basis der Erkenntnisse aus der erweiterten Radarstratigraphie an einem Radargramm auf fluvialen Lockersedimenten war es zudem möglich, ein komplettes Radargramm zu simulieren. Es gibt das gemessene Radargramm vereinfacht, aber in guter Übereinstimmung wieder. Die Georadarmethode erwies sich als sehr gut geeignet für die Untersuchung, Identifizierung und Quantifizierung fluvialer Sedimente im Palancia-Einzugsgebiet. Die im Rahmen dieser Doktorarbeit entwickelte erweiterte Radarstratigraphie-Methode stellt ein systematisches und weitgehend objektives Verfahren zur Auswertung von Radargrammen dar, das sich auch auf andere Untersuchungsgebiete übertragen lassen sollte. Durch Laboruntersuchungen wurde der Einfluss petrophysikalischer Parameter auf den DK bestimmt. Über die Modellierungen konnten die Ergebnisse großskaliger Geländemessungen mit denen kleinskaliger Labormessungen verknüpft werden. Die insgesamt gewonnenen Erkenntnisse tragen zu einem besseren Verständnis von Radargrammen bei.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.
Waldwachstumsmodelle sind ein ideales Werkzeug, um Auswirkungen veränderter Umweltbedingungen auf das Wachstum der Bäume aufzuzeigen. Ziel des Teilprojektes „Waldwachstumsreaktionen und Systemprozesse“ im Rahmen von ENFORCHANGE war, durch die Kombination von Wachstumsmodellen mit unterschiedlichen methodischen Ansätzen regionale Auswirkungen standörtlicher und klimatischer Veränderungen auf die Waldentwicklung zu analysieren und somit bessere Grundlagen für eine angepasste Forstbetriebsplanung zu schaffen. Anhand des physiologischen Wachstumsmodells BALANCE wurde der Einfluss der prognostizierten Klimaänderungen auf das Wachstum der Bäume abgeschätzt. Die für verschiedene Baumarten und regionaltypische Bestände gewonnenen Reaktionsmuster konnten anschließend in das managementorientierte Wachstumsmodell SILVA übertragen werden. Die Entwicklung repräsentativer Waldbestände wurde in SILVA für einen Zeitraum von 30 Jahren simuliert, wobei verschiedene Nutzungsszenarien untersucht wurden, um Handlungsspielräume und mögliche strategische Planungen für Forstbetriebe aufzuzeigen. Die gewonnenen Erkenntnisse für die praktische Betriebsplanung wurden am Beispiel des kommunalen Forstbetriebes Zittau dargestellt. Es wird deutlich, wie die Forstplanung von derartigen Szenarioanalysen profitieren kann. Die Simulationsrechnungen unter Annahme geänderter Klimaverhältnisse zeigen, dass die Bestände unter diesen Bedingungen ein verringertes Reaktionsvermögen auf waldbauliche Maßnahmen aufweisen, was insbesondere bei den Zuwächsen bemerkbar ist. Dabei haben Laubholzbestände, die bereits jetzt auf 27% der Betriebsfläche stocken, vermutlich eine Pufferwirkung und mildern die Auswirkungen der Klimaänderungen auf die Produktivität des Gesamtbetriebes ab.
Die vorliegende Untersuchung wurde im Rahmen des Verbundprojekts „BIOTA West Afrika“ durchgeführt und befasst sich mit der raum/zeitlichen Analyse der Landbedeckung und der räumlichen Modellierung von Mustern der Pflanzenvielfalt in drei Untersuchungsgebieten in Burkina Faso und Benin. Der erste Teil der Untersuchung beinhaltet die Dokumentation und Analyse der Landbedeckung und Landnutzung und ihrer raum/zeitlichen Veränderungen entlang eines Klimagradienten vom ariden Norden Burkina Fasos bis in den semiariden Norden Benins. Auf der Basis von multitemporalen LANDSAT - Satellitendaten und umfangreichen Geländedaten werden im sahelischen und den sudanischen Untersuchungsgebieten Karten der Landbedeckung mit hoher räumlicher und thematischer Auflösung erstellt. Je nach Untersuchungsgebiet können zwischen zehn und fünfzehn Landbedeckungsklassen differenziert werden. Die Gesamtklassifikationsgüte erreicht Werte zwischen 74% und 87%. In den sudanischen Untersuchungsgebieten werden Landnutzungsveränderungen mit Hilfe von LANDSAT - Satellitendaten, Luftbildern und Geländedaten über einen Zeitraum von ca. 15 Jahren (1986 – 2001) dokumentiert. Für beide Untersuchungsgebiete werden gravierende Landnutzungsveränderungen festgestellt. Der Anteil der ackerbaulich genutzten Fläche steigt für das nordsudanische Untersuchungsgebiet von 17% auf 41% und für das südsudanische Untersuchungsgebiet von 10% auf 14%. Im Mittelpunkt des zweiten Teils dieser Untersuchung steht die Frage nach den räumlichen Mustern der Pflanzenvielfalt und ihrer zeitlichen Veränderungen in den Untersuchungsgebieten der Sahel-, der Nord- und Südsudanzone. Zur Bearbeitung dieser Aufgabenstellungen kommt ein breites Methodenspektrum zur Anwendung. Kernstück der Untersuchung ist die Entwicklung eines verbesserten methodischen Ansatzes der Biodiversitätsmodellierung. Dazu werden bereits existierende räumliche Modellierungsansätze durch die Einbindung von Satellitendaten weiterentwickelt. Auf der Basis von georeferenzierten botanischen Daten (aktuell über 4500 pflanzensoziologische Aufnahmen mit insgesamt 104000 Datensätzen) werden für das sahelische, nord- und südsudanische Untersuchungsgebiet modellierte Verbreitungskarten von 138, 123 und 165 Pflanzenarten erstellt. Die Güte der Karten wird auf der Basis von unabhängigen Geländedaten überprüft. Die einzelnen Verbreitungskarten werden gebietsweise zusammengefasst, so dass im Ergebnis für jedes Untersuchungsgebiet eine hochauflösende Karte der Pflanzenvielfalt vorliegt. Im Rahmen einer Fallstudie werden die zeitlichen Veränderungen der Verbreitungsgebiete von Nutzbaumarten über einen Zeitraum von 13 Jahren untersucht. Es werden aktuelle und historische Verbreitungsgebiete der Nutzbaumarten auf der Basis von hochauflösenden Satellitendaten modelliert und die Veränderungen der Verbreitungsgebiete vor dem Hintergrund des Landnutzungswandels im Untersuchungsgebiet analysiert. Für 17 der 18 untersuchten Baumarten werden rückgängige Verbreitungsgebiete beobachtet.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Dieser Arbeit war zum Ziel gesetzt, Methoden zur Simulation von neuronalen Prozessen zu entwickeln, zu implementieren, einzusetzen und zu vergleichen. Ein besonderes Augenmerk lag dabei auf der Frage, wo eine volle räumliche Auflösung der Modelle benötigt wird und wo darauf zugunsten von vereinfachenden niederdimensionalen Modellen, die wesentlich weniger Ressourcen und mathematischen Sachverstand erfordern, verzichtet werden kann. Außerdem wurde speziell bei der Beschreibung der verschiedenen Modelle für die Elektrik der Nervenzellen das Anliegen verfolgt, deren Zusammenhänge und die Natur vereinfachender Annahmen herauszuarbeiten, um deutlich zu machen, an welchen Stellen Probleme bei der Benutzung der weniger komplexen Modelle auftreten können.
In etlichen Beispielen wurde daraufhin untersucht, inwieweit die Vereinfachung auf ein eindimensionales Kabelmodell sowie der Verzicht auf die Betrachtung einzelner Ionensorten die realistische Darstellung der zellulären Elektrik beeinträchtigen können. Dabei stellte sich heraus, dass alle betrachteten Modelle für das rein elektrische Verhalten der Neuronen im Wesentlichen dieselben Ergebnisse liefern, weshalb zu dessen Simulation in den allermeisten Fällen ein 1D-Kabelmodell völlig ausreichend und angezeigt sein dürfte.
Nur wenn Größen von Interesse sind, die in diesem Modell nicht erfasst werden, etwa das Außenraumpotential oder die Ionenkonzentrationen, muss auf genauere Modelle zurückgegriffen werden. Außerdem ist in einer Konvergenzstudie exemplarisch vorgeführt worden, dass bereits eine recht grobe Darstellung der zugrundeliegenden Rechengitter genügt, um korrekte Ergebnisse bei der Simulation der rein elektrischen Signale sicherzustellen.
In scharfem Kontrast steht hierzu die Simulation von einzelnen Ionen-Dynamiken. Bereits in der Untersuchung des Poisson-Nernst-Planck-Modells für das Membranpotential erwies sich, dass für eine korrekte Simulation der diffusiven Anteile der Ionenbewegung wesentlich feinere Gitter benötigt werden.
Noch viel deutlicher wurde dies in Simulationen von Calcium-Wellen in Dendriten, wo -- neben anderen Einsichten -- aufgezeigt werden konnte, dass nicht nur eine feine axiale
(und Zeit-) Auflösung der Dendritengeometrie zur Sicherstellung exakter Ergebnisse notwendig ist, sondern auch die räumliche Auflösung in die übrigen Dimensionen wichtig ist, weswegen eine eindimensionale Kabeldarstellung der Calcium-Dynamik erheblich fehlerbehaftet und
(jedenfalls im Zusammenhang mit Ryanodin-Rezeptorkanälen) von deren Nutzung dringend abzuraten ist. Auch die Darstellung von Kanälen als eine kontinuierliche Dichte in der Membran kann, wie darüber hinaus vorgeführt wurde, problematisch sein.
Ihre exaktere Modellierung, etwa durch Einbettung auch probabilistischer Einzelkanaldarstellungen in das räumliche Modell sollte in zukünftigen Arbeiten noch mehr thematisiert werden.
Mit Blick auf die Wiederverwendbarkeit bereits implementierter Funktionalität innerhalb dieser Arbeiten wurden spezielle Teile dieser Funktionalität hier in einem gesonderten
Kapitel genauer beschrieben. Als komplexes Beispiel für das, was simulationstechnisch bereits im Bereich des Machbaren
liegt, und gleichsam für eine Anwendung, die zeigt, wie möglichst viele der im Rahmen dieser Arbeit entwickelten Methoden miteinander kombiniert werden können, wurde die
Calcium-Dynamik eines kompletten Dendriten innerhalb eines großen aktiven neuronalen Netzwerks simuliert.