Refine
Year of publication
- 2013 (152) (remove)
Document Type
- Doctoral Thesis (152) (remove)
Has Fulltext
- yes (152)
Is part of the Bibliography
- no (152)
Keywords
- UrQMD (2)
- A-Discriminant (1)
- ALICE (1)
- ALICE experiment (1)
- Acculturation (1)
- Adolescence (1)
- Agent (1)
- Akkulturation (1)
- Aktivierungsmethode (1)
- Akustik (1)
Institute
- Biowissenschaften (29)
- Biochemie und Chemie (24)
- Physik (21)
- Medizin (9)
- Pharmazie (8)
- Geowissenschaften (7)
- Informatik (6)
- Informatik und Mathematik (6)
- Psychologie (6)
- Geschichtswissenschaften (4)
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
A stochastic model for the joint evaluation of burstiness and regularity in oscillatory spike trains
(2013)
The thesis provides a stochastic model to quantify and classify neuronal firing patterns of oscillatory spike trains. A spike train is a finite sequence of time points at which a neuron has an electric discharge (spike) which is recorded over a finite time interval. In this work, these spike times are analyzed regarding special firing patterns like the presence or absence of oscillatory activity and clusters (so called bursts). These bursts do not have a clear and unique definition in the literature. They are often fired in response to behaviorally relevant stimuli, e.g., an unexpected reward or a novel stimulus, but may also appear spontaneously. Oscillatory activity has been found to be related to complex information processing such as feature binding or figure ground segregation in the visual cortex. Thus, in the context of neurophysiology, it is important to quantify and classify these firing patterns and their change under certain experimental conditions like pharmacological treatment or genetical manipulation. In neuroscientific practice, the classification is often done by visual inspection criteria without giving reproducible results. Furthermore, descriptive methods are used for the quantification of spike trains without relating the extracted measures to properties of the underlying processes.
For that reason, a doubly stochastic point process model is proposed and termed 'Gaussian Locking to a free Oscillator' - GLO. The model has been developed on the basis of empirical observations in dopaminergic neurons and in cooperation with neurophysiologists. The GLO model uses as a first stage an unobservable oscillatory background rhythm which is represented by a stationary random walk whose increments are normally distributed. Two different model types are used to describe single spike firing or clusters of spikes. For both model types, the distribution of the random number of spikes per beat has different probability distributions (Bernoulli in the single spike case or Poisson in the cluster case). In the second stage, the random spike times are placed around their birth beat according to a normal distribution. These spike times represent the observed point process which has five easily interpretable parameters to describe the regularity and the burstiness of the firing patterns.
It turns out that the point process is stationary, simple and ergodic. It can be characterized as a cluster process and for the bursty firing mode as a Cox process. Furthermore, the distribution of the waiting times between spikes can be derived for some parameter combination. The conditional intensity function of the point process is derived which is also called autocorrelation function (ACF) in the neuroscience literature. This function arises by conditioning on a spike at time zero and measures the intensity of spikes x time units later. The autocorrelation histogram (ACH) is an estimate for the ACF. The parameters of the GLO are estimated by fitting the ACF to the ACH with a nonlinear least squares algorithm. This is a common procedure in neuroscientific practice and has the advantage that the GLO ACF can be computed for all parameter combinations and that its properties are closely related to the burstiness and regularity of the process. The precision of estimation is investigated for different scenarios using Monte-Carlo simulations and bootstrap methods.
The GLO provides the neuroscientist with objective and reproducible classification rules for the firing patterns on the basis of the model ACF. These rules are inspired by visual inspection criteria often used in neuroscientific practice and thus support and complement usual analysis of empirical spike trains. When applied to a sample data set, the model is able to detect significant changes in the regularity and burst behavior of the cells and provides confidence intervals for the parameter estimates.
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Der Begriff psychologische Akkulturation beschreibt jene Veränderungen, die infolge des dauerhaften Aufeinandertreffens verschiedener kultureller Gruppen auf individueller Ebene zu beobachten sind (Berry, 1997). Die vorliegende Arbeit umfasst drei Publikationen, die sich mit Akkulturationsprozessen von Kindern und Jugendlichen mit Migrationshintergrund in Deutschland befassen. Zunächst wird ein Überblick über den aktuellen Stand der Forschung zur Situation junger Migranten in Deutschland vorgelegt. An zentraler Stelle steht dabei die Frage, wie die Migrationsgeschichte und Immigrationspolitik Deutschlands sowie die öffentliche Einstellung gegenüber Migranten die transkulturelle Adaptation von Kindern und Jugendlichen nicht-deutscher ethno-kultureller Herkunft beeinflussen. Bereits bestehende wissenschaftliche Erkenntnisse werden verknüpft mit den Ergebnissen neuerer empirischer Studien um zu einem tieferen Verständnis der Ursachen für die vielfach berichteten problematischen Verläufe psychologischer und soziokultureller Adaptation von Migranten beizutragen. Neben anderen Risiken und protektiven Faktoren wird diskutiert, wie sich Besonderheiten Deutschlands als Aufnahmeland, wie z.B. die Eigenarten des Schulsystems, auf Adaptationsverläufe auswirken können. Unsere eigenen Studien tragen zum Verständnis der Anpassungsprozesse junger Migranten bei, indem sie aufzeigen, dass nicht die Akkulturationsstrategie der Integration, sondern speziell die Orientierung an der deutschen Kultur bei Individuen zu den günstigsten psychologischen und soziokulturellen Ergebnissen zu führen scheint. Im Rahmen dieser Arbeit wird weiterhin ein empirischer und methodologischer Beitrag zur Akkulturationsforschung geleistet, indem ein Messinstrument zur Erfassung psychologischer Akkulturation bei Kindern im deutschen Sprachraum – die Frankfurter Akkulturationsskala für Kinder (FRAKK-K)– entwickelt, validiert und schließlich anhand einer Fragestellung praktisch angewandt wird. Die Skalenentwicklung und –optimierung erfolgte auf der Grundlage von zwei Studien, welche Daten von 387 Grundschülern aus zwei städtischen Regionen in Deutschland umfassen (Frankenberg & Bongard, 2013). Die Ergebnisse konfirmatorischer Faktorenanalysen sprechen für zwei Faktoren, Orientierung an der Aufnahmekultur und Orientierung an der Herkunftskultur, die jeweils mittels 6 Items erfasst werden. Beide Subskalen weisen eine zufriedenstellende interne Reliabilität und Kriteriumsvalidität auf und lassen sich zwecks Erfassung der Akkulturationsstrategie kombinieren (i.e. Assimilation, Integration, Separation und Marginalisierung). In einer ersten praktischen Anwendung der Skala wird der Frage nachgegangen, inwiefern erweiterter Musikunterricht und Orchesterspiel in der Grundschule über verstärkte Gruppenkohäsion zur Förderung kultureller Integration beitragen können.
Grundschüler, die in einem Orchester gespielt haben, zeigen über einen Zeitraum von 1,5 Jahren einen stärkeren Anstieg der Orientierung an der deutschen Kultur als Schüler, die keinen erweiterten Musikunterricht erhielten. Musikschüler fühlen sich außerdem stärker in die Klassengemeinschaft integriert. Dies deutet darauf hin, dass die Erfahrung der Zusammenarbeit und des Musizierens innerhalb einer Gruppengemeinschaft zu einer stärkeren Orientierung an der deutschen Kultur geführt hat. Die Orientierung an der Herkunftskultur blieb unbeeinflusst. Somit können Programme, die jungen Migranten die Gelegenheit bieten Musik innerhalb einer größeren, kulturell heterogenen Gruppe aufzuführen, als eine effektive Intervention zur Förderung der kulturellen Anpassung an die Mehrheitskultur und der Integration innerhalb – und außerhalb – des Klassenzimmers führen.
Abschließend werden die Ergebnisse der empirischen Untersuchungen vor dem Hintergrund des aktuellen Forschungsstandes zu neueren Akkulturationsmodellen sowie zu der Terminologie und den methodischen Herausforderungen des Forschungsfeldes in Beziehung gesetzt und kritisch reflektiert. Daraus abgeleitet werden Implikationen für zukünftige Interventionen und Forschung diskutiert.
Adaptive Radiation und Zoogeographie anisakider Nematoden verschiedener Klimazonen und Ozeane
(2013)
Anisakide Nematoden sind Parasiten aquatischer Organismen und weltweit in marinen Habitaten verbreitet. Ihre Übertragungswege sind tief im marinen Nahrungsnetz verwurzelt und schließen ein breites Spektrum pelagisch/benthischer Invertebraten (z.B. Cephalopoda, Gastropoda, Crustacea, Polychaeta) und Vertebraten (z.B. Teleostei, Elasmobranchia, Cetacea, Pinnipedia, Aves) als Zwischen- bzw. Endwirte ein. Aufgrund der hohen Befallszahlen u.a. in der Muskulatur und Viszera kommerziell intensiv genutzter Fischarten (z.B. Clupea harengus, Gadus morhua, Salmo salar) sowie ihrer Rolle als Auslöser der menschlichen Anisakiasis nehmen die Vertreter der Gattung Anisakis unter den anisakiden Nematoden eine Sonderstellung ein. Anhand der verbesserten Diagnostik und der Etablierung sowie Weiterentwicklung molekularbiologischer Methoden ist es in den letzten zwei Dekaden gelungen, die bestehende Taxonomie und Systematik der Gattung Anisakis zu erweitern bzw. zu revidieren. Aktuelle molekulare Analysen weisen auf die Existenz von insgesamt neun distinkten Arten hin, welche eine hohe genetische Heterogenität und Wirtsspezifität aufweisen, äußerlich jedoch nahezu identisch sind (sog. kryptische Arten). Trotz kontinuierlicher Forschung auf dem Gebiet ist das Wissen über die Biologie von Anisakis immer noch unzureichend.
Die vorliegende Dissertation ist in kumulativer Form verfasst und umfasst drei (ISI-) Einzelpublikationen. Die Zielsetzung der durchgeführten Studien bestand unter anderem darin, unter Verwendung molekularbiologischer und computergestützter Analyseverfahren, Fragestellungen zur Zoogeographie, (Co-)Phylogenie, Artdiagnostik, Lebenszyklus-Ökologie sowie des bioindikatorischen Potentials dieser Gattung zu bearbeiten und bestehende Wissenslücken zu schließen.
Die Verbreitung von Anisakis, welche bisher ausschließlich anhand von biogeographischen Einzelnachweisen abgeschätzt wurde, konnte durch den angewandten Modellierungsansatz erstmalig interpoliert und in Kartenform vergleichend dargestellt werden. Dabei wurde gezeigt, dass die Verbreitung von Anisakis spp. in den Ozeanen und Klimazonen nicht gleichmäßig ist. Die Analysen deuten auf die Existenz spezies-spezifischer horizontaler und vertikaler Verbreitungsmuster hin, welche neben abiotischen Faktoren durch die Verbreitung und Abundanz der jeweiligen Zwischen- und Endwirte sowie deren Tiefenverteilung und Nahrungspräferenzen geprägt sind.
Durch die umfangreiche Zusammenstellung und anschließende Kategorisierung der (mit molekularen Methoden) geführten Zwischenwirtsnachweise konnten indirekte Rückschlüsse über die vertikale Verbreitung von Anisakis spp. entlang der Tiefenhabitate gezogen werden.
Während Anisakis auf Gattungsebene in der gesamten Wassersäule entlang verschiedener Tiefenhabitate abundant ist, wurde für die stenoxene Art Anisakis paggiae ein meso-/bathypelagisch orientierter Lebenszyklus postuliert. Durch den Einbezug eines breiten Spektrums (paratenischer) Zwischen- und Transportwirte aus unterschiedlichen trophischen Ebenen werden Transmissionslücken im Lebenszyklus der Gattung weitestgehend minimiert und der Transmissionserfolg auf den Endwirt, und damit die Wahrscheinlichkeit einer erfolgreichen Reproduktion, erhöht. Ausgeprägte Wirtspräferenzen sowie phylogenetische Analysen des ribosomalen ITS-Markers stützen eine Theorie zur co-evolutiven Anpassung der Parasiten an ihre Endwirte. Anisakis eignet sich daher unter Einschränkungen als Bioindikator für die vertikale und horizontale Verbreitung und Abundanz der Endwirte und lässt Rückschlüsse auf trophische Interaktionen im Nahrungsnetz zu. Durch die weitere Beprobung von Zwischenwirten aus verschiedenen trophischen Ebenen in zukünftigen Studien, kann eine genauere Bewertung potentiell abweichender Lebenszyklus-Strategien gewährleistet werden. Insbesondere ist die Datenlage zur Prävalenz und Abundanz anisakider Nematoden in Cephalopoda und Crustacea noch unzureichend. Die Probennahme sollte dabei unter besonderer Berücksichtigung bislang wenig oder unbeprobter geographischer Regionen, Tiefenhabitate und Wirtsarten durchgeführt werden.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
Die Adoleszenz, d.h. die Reifungsphase des Jugendlichen zum Erwachsenen, stellt einen zentralen Abschnitt in der menschlichen Entwicklung dar, der mit tief greifenden emotionalen und kognitiven Veränderungen verbunden ist. Neure Studien (Bunge et al., 2002; Durston et al., 2002; Casey et al., 2005; Crone et al., 2006; Bunge and Wright, 2007) machen deutlich, dass sich die funktionelle Architektur des Gehirns während der Adoleszenz grundlegend verändert und dass diese Veränderungen mit der Reifung höherer kognitiven Funktionen in der Adoleszenz assoziiert sein könnten. Messungen des Gehirn-Volumens mit Hilfe der Magnet-Resonanz-Tomographie (MRT) zum Beispiel zeigen eine nicht-lineare Reduktion der grauen und eine Zunahme der weißen Substanz während der Adoleszenz (Giedd et al., 1999; Sowell et al., 1999, 2003). Des weiteren treten in dieser Zeit Veränderungen in exzitatorischen und inhibitorischen Neurotransmitter-Systemen auf (Tseng and O’Donnell, 2005; Hashimoto et al., 2009). Zusammen deuten diese Ergebnisse darauf hin, dass während der Adoleszenz ein Umbau der kortikalen Netzwerke stattfindet, der wichtige Konsequenzen für die Reifung neuronaler Oszillationen haben könnte. Im Anschluss an eine Einführung im Kapitel 2, fasst Kapitel 3 der vorliegenden Dissertation die Vorbefunde bezüglich entwicklungsbedingter Veränderungen in der Amplitude, Frequenz und Synchronisation neuronaler Oszillationen zusammen und diskutiert den Zusammenhang zwischen der Entwicklung neuronaler Oszillationen und der Reifung höhere kognitiver Funktionen während der Adoleszenz. Ebenso werden die anatomischen und physiologischen Mechanismen, die diesen Veränderungen möglicherweise zu Grunde liegen könnten, theoretisch vorgestellt. Die in Kapitel 4-6 vorgestellten eigenen empirischen Arbeiten untersuchen neuronale Oszillationen mit Hilfe der Magnetoencephalographie (MEG), um die Frequenzbänder und die funktionellen Netzwerke zu charakterisieren, die mit höheren kognitiven Prozessen und deren Entwicklung in der Adoleszenz assoziiert sind. Hierzu wurden drei Experimente durchgeführt, bei denen MEG-Aktivität während der Bearbeitung einer Arbeitsgedächtnisaufgabe und im Ruhezustand aufgezeichnet wurde. Die Ergebnisse dieser Experimente zeigen, dass Alpha Oszillationen und Gamma-Band Aktivität sowohl task-abhängig als auch im Ruhezustand gemeinsam auftreten. Darüber hinaus ergänzen die vorliegenden Untersuchungen Vorarbeiten, indem sie eine Wechselwirkung zwischen beiden Frequenzbändern aufgezeigt wird, die als ein Mechanismus für das gezielte Weiterleiten von Informationen dienen könnte. Die in Kapitel 6 vorgestellten Entwicklungsdaten weisen weiterhin darauf, dass in der Adoleszenz späte Veränderungen im Alpha und Gamma-Band stattfinden und dass diese Veränderungen involviert sind in die Entwicklung der Arbeitsgedächtnis-Kapazität und die Entwicklung der Fähigkeit, Distraktoren zu inhibieren. Abschliessend werden in Kapitel 7, die in dieser Dissertation vorgestellten Arbeiten, aus einer übergeordneten Perspektive im Gesamtzusammenhang diskutiert.
Driven by rapid technological advancements, the amount of data that is created, captured, communicated, and stored worldwide has grown exponentially over the past decades. Along with this development it has become critical for many disciplines of science and business to being able to gather and analyze large amounts of data. The sheer volume of the data often exceeds the capabilities of classical storage systems, with the result that current large-scale storage systems are highly distributed and are comprised of a high number of individual storage components. As with any other electronic device, the reliability of storage hardware is governed by certain probability distributions, which in turn are influenced by the physical processes utilized to store the information. The traditional way to deal with the inherent unreliability of combined storage systems is to replicate the data several times. Another popular approach to achieve failure tolerance is to calculate the block-wise parity in one or more dimensions. With better understanding of the different failure modes of storage components, it has become evident that sophisticated high-level error detection and correction techniques are indispensable for the ever-growing distributed systems. The utilization of powerful cyclic error-correcting codes, however, comes with a high computational penalty, since the required operations over finite fields do not map very well onto current commodity processors. This thesis introduces a versatile coding scheme with fully adjustable fault-tolerance that is tailored specifically to modern processor architectures. To reduce stress on the memory subsystem the conventional table-based algorithm for multiplication over finite fields has been replaced with a polynomial version. This arithmetically intense algorithm is better suited to the wide SIMD units of the currently available general purpose processors, but also displays significant benefits when used with modern many-core accelerator devices (for instance the popular general purpose graphics processing units). A CPU implementation using SSE and a GPU version using CUDA are presented. The performance of the multiplication depends on the distribution of the polynomial coefficients in the finite field elements. This property has been used to create suitable matrices that generate a linear systematic erasure-correcting code which shows a significantly increased multiplication performance for the relevant matrix elements. Several approaches to obtain the optimized generator matrices are elaborated and their implications are discussed. A Monte-Carlo-based construction method allows it to influence the specific shape of the generator matrices and thus to adapt them to special storage and archiving workloads. Extensive benchmarks on CPU and GPU demonstrate the superior performance and the future application scenarios of this novel erasure-resilient coding scheme.
Ribosome biogenesis is best understood in the yeast Saccharomyces cerevisiae. In human or mammalian ribosome biogenesis, it has been shown that basic principles are conserved to yeast, but additional features have been reported. Our understanding about the interplay between proteins and RNA in human ribosome biogenesis is far from complete.
The present study focused on the analysis of the human ribosome biogenesis co-factors PWP2, EMG1 and Exportin 5 (XPO5) to understand the degree of conservation of ribosome biogenesis. The proteins were characterized in respect to their localization and interaction partners. For the early 90S co-factor, PWP2, it was possible to pull down and identify the human UTP-B complex with MALDI mass spectrometry. Besides the orthologues of the members of this complex known in yeast (TBL3, WDR3, WDR36, UTP6, UTP18), the human UTP-B complex is not only conserved from yeast to humans, but contains also additional components, like the DEAD-box RNA helicase DDX21, which lacks a yeast orthologue. DDX21 was localized to the nucleus, assembled to the native UTP-B complex and co-precipitated also with other UTP-B complex members, presumably extending the functions of this complex in ribosome biogenesis.
This phenomenon was also observed for the 90S co-factor EMG1, an RNA methyltransferase, whose mutant form causes the Bowen-Conradi syndrome, if aspartic acid is mutated to glycine at position 86. This study revealed that the mutant, EMG1-D86G, clearly lost its nucleolar localization and co-precipitated to histones for unknown reasons.
A participation of the nuclear export receptor XPO5 in human ribosome biogenesis was shown in this study. Pulldown analysis, sucrose density gradients and UV crosslinking and analysis of cDNAs of XPO5 revealed the involvement of XPO5 in pre-60S subunit maturation. Moreover, besides the known pre-miRNAs and tRNAs as substrates for nuclear export, XPO5 crosslinked to snoRNAs. XPO5 was further demonstrated to interact with the miRNA Let-7a, which has an important regulatory function for MYC, a transcription factor required for ribosome biogenesis.
All results support a role of these proteins in human ribosome biogenesis and therefore it seems that the biogenesis of ribosomes in human cells requires additional components, like DDX21 and XPO5.