Refine
Year of publication
Document Type
- Master's Thesis (127) (remove)
Has Fulltext
- yes (127) (remove)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
- Machine Learning (2)
Institute
- Physik (61)
- Gesellschaftswissenschaften (11)
- Informatik und Mathematik (10)
- Mathematik (7)
- Informatik (6)
- Geowissenschaften (4)
- Erziehungswissenschaften (3)
- Neuere Philologien (3)
- Sportwissenschaften (3)
- Psychologie (2)
This study analyzes storyline structure in three Hausa home videos; Mai Kudi (The Rich Man), Sanafahna (with time truth shall dawn) and Albashi (Salary). The study measures storyline structure in these films against a Hollywood film industry model of story writing “the Hero's Journey”. It uses narrative analysis as its analytical tool, and narrative theory as its framework. After analyzing these videos, the study found that the major elements of storyline structure in Vogler's model formed the framework of the storyline structure in Hausa home videos analyzed. However, in spite of the preponderance of these elements within the storyline structure, there are significant variations to Vogler's model. Specifically, Vogler's model has some twelve stages spread on the universal structure of storytelling, i.e. beginning, middle and end. Few of these stages were found to exist in Hausa narrative structure, perhaps due to cultural differences between Western, Indian and Hausa cultures. The study therefore recommends screenwriters and producers to be aware of the existence of standard models of scriptwriting. It also recommends more training for script writers in the Hausa film industry.
WaterGAP (Water - Global Assessment and Prognosis) is a tool for modeling global water use and water availability. It participates among other models in the ISIMIP initiative (The Inter-Sectoral Impact Model Intercomparison Project). As part of this initiative, the water temperature should be calculated by participating hydrological models because it plays a vital role in many chemical, physical and biological processes. Therefore, the subject of this master thesis is to implement the physically based surface water temperature computation after VAN BEEK ET AL. (2012) and WANDERS ET AL. (2019) into WaterGAP and compare the results to the statistical regression approach by PUNZET ET AL. (2012). The computation is validated with observed water temperature data obtained from the GEMStat water quality database. The results are good for arctic and temperate latitudes. Surface water temperatures for tropical rivers are overestimated, most likely due to the overestimation of precipitation temperatures, incoming radiation and groundwater temperatures. The comparison with the regression model by PUNZET ET AL. (2012) shows matching results. The regression model even matches with WaterGAP results for most of the simulations of the future under climate change conditions, where the regression model should stop working due to changing environmental parameters. Several assumptions had to be made in order to implement the water temperature calculation in Water-GAP. These include, e.g., discharge temperatures for power plant cooling water, precipitation and surface runoff temperatures. For model improvements, perhaps three different values for the different regions of the world should be used to cool down the precipitation and surface runoff. The model could also be improved by refining the ice formation calculation, especially for the conditions when the ice melts, breaks up and is transported downstream. Furthermore, the feedback to the river channel roughness could be implemented if ice has formed. The WaterGAP model upgraded with the water temperature calculation will help the ISIMIP initiative in the future.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
The ALICE Time Projection Chamber (TPC) is the main tracking detector of ALICE which was designed to perform well at multiplicities of up to 20000 charged primary and secondary tracks emerging from Pb-Pb collisions. Successful operation of such a large and complex detector requires an elaborate calibration and commissioning. The main goal for the calibration procedures is to provide the information needed for the offline software for the reconstruction of the particle tracks with sufficient precision so that the design performance can be achieved. For a precise reconstruction of particle tracks in the TPC, the calibration of the drift velocity, which in conjunction with the drift time provides the z position of the traversing particles, is essential. In this thesis, an online method for the calibration of the drift velocity is presented. It uses the TPC Laser System which generates 336 straight tracks within the active volume of the TPC. A subset of these tracks, showing sufficiently small distortions, is used in the analysis. The resulting time dependent drift velocity correction parameters are entered into a database and provide start values for the offline reconstruction chain of ALICE. Even though no particle tracking information is used, the online drift velocity calibration is in agreement with the full offline calibration including tracking on the level of about 2 x 10 exp (-4). In chapter 2, a short overview of the ALICE detector, as well as the data taking model of the ALICE, is given. In chapter 3, the TPC detector is described in detail. Lastly in chapter 4, the online drift velocity calibration method is presented, together with a detailed description of the TPC laser system.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
The aim of this thesis is finding a geometric configuration that allows electron insertion into a Gabor plasma lens in order to increase the density of the confined electrons and provide ignition conditions at parameters where ignition is not possible. First, simulations using CST and bender were conducted to investigate several geometric configurations in terms of their performance of inserting electrons manually. One particular design has been chosen as a basis for an experiment. In order to prepare the experiment, further simulations using the code bender have been conducted to investigate the density distribution that is formed inside the Gabor lens when inserting electrons transversally in compliance with the chosen design. Additionally, bender was used to investigate the impact of the initial electron energy on the distribution inside the lens. Simulations with and without space charge effects have shown a significant impact of the space charge effects on the resulting density dstribution. Therefore, space charge effects have proven to be the major electron redistribution process. A given electron source was characterised in order to find the performance under the conditions inside a Gabor lens. In particular, a transversal magnetic field that will be present in the experiment has to be compensated by shielding the inner regions of the source by a μ-metal layer. Using a μ-metal shield, transversal magnetic fields are sufficiently tolerable to perform measurements in a Gabor lens. Additionally, operating close to 100 eV electron energy yields a maximum in the emitted current. Adding a Wehnelt cylinder to the electron source furthermore improves the extracted current to roughly 1 mA. A test stand consisting of a newly designed anode for the Gabor lens, as well as a terminal for the electron source, was constructed. The electron source was thoroughly characterised in the environment of the Gabor lens and the ignition properties of the new system were evaluated. In further experiments, electron beam assisted ignition by increasing the residual gas pressure was observed and the impact of the position of the electron source on the ignition properties was investigated. In addition, ignition of a sub-critical state, that is a state consisting of potential, magnetic field and pressure that did not yet perform ignition by itself, was performed by increasing the extracted current from the electron source. Finally, the electron source was used to influence a pre-ignited plasma. The density was measured, which was increased by the use of the electron source in most cases. This project is part of the EDEN collaboration (Electron DENsity boosting) of the NNP Group at IAP Frankfurt with INFN institutes in Bologna and Catania.
Electron identification with a likelihood method and measurements of di-electrons for the CBM-TRD
(2017)
In this work a likelihood method has been implemented and investigated as particle identification algorithm for the CBM-TRD.
The creation of the probability distributions for the likelihood method via V0-topologies seems to be feasible and the purity of the obtained samples is sufficient for the usage in the likelihood method.
The comparison between the ANN and the likelihood method shows no differences in the identification performance. The pion suppression factor reaches the same values for the same electron identification efficiencies and the yields of the resulting di-lepton signals are comparable. The signal-to-background ratios for both methods have the same values and show a value of about 10−2 in the invariant mass range of minv = 1.5 - 2.5 GeV/c2, which is expected to be sufficient to provide access to the thermal in-medium and QGP radiation.
The investigation of a detector system without a TRD shows no pion suppression for a momentum above p = 6 GeV/c. Therefore, the background contributions increase drastically and the signal-to-background ratio decreases at all invariant masses, but especially in the invariant mass range of minv = 1.5 - 2.5 GeV/c2.
The background contributions in the invariant mass range of minv = 1.5 - 2.5 GeV/c 2 are also influenced by the selected electron identification efficiency of the TRD, which significantly shifts the fraction of the eπ contributions relative to the total number of pairs.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Origin of the German Novel
(1927)
Virtual machines are for the most part not used inside of high-energy physics (HEP) environments. Even though they provide a high degree of isolation, the performance overhead they introduce is too great for them to be used. With the rising number of container technologies and their increasing separation capabilities, HEP-environments are evaluating if they could utilize the technology. The container images are small and self-contained which allows them to be easily distributed throughout the global environment. They also offer a near native performance while at the same time aproviding an often acceptable level of isolation. Only the needed services and libraries are packed into an image and executed directly by the host kernel. This work compared the performance impact of the three container technologies Docker, rkt and Singularity. The host kernel was additionally hardened with grsecurity and PaX to strengthen its security and make an exploitation from inside a container harder. The execution time of a physics simulation was used as a benchmark. The results show that the different container technologies have a different impact on the performance. The performance loss on a stock kernel is small; in some cases they were even faster than no container. Docker showed overall the best performance on a stock kernel. The difference on a hardened kernel was bigger than on a stock kernel, but in favor of the container technologies. rkt showed performed in almost all cases better than all the others.
Das Buch im Buch als Archiv
(2022)
Die Masterarbeit von Svenja Blumenrath mit dem Titel "Das Buch im Buch als Archiv" ist eine interdisziplinäre Zusammenführung von Literaturwissenschaft und Archivstudien. Anhand von sieben ausgewählten kinder- und jugendliterarischen Werken analysiert die Autorin die Funktion des Buches im Buch als Archiv für die erzählte Welt. Die Ergebnisse zeigen, dass das Buch im Buch nicht nur als narrative Struktur dient, sondern auch als Archiv fungiert, das Erinnerungen und Wissen bewahren, aber auch verwehren kann. Diese Erkenntnisse bieten neue Einblicke in die Verbindung von Literatur und Archivwesen.
Jede Gesellschaft oder Gemeinschaft wird von ihrer historischen Geschichte beeinflusst. Die gewachsenen Ansichten, Umgangsweisen und Strategien sind die Basis für die Weiterentwicklung jedes Gemeinwesens. Das Museum ist ein Ort der offenen und kritischen Auseinandersetzung mit dieser Geschichte und deren Wirkungen auf die Gegenwart. Es ist somit eine bildungspolitische Einrichtung, die aufgrund dieser gesellschaftlichen Aufgabe ihre besondere Bedeutung und Existenzberechtigung erhält. Museen sind in jeder Kultur und Gesellschaft ein wesentlicher Ort für die Fragen: Wo kommen wir her? Was verbindet uns? Besonderes in einer jungen Nation, die ihre Unabhängigkeit erst 1991 erlangt hat, ist eine Auseinandersetzung mit diesen Fragen dringend und wichtig.
Die Arbeit schlägt einen weiten Bogen vom Allgemeinen zum sehr Speziellen. Sie beginnt mit einer Darstellung der wichtigen Ansätzen und Studien zur Besucherforschung in Museen allgemein. Dabei wird nicht nur der Wandel in den Ansprüchen des Publikums aufgezeigt, sondern auch die Veränderungen der Konzeption und der Repräsentation der Museen selbst. Einen Schwerpunkt legt die Arbeit auf den Aspekt des Erzählens - das bedeutet, etwas sichtbar zu machen, was nicht offensichtlich ist: Kontexte, Reflexionen und Bezüge. Die Bedeutung der Kommunikation zwischen dem Museum und seinen Besuchern wurde in der Ethnologie bisher eher vernachlässigt.
Goal-Conditioned Reinforcement Learning (GCRL) is a popular framework for training agents to solve multiple tasks in a single environment. It is cru- cial to train an agent on a diverse set of goals to ensure that it can learn to generalize to unseen downstream goals. Therefore, current algorithms try to learn to reach goals while simultaneously exploring the environment for new ones (Aubret et al., 2021; Mendonca et al., 2021). This creates a form of the prominent exploration-exploitation dilemma. To relieve the pres- sure of a single agent having to optimize for two competing objectives at once, this thesis proposes the novel algorithm family Goal-Conditioned Re- inforcement Learning with Prior Intrinsic Exploration (GC-π), which sep- arates exploration and goal learning into distinct phases. In the first ex- ploration phase, an intrinsically motivated agent explores the environment and collects a rich dataset of states and actions. This dataset is then used to learn a representation space, which acts as the distance metric for the goal- conditioned reward signal. In the final phase, a goal-conditioned policy is trained with the help of the representation space, and its training goals are randomly sampled from the dataset collected during the exploration phase. Multiple variations of these three phases have been extensively evaluated in the classic AntMaze MuJoCo environment (Nachum et al., 2018). The fi- nal results show that the proposed algorithms are able to fully explore the environment and solve all downstream goals while using every dimension of the state space for the goal space. This makes the approach more flexible compared to previous GCRL work, which only ever uses a small subset of the dimensions for the goals (S. Li et al., 2021a; Pong et al., 2020).
Cleaning an ion beam from unwanted fractions is crucial for intense ion beams. This thesis will explore separation methods using a collimation channel, electric and magnetic dipoles and a velocity selector for low intensity beams on an experimental basis. In addition, statistical data of degassing events during the commissioning of a pentode extraction system for beam energies from 20 - 120keV will be presented.
Das Konflikterleben von Schiedsrichtern im Amateurfußball : eine empirisch-qualitative Arbeit
(2020)
Bei der Austragung von Amateurfußballspielen nehmen Schiedsrichter die Rolle von Beobachtern ein, die bei Konflikten selbst zu Betroffenen werden können. Dabei treten auch extreme Formen wie Beleidigungen und Diskriminierungen sowie physische und psychische Gewalt auf. Anliegen der Masterthesis „Das Konflikterleben von Schiedsrichtern im Amateurfußball“ ist es, die Wahrnehmung von Schiedsrichtern in Bezug auf Konflikte im Amateurfußball empirisch-qualitativ zu erfassen und bisherige Forschungsansätze zu erweitern. Grundlage der Arbeit bilden vom Autor geführte problemzentrierte Interviews mit hessischen Unparteiischen, deren Auswertung neue Perspektiven im Gewaltdiskurs des Amateurfußballs anbietet.
Representations of the reasons and actions of terrorists have appeared in German literature tracing back to the age of Sturm und Drang of the 18th century, most notably in Heinrich von Kleist's Michael Kohlhaas and Friedrich Schiller's Die Räuber, and more recently since the radical actions of the Red Army Faction during the late 1960s and early 1970s, such as in Uli Edel's film, The Baader Meinhof Complex. By referring to Walter Benjamin's system of natural law and positive law, which provides definitions of differing codes of ethics with relation to state laws and personal ethics, one should be able to understand that Michael Kohlhaas, Karl Moor, and the members of the RAF are indeed represented as terrorists. However, their actions and motives are not without an internal ethics, which conflicts with that of their respective state-sanctioned authorities. This thesis reveals the similarities and differences in motives, methods, and use of violence in Schiller, Kleist, and representations of the RAF and explores how the turn to terrorism can arise from a logical realization that ideologies of state law do not align with the personal sense of justice and law of the individual.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
In the second half of the last century, a brave idea of providing aid to developing countries not only because of humanitarian reasons, but also because of a global economic interdependency was born. International organizations shared this view with a great enthusiasm and significantly increased their engagement in low-income countries believing that these nations need to and can be helped. This movement stirred an interest of the academia and, as a result, research on the outcomes of international donors’ engagement in recipient countries started.
The main aim of this thesis is to analyze a broad spectrum of literature on aid effectiveness in developing countries and to summarize the main findings concerning an impact of state fragility and conflict on the efficiency of donor engagement. However, the main focus of this research lies in an own empirical analysis of some well-established hypotheses, as well as in a statistical testing of the outcomes obtained by other authors in a relevant field of study.
The effectiveness of foreign aid...
Die Arbeit befasst sich mit einer Vereinfachung des von Devroye (1999) geprägten Begriffs der random split trees und verallgemeinert diesen im Sinne von Janson (2019) auf unbeschränkten Verzweigungsgrad. Diese Verallgemeinerung deckt auch preferential attachment trees mit linearen Gewichten ab, wofür ein Beweis von Janson (2019) aufbereitet wird. Zusätzlich bleiben die von Devroye (1999) nachgewiesenen Eigenschaften über die Tiefe der hinzugefügten Knoten erhalten.
In der Literatur hat sich die Bestimmung der Erzählperspektive längst etabliert, aber genauso manifestiert sich auch in den visuellen Medien ein Erzähler, der das Geschehen zwar weniger mittels der Sprache, dafür im Wesentlichen über Bilder präsentiert. Durch die jeweils darin enthaltene Darstellung und die Verknüpfung der einzelnen Bilder sind diese Ausdruck einer bewussten Formung der Handlung. Der Begriff des Erzählens beschränkt sich somit nicht nur auf die Literatur, sondern trifft auch auf Visualisierungen jeglicher Art zu, da in diesen Fällen ebenso eine Instanz identifiziert werden kann, die hinter der Auswahl der Handlungselemente steht und diese perspektivisch formt. Dennoch kann der Erzähler hier nicht mehr, wie in der Literatur, im Sinne eines "Sprechers" aufgefasst werden, sondern versteht sich eher als abstraktes Konzept. Insbesondere in intermedialer Hinsicht stellt die Übertragung der Erzählperspektive von einem literarischen Text auf ein visuelles Medium eine Herausforderung dar, denn aufgrund des Medienwechsels verändern sich die Bedingungen des Erzählens. Umso schwieriger ist die Übertragung, wenn der literarische Text keinen durchweg logischen Handlungsverlauf aufweist, sondern Widersprüche und Uneindeutigkeiten im Erzählvorgang und in der Erzählperspektive beinhaltet, wie es auf Franz Kafkas 1914 entstandene Erzählung "In der Strafkolonie" zutrifft. Dieser Text dient zudem, wie auch viele andere von Kafkas Werken, als Projektionsfläche diverser, nicht selten konträrer, Deutungsansätze, die sich in der Forschungsliteratur herausgebildet haben. So wurden zahlreiche religiöse Bezüge in der Erzählung entdeckt, genauso wurde der Text aber als realistisch und somit als Kritik an Kolonialismus und Krieg verstanden. Bezug nehmend auf Kafkas Biographie und das Thema Strafe, das in zahlreichen seiner Werke zum Ausdruck kommt, wurde die Erzählung oftmals in psychoanalytischer Hinsicht gedeutet. Andererseits wurde die beschriebene Handlung auch weniger ernst genommen und vor allem auf die grotesken und ironischen Elemente verwiesen. Im Hinblick auf die unterschiedlichen Interpretationsansätze sind auch die Möglichkeiten der visuellen Umsetzung entsprechend vielfältig.
In dieser Arbeit wird anhand von drei Kurzfilmen und einem Comic, unter Berücksichtigung der spezifischen medialen Bedingungen, die Übertragung der Erzählung ins Visuelle analysiert. Dabei soll gezeigt werden, inwiefern die jeweilige Erzählperspektive die visuelle Wahrnehmung in den Filmen und im Comic bestimmt. In diesem Zusammenhang wird auch zu sehen sein, welche Deutung der Erzählung sich in der Visualisierung manifestiert und durch den Erzähler besonders hervorgehoben wird. Nicht zuletzt stellt sich dabei auch die Frage nach der Art der Umsetzung, d.h. ob bei der Adaption die Textnähe und der Inhalt im Vordergrund stehen oder ob vielmehr die Intention verfolgt wird, mit der Visualisierung der Erzählung ein neues und eigenes künstlerisches Werk zu schaffen, das dem Originaltext auf einer tiefergehenden Ebene begegnet.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Das CBM-Experiment konzentriert sich auf die Untersuchung der Eigenschaften des Quark-Gluon-Plasmas bei hohen Netto-Baryonendichten und moderaten Temperaturen. An der zukünftigen Beschleunigeranlage FAIR an der GSI findet das Experiment, neben vielen anderen Experimenten, ihren Platz. Der TRD ist, neben dem RICH, STS und TOF, einer der zentralen Detektoren im CBM-Experiment. Der TRD nutzt dabei den physikalischen Effekt der Übergangsstrahlung, die durch ein geladenes Teilchen beim Durchqueren einer Grenze zweier Medien mit unterschiedlichen Dielektrizitätskonstanten mit einer gewissen Wahrscheinlichkeit entsteht, um Elektronen von Pionen trennen zu können. Im Jahr 2017 wurde an der DESY 4 TRD-Prototypen in einer Teststrahlzeit getestet. Dabei handelt es sich um große TRD-Module mit den Maßen 95 · 95 cm2 , was dem finalen Design sehr nahe kommt. Die Untersuchung der DESY-Daten in Kapitel 5 brachte große Problematiken in den Daten zum Vorschein. Die Hauptprobleme der DESY-Daten sind: 1) Bug des SPADIC-Chips 2.0, bei der FN-Trigger zeitlich verschoben wurden; 2) schwache und suboptimale Trigger-Bedingung, wodurch sehr viel Rauschen aufgenommen wurde. Die Daten müssen für weitere Auswertung aufbereitet werden, wobei sehr viel Information und Statistik verloren geht, da einige Daten durch diverse Probleme nicht mehr rekonstruierbar sind. Kapitel 6 beschäftigt sich mit der Simulation der Detektorantwort und geht genauer auf die einzelnen Schritte, die zur Simulation des vom SPADIC erzeugten Pulses benötigt werden, ein. Am Ende werden Ergebnisse aus beiden Datensätzen miteinander verglichen. Um einen optimalen Vergleich zu gewähren, wird die Simulation bestmöglich an die Einstellungen in der Teststrahlzeit angepasst. Hauptsächlich geht es um die Erhöhung des Gasgains und der Verschiebung der Peaking-Zeit des Pulses. Im Allgemeinen können wir in der Simulation einige Effekte, die auch in den DESY-Daten vorkommen, nachsimulieren. Wir erhalten zum Teil sehr unterschiedliche Ergebnisse in der Simulation, deren Richtigkeit nicht verifiziert werden kann, da die Daten aufgrund der Probleme unzuverlässig werden. Durch die Analyse der DESY-Daten konnten wir die Problematik in den Daten besser verstehen. Eine sinnvolle Anpassung der Simulation wird durch die Unzuverlässigkeit der DESY-Daten unmöglich. Für die Optimierung der Simulation müsste man einen Vergleich mit neueren, zuverlässigeren Daten aus zukünftigen Teststrahlzeiten nehmen.
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
Ziel der Simulationsstudien in dieser Arbeit war es, die Leistungsfähigkeit des Transition Radiation Detectors zur Identifikation von leichten Kernen und Hyperkernen im CBM-Experiment zu untersuchen. Die Trennung von Helium und Deuterium
mithilfe ihres spezifischen Energieverlustes im TRD ist zentral, um eine Rekonstruktion des seltenen Hyperkerns 6 ΛΛHe mit einem hohen Signal-zu-Untergrund-Verhältnisse zu leisten. Zur Erfüllung der Anforderungen, die sich aus dem CBM-Forschungsprogramm ergeben, wird eine Auflösung des Energieverlustes dEdx von Helium von höchstens 30 % verlangt...
Ein Schtetl in der Stadt – Jüdische Identitätsräume in Texten von Martin Beradt und Sammy Gronemann
(2010)
The concern of this thesis is a discussion of the way German-Jewish identity manifests itself in two literary texts before and after 1933. Using the examples of Sammy Gronemann’s novel Tohuwabohu and Martin Beradt’s Die Straße der kleinen Ewigkeit, it offers a textual analysis of two works which share close connections in terms of subject matter, style, and their respective authors’ background, but are historically divided by the fundamental experience of the rise of National Socialism in Germany.
I argue that space is a crucial factor through which identity is constituted in each text, both of which use and partially subvert the romanticized image of the Eastern European shtetl brought to Germany by authors such as Arnold Zweig in the aftermath of World War I. Space in this context always has a twofold quality to it. It functions as a space of identity, but also as a space of identification through which a group of people label others as either belonging or not belonging to a specific space. Furthermore, both texts reject monolithic definitions of Jewish identity, emphasizing instead the diversity of Jewish life in Europe before the Rise of National Socialism.
The internet has often been considered a 'technology of freedom' – a nearly revolutionary tool believed to flatten social hierarchies and democratize access to media by 'giving voice' to everybody equally. Contradictory to this point of view, research has shown the existence of a 'digital divide,' the phenomenon that access to and use of the internet, as well as the outcomes derived from this use, correlate with pre-existing inequalities.
Based on ethnographic fieldwork among activists in Dakar, Senegal, this thesis analyzes how inequalities shape and are shaped by the relationships between activists and smartphones. Do smartphones indeed flatten social hierarchies, or are inequalities rather reproduced – or even reinforced – through them?
Zeitreihen von spontan auftretenden Topograpfien elektrischer Felder an der Kopfoberfläche, die durch eine Elektroenzephalografie (EEG) gemessen werden, zeigen Zeiträume („EEG-Microstates“), während denen die Topografie quasi-stabil ist. Diese EEG-Microstates werden üblicherweise dadurch analysiert, dass die zu spezifischen Zeitpunkten beobachteten Ausprägungen des EEGs in eine kleine Anzahl von prototypischen Topografien („Karten“) eingeteilt werden. Dadurch erhält man eine diskrete Kartensequenz.
Um die Struktur der Übergangswahrscheinlichkeiten in experimentellen Kartensequenzen zu beschreiben, werden diese Sequenzen durch eine reduzierte Markov-Kette modelliert mit nur einem Parameter pro Karte. Die Markov-Ketten können mithilfe von zwei bestimmten stochastischen Prozessen konstruiert werden. Durch den einen Prozess werden zufällige Intervalle definiert, die zufällig den verschiedenen Karten zugeordnet werden. Durch den anderen Prozess werden zufällige Abtastungszeitpunkte bestimmt, zu denen die Karte des jeweils aktuellen Intervalls abgelesen wird.
Neben der Motivation und Vorstellung des Markov-Ketten-Modells werden in dieser Arbeit Schätzer für die Modellparameter vorgeschlagen und diskutiert sowie ihre asymptotischen Varianzen hergeleitet. Zudem wird ein Anpassungstest durchgeführt und es werden Abwandlungen des Modells untersucht.
Das Ziel dieser Arbeit ist die Untersuchung der stratosphärischen Meridionalzirkulation mit Hilfe von chemisch aktiven Spurengasen. Diese motiviert sich durch die Tatsache, dass der Klimawandel neben den viel erforschten Auswirkungen auf die Troposphäre, auch Reaktionen in der Stratosphäre zur Folge hat, welche bisher weit weniger tiefgehend untersucht wurden. Das macht die Stratosphäre zu einem aktuellen und frequentierten Forschungsgebiet der experimentellen und theoretischen Meteorologie. Neben vereinzelten hochaufgelösten in-situ Messungen und globalen Satellitendaten sind es hier vor allem globale numerische Klima-Chemiemodelle, die für Analysen genutzt werden. Für diese Arbeit wurden Daten des EMAC-Modells (engl.: ECHAM/MESSy Atmospheric Chemistry) ausgwertet, welche im Rahmen der ESCiMo (engl.: Earth System Chemistry integrated Modelling) Initiative vom MESSy-Konsortium (engl.: Modular Earth Submodel System) erstellt wurden. Die Zielsetzung dieser Arbeit war, ob sich etwaige Änderungen des stratosphärischen Transports anhand von modellierten, chemisch aktiven, idealisierten Spurengasen feststellen lassen. Idealisiert bedeutet hierbei, dass diese Gase ein konstantes Mischungsverhältnis am Erdboden aufweisen und den identischen chemischen Prozessen unterliegen wie die realistischen Tracer. Dies hat zur Folge, dass diese Spurengase somit nicht in das Strahlungsbudget des Modells rückkoppeln und ihre Verteilung nicht durch zeitliche troposphärische Trends beeinflusst wird. Zur Analyse des stratosphärischen Transports wurden die Differenzen der monatlich gemittelten Mischungsverhältnisse zweier Zeitpunkte der verschiedenen Substanzen im Vertikalprofil betrachtet und ausgewertet, wobei hier die photolytische Lebenszeit und die Zeitskala des Transports zu berücksichtigen war. Um die Saisonalität von Transport und Chemie zu berücksichtigen, wurden dazu die Monate März, Juni, September und Dezember analysiert.
Die Resultate zeigten, dass chemisch aktive Substanzen in der Tat geeignet sind Änderungen in der Dynamik festzustellen. So stellte sich heraus, dass mit einer allgemeinen Intensivierung der stratosphärischen Meridionalzirkulation im kommenden Jahrhundert gerechnet werden kann, wobei hiervon besonders die untere Stratosphäre betroffen ist. Eine Differenzierung welche Komponente der Zirkulation (Residualtransport oder bidirektionale quasi-horizontale Mischung) hierbei von übergeordneter Bedeutung ist, konnte nicht spezifiziert werden. Um abzuschätzen, ob sich die Änderung der Zirkulation durch Änderungen in den Mischungsverhältnissen von chemisch aktiven Substanzen mit Hilfe von direkten Messungen nachweisen lässt, wurde die atmosphärische Variabilität des Modells bestimmt und mit den Veränderungen dieser Mischungsverhältnisse verglichen. Es zeigte sich, dass diese modellierte atmosphärische Variabilität zum Teil deutlich größer war, als die Differenzen der Mischungsverhältnisse und so ohne eine Vielzahl von in-situ Messungen keine eindeutige Aussage zulassen. Um eine statistisch valide Aussage treffen zu können, müssen daher mehrere Messreihen innerhalb eines Monats durchgeführt werden. Zudem stellte sich heraus, dass der Monat Juni der bestmögliche Messzeitraum ist, da hier die natürliche Variabilität am geringsten ist. Zuletzt wurden die Spurengase mit vergleichsweise kleiner chemischer Lebenszeit auf normierten N2O-Isoplethen untersucht und die Verschiebung dieser Kurve zwischen den zwei Zeitpunkten analysiert. Die so gewonnenen Resultate ließen den Schluss zu, dass sich auf diese Weise die atmosphärische Variabilität reduzieren lässt und bei Nutzung mit experimentellen Daten eine zu den Tracer-Differenzen konsistente Aussage zulässt. So bestärkte diese Methode die These, dass sich der stratosphärische Transport innerhalb des 21. Jahrhunderts wahrscheinlich verstärken wird.
The Time Projection Chamber (TPC), a large gaseous detector, is the main particle identification device of the ALICE experiment at the CERN LHC. The desired performance of the TPC defines the requirements for the gas mixture used in the detector. The active volume was filled with either Ne-CO2 (90-10) or Ne-CO2-N2 (90-10-5) during the first LHC running period. For LHC Run 2 the gas mixture is changed to Ar-CO2. Calculations of relevant gas properties are performed for Ar-based gas mixtures and compared to Ne-based gas mixtures to identify the most suitable Ar mixture. The drift velocity of ions in Ar is lower than in Ne. The closing time of the gating grid has to be adjusted accordingly to avoid drift field distortions due to back-drifting ions. The drift times of ions in the TPC readout chambers are calculated for the respective gas mixtures to determine the time to collect all ions from the amplification region. For LHC Run 3 the TPC readout chambers will be upgraded. The Multiwire Proportional Chambers (MWPCs) will be replaced by readout chambers based on Gas Electron Multipliers (GEMs) which are operated in continuous mode. As a consequence an ion backflow of the order of 1% causes significant space-charge distortions in the TPC drift volume. Similar distortions are expected in data taken specifically for the study of space-charge effects at the end of Run 1. The gating grid of the MWPCs is operated in the open state allowing the ions from the amplification region to enter the drift volume. The magnitude of the distortions in this data is measured and compared to the expectations for the TPC upgrade and results from current simulations.
Der Akteurscharakter der BRICS-Staaten : eine qualitative Untersuchung mit der Grounded Theory
(2020)
Die Abschlussarbeit beschäftigt sich mit der zentralen Fragestellung: Welchen Akteurscharakter besitzen die BRICS-Staaten? Zur Beantwortung ist mit der Grounded Theory eine rekonstruktionslogische Herangehensweise gewählt worden, um das Phänomen zu untersuchen. Für den Forschungsprozess ist auf die Software MAXQDA zurückgegriffen worden. Als Ergebnis werden die BRICS-Staaten als „Kooperationsmodell der Nichteinmischung“ betitelt.
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
Anisotropic collective flow of protons resulting from non-central heavy ion collisions is a unique hadronic observable providing information about the early stage of the nuclear collision. The analysis of collective flow in the energy regime between 1-2 AGeV enables the study of the phase diagram of hadronic matter at a high baryochemical potential µb, as well as the analysis of the equation of state at densities up to the threefold of the ground state density ρ0.
The algorithms of the standard event plane method and the scalar product method are used to analyse directed and elliptic flow of protons in a centrality range of 0-40 % most central events.
Prior to the analysis of experimental data, the respective influence of the reconstruction procedure on the algorithms is examined using Monte Carlo simulations based on the Ultra relativistic Quantum Molecular Dynamics (UrQMD) model.
Subsequently, experimental data measured in April 2012 with the High Acceptance DiElectron Spectrometer (HADES) is analysed using both methods. About 7.3 · 109 Au+Au events at a kinetic beam energy of 1.23 AGeV, equivalent to a centre of mass energy of √sNN = 2.42 GeV were recorded. A multi-differential analysis is feasible as the HADES detector provides a good transverse momentum and rapidity coverage.
Both algorithms result in identical values for directed and elliptic flow across all centrality classes within the observable phase space of protons. The calculated integrated value of v2 at mid rapidity is in good agreement with world data.
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Diese Arbeit untersucht die Perzeption der Vokale /a/, /ɐ/ und /ɐ̃/ durch deutsche erwachsene Portugiesischlerner. Ziel war herauszufinden, ob deutsche L1-Sprecher in der Lage sind, die genannten Laute zu unterscheiden, unter anderem in Abhängigkeit von ihrem Fremdsprachenniveau im EP.
Die Teilnehmer der Studie waren 27 deutsche Muttersprachler, die EP im Erwachsenenalter und zumeist an der Universität erlernen oder erlernt haben. Die Kontrollgruppe bildeten 33 portugiesische Muttersprachler. Beide Gruppen nahmen an einem Online-Perzeptionstest teil, dessen Aufbau sich an der Studie von Darcy und Krüger (2012) orientiert. Während des Tests mussten die Probanden aus einer Lautsequenz von drei einsilbigen Kunstwörtern mit der Silbenstruktur CVC dasjenige Kunstwort identifizieren, das einen anderen Vokal beinhaltete als die anderen zwei. Neben dem Perzeptionstest nahmen alle Teilnehmer an einem Einstufungstest für das EP teil, der aus einem C-Test und einem Vokabeltest bestand.
Autonomous steering of an electric bicycle based on sensor fusion using model predictive control
(2019)
In this thesis a control and steering module for an autonomous bicycle was developed. Based on sensor fusion and model predictive control, the module is able to trace routes autonomously.
The system is developed to run on a Raspberry Pi. An ultrasonic sensor and a 2D Lidar sensor are used for distance measurements. The vehicle’s position is determined by using GPS signals. Additionally, a camera is used to capture pictures for the roadside detection. In order to recognize the road and the position of the vehicle on it, computer vision techniques are used. The captured images are denoised, Canny edge detection is performed and a perspective transformation is applied. Thereafter a sliding window algorithm selects the edges belonging to the roadside and a second order polynomial is fitted to the selected data. Based on this, the road curvature and the lateral position of the vehicle on the road are calculated. The implemented software is thus able to detect straight and curved roads as well as the vehicle’s lateral offset.
A route planning module was implemented to navigate the vehicle from the start to the destination coordinates. This is done by creating an abstract graph of the roads and using Dijkstra’s algorithm to determine the shortest path.
Four MPC controllers were implemented to control the movements of the vehicle. They are based on state space equations derived from the linear single-track vehicle model. This relatively straightforward model makes it possible to predict the vehicle behavior and is efficient to compute. Each controller was built with different parameters for different vehicle speeds to account for the non-linearity of the system. The controllers simulate the future states of the system at each timeslot and select appropriate control signals for steering, throttle and brakes.
In this thesis, all the components of the steering and control module were individually validated. It was established that the each individual component works as expected and certain constraints and accuracy limits were identified. Finally, the closed loop capabilities of the system were assessed using a test vehicle. Despite some limitations imposed by this setup, it was shown that the control module is indeed capable of autonomously navigating a vehicle and avoiding collisions.
"Spielen und Sich-Bewegen sind elementare kindliche Bedürfnisse. Als positive Lebensäußerungen fördern sie Gesundheit und Wohlbefinden. Sie unterstützen die psychomotorische, emotionale und soziale Entwicklung und tragen zur Ausbildung kognitiver Strukturen bei. Durch Spiel und Bewegung macht das Kind Erfahrungen seiner selbst: Es erprobt Bewegungs- und Handlungsabläufe, lernt, sich einzuschätzen und erlebt eigenes Können und seine Grenzen. Im gemeinsamen Tun mit anderen Kindern entwickeln sich seine Kooperations- und Kommunikationsfähigkeit." (Hessisches Kultusministerium, 1995, S. 20)
In diesem Auszug aus dem Rahmenplan für den Sportunterricht in hessischen Grundschulen werden dem Sporttreiben neben gesundheitsfördernden vor allem charakterbildende Eigenschaften zugeschrieben. Laut der "Charta des Deutschen Sports" zählt Sport sogar zu den "nicht austauschbare[n] Faktoren der Bildung" und als wichtiger Baustein "zur Entfaltung der Persönlichkeit" (zit. nach Singer, 1986, S. 295). Damit werden hohe Erwartungen an die sportliche Betätigung von Kindern formuliert, die von einer gesamtheitlichen Förderung der individuellen Entwicklung durch die Partizipation am Sport ausgehen und ein geradezu lobpreisendes Bild von Bewegungspraktiken zeichnet.
Dass auch die Welt des Sports ihre negativen Seiten hat, ist nicht von der Hand zu weisen. Ein Blick in die Tageszeitung genügt, um über aktuelle Doping- und Korruptionsvorwürfe rund um Olympische Spiele, Manipulationsverdächtigungen gegenüber Schiedsrichtern oder gar staatlichen Einrichtungen oder randalierende und sich prügelnde Fangruppen informiert zu werden. Diese Thematiken lassen sich von der internationalen Bühne herunterbrechen bis auf den heimischen Fußballplatz vor der Haustür. Gerade auf diesem haben sich in den vergangenen Jahren, man darf mittlerweile gar von Dekaden sprechen, Szenen ereignet, die den im oben angestellten Zitat mit dem Sport verbundenen Ansprüchen nicht gerecht werden.
Gerade im Amateur- und Breitensportbereich des Fußballs ist im Allgemeinen eine rauere Atmosphäre wahrzunehmen, die sich nicht zuletzt in Spielabbrüchen und physischen Auseinandersetzungen äußert und sich nicht auf den Seniorenspielbetrieb beschränkt, sondern gar Junioren- und Kinderspiele umfasst. Diese ausgemachten Tendenzen waren letztendlich ausschlaggebend für die von Ralf Klohr, damals selbst als Nachwuchstrainer aktiv, 2007 vollzogene Gründung der "Fair-Play-Liga", die den angesprochenen Entwicklungen entgegenwirken und das Bildungspotenzial des Sports wieder mehr in den Vordergrund rücken und schützen soll. Die jüngsten Fußballinteressierten, also Kinder ab 4 Jahren, spielen dort nach modifizierten Regeln, die zur Erfüllung ihrer altersentsprechenden Bedürfnisse beitragen und diese sicherstellen sollen. Mittlerweile ist das Konzept deutschlandweit im Einsatz und eine etablierte Organisationsform des Kinderfußballs, mit der Klohr (2018) die "nglaubliche Kraft im Fußball" bemühen und diese über eine dem Straßenfußball ähnliche, aber nach seinen Vorstellungen verbesserte Herangehensweise zurückholen will:
"Ich sehe die Fair-Play-Liga mit Trainer als eine Qualitätssteigerung zum ‚alten‘ Bolzplatz. Ich sehe die Fair-Play-Liga als ‚modernen‘ Bolzplatz. Die Trainer haben in erster Linie einen Betreuungsauftrag. Auf dem modernen Bolzplatz können sie dafür sorgen, dass alle Kinder gerecht behandelt, also nicht, benachteiligt, werden."
Ebenso wie an den Schulsport sind an die Fair-Play-Liga durch ihre Selbstdefinition einige Erwartungen geknüpft. Die vorliegende Masterthesis macht es sich zum Ziel herauszuarbeiten, inwiefern die Initiative ihren eigens auferlegten Ansprüchen gerecht wird, welche Interaktionsverhältnisse sie hervorbringt und was sie im Sinne eines "Vermittlers" bestimmter Wertvorstellungen im Stande ist zu leisten.
Dafür soll zunächst einmal aufgezeigt werden, was dem Sport generell im Sinne eines Fairnessbegriffs und der damit verknüpften Werte tatsächlich an "Übermittlerpotenzial" innewohnt sowie was über das Fairnessverständnis von Kindern und Jugendlichen bekannt ist (Kapitel 2). Im Anschluss daran werden das vom Deutschen Fußball-Bund (DFB) verfolgte Ausbildungskonzept, die Grundmerkmale und Ziele der Fair-Play-Liga und bereits diesbezüglich durchgeführte Untersuchungen vorgestellt (Kapitel 3), ehe die eigenen Fragestellungen der Forschungsarbeit dargelegt werden (Kapitel 4).
Nach einer Beschreibung des methodischen Vorgehens in seiner Theorie und Praxis (Kapitel 5) folgen die Zusammenführung der im Forschungsprozess erzeugten Resultate und die daran anknüpfende Thesenbildung (Kapitel 6). In der anschließenden Diskussion sollen die Ergebnisse hinsichtlich ihrer Relevanz und ihrer Genese bewertet und interpretiert werden (Kapitel 7), sodass in einem letzten Schritt sowohl Handlungs- und Verbesserungsvorschläge gebündelt und Anregungen für weitere empirische Arbeiten gegeben werden können.
We give theorems about asymptotic normality of general additive functionals on patricia tries, derived from results on tries. These theorems are applied to show asymptotic normality of the distribution of random fringe trees in patricia tries. Formulas for asymptotic mean and variance are given. The proportion of fringe trees with 𝑘 keys is asymptotically, ignoring oscillations, given by (1−𝜌(𝑘))/(𝐻 +𝐽)𝑘(𝑘−1) with the source entropy 𝐻, an entropy-like constant 𝐽, that is 𝐻 in the binary case, and an exponentially decreasing function 𝜌(𝑘). Another application gives asymptotic normality of the independence number and the number of 𝑘-protected nodes.
Diese Masterarbeit fragt nach Anschlussmöglichkeiten der Schriften Bruno Latours an die Postwachstumsdiskussion an der Friedrich-Schiller-Universität Jena. Im ersten Schritt wird die Jenaer Debatte um Degrowth in der Tradition der kritischen Theorie verortet und inhaltlich anhand der Begriffe der »Wachstumskritik« und der »sozial-ökologischen Transformation« rekonstruiert. Zweitens folgt die Rekonstruktion Latours anhand dreier Werkphasen seit Anfang der 90ger Jahre. Im dritten Schritt geht es darum, Latour mit der Jenaer Debatte ins Gespräch zu bringen. Dabei stößt der Autor auf einen sozial-theoretischen Graben zwischen beiden Denkschulen. Das darf allerdings nicht darüber hinwegtäuschen, dass Latours Werke viele praktische Anknüpfungspunkte bereithalten, wie eine sozial-ökologische Transformation im Sinne der Postwachstumsdebatte gelingen kann.
During RUN3 (2021-2023) of the Large Hadron Collider, the Time Projection Chamber (TPC) of ALICE will be operated with quadruple stacks of Gas Electron Multipliers (GEMs). This technology will allow to overcome the rate limitation due to the gated operation of the Multi-Wire Proportional Chambers (MWPCs) used in RUN1 (2009-2013) and RUN2 (2015-2018).
As part of the Upgrade project, long-term irradiation tests, so called "ageing tests", have been carried out. A test setup with a detector using a quadruple stack of 10x10cm2 GEMs was built and operated in Ar-CO2 and Ne-CO2-N2 gas mixtures. The detector performance such as gas gain and energy resolution were monitored continuously. In addition, outgassing tests of materials used for the assembly process of the upgraded TPC were performed. To reach the expected dose of the GEM-based TPC, the detector was operated at much higher gains than the TPC. It was found, that the GEMs could keep their performance within the projected lifetime of the TPC. Most of the tested materials showed no negative impact on the detector. For the tested epoxy adhesive no certain conclusion could be drawn.
At much higher doses than expected for the upgraded TPC, a new phenomenon was observed, which changed the hole geometry of the GEMs and led to a degradation of the energy resolution. Even though its occurrence is not expected during the lifetime of the GEM-based TPC, simulations were carried out to study this effect more systematically. The simulations confirmed, that a change of the hole geometries of the GEMs, lead to an increase of the local gain variation, which results in a decrease of the energy resolution.
Furthermore the effect of methane as quench gas on GEMs was studied, even though this gas is not foreseen to be used in the TPC. From ageing tests with single-wire proportional counters it is well known that hydrocarbons are produced in the plasma of the avalanches, which cover the electrodes and lead to a degradation of the detector performance. Even though GEMs have a quite different geometry, the ageing tests showed, that also this technology tends to methane-induced ageing. A loss of gas gain as well as a degradation of the energy resolution due to deposits on the electrodes was monitored. A qualitative and quantitative comparison between ageing in GEMs and proportional counters was performed.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Ausgehend von Scheffers Beschreibung Existentieller Probleme untersucht die Masterarbeit die Problembehandlung solcher. Dabei versucht sich der Autor an einer vorläufigen Begriffsdefinition Existentieller Apparate und untersucht im folgenden, wie sich diese von der Arbeitsweise, ihrer Struktur und anderer Merkmale von herkömmlichen Apparaten unterscheiden. Die Diskussion erfolgt anhand der Problembearbeitungskapazitäten von der Flüchtlingshilfe auf Lesbos, Impfzentren und der Fridays-for-Future-Bewegung, die jeweils für Sich genommen speziell nur im Kontext jeweiliger Existentieller Probleme existieren.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Die vorliegende Arbeit liefert ein Versatzstück zu grundlagentheoretischen Überlegungen im Themenfeld Gesundheit. Dabei wird der Fokus insbesondere auf wissenschaftstheoretische, -soziologische und sozialpsychologische Reflektionen der gesundheitsbezogenen Diskurslandschaft im wissenschaftlichen Bereich gelegt. Diese werden nach gesellschaftsdiagnostischen Anteilen der Arbeit in reflektierter Art und Weise in einen diskursiven Vorschlag überführt, der wiederum für Gesundheit im universitären Setting wegweisend sein kann.
In thesis I investigate the possibility that at the smallest length scale (Planck scale) the very notion of "dimension" needs to be revisited. Due to "quantum effects" spacetime might become very turbulent at these scales and properties like those of "fractals" emerge, including a "scale dependent dimension". It seems that this "spontaneous dimensional reduction" and the appearance of a minimal physical length are very general effects that most approaches to quantum gravity share. Main emphasis is given to the"spectral dimension" and its calculation for strings and p-branes.
Im Blickpunkt der Arbeit steht die Historiografie der Unternehmungen Friedrich I. Barbarossas 1154-1158 in der Lombardei. Während der hochgebildete Bischof Otto von Freising ein reges Forschungsinteresse darstellt, sind seine beiden Zeitgenossen, die eigenständige Berichte über die Ereignisse verfassten, in der Forschung weitestgehend unberücksichtigt geblieben. Durch einen Vergleich der 'Gesta' Bischofs Otto von Freising, des 'Libellus' des Lodesen Otto Morena und der 'Narratio' eines anonymen Schreibers aus Mailand zeigt diese Arbeit die Absichten der Autoren auf und fragt, inwieweit die sich widersprechenden Schilderungen als "alternativen Fakten" aufgefasst werden können.
Nach einem Abriss über den Begriff der "alternativen Fakten", dem im Zuge der Präsidentschaft von Donald Trump Aufmerksamkeit zuteilwurde und der hier als unbewusst oder bewusst erfolgte Verformung verstanden wird, der neuzeitlichen Rezeption Barbarossas sowie einer zeitlichen und räumlichen Einordnung werden die "Ausgangslagen" der Autoren betrachtet. Die Entstehung der 'Gesta' und ihr Verhältnis zu Ottos erstem Werk sind umstritten. Es zeigt sich, dass die Positionen Ottos von Freising und Otto Morenas kaiserfreundliche, diejenige des Mailänders Autors eine kaiserfeindliche Absicht erwarten lassen.
Eine kleinteilige Betrachtung der Vorworte/Prologe der Werke offenbart die selbst geäußerten Absichten. Die Anlehnung der 'Gesta' Ottos von Freising an einen durch oder im Auftrag Barbarossas verfassten Tatenbericht sowie seine Lobpreisungen des Kaisers stellen eine Färbung der Darstellung in Aussicht. Auch bei Otto Morena zeigt sich eine starke Verbundenheit zum Kaiser, die Zweifel an der Neutralität seines Werkes aufkommen lassen muss. Der anonyme Autor aus Mailand bekennt ausdrücklich, zum Nutzen der Nachwelt zu schreiben und reiht die Zerstörung Mailands 1162 als Endpunkt einer weitzurückreichenden Opfernarrative ein. Auch wenn ausdrückliche Ausfälle gegen den Kaiser unterbleiben, sind starke Zweifel an einer neutralen Darstellung angezeigt.
Die Beschäftigung mit den Ereignissen des Jahres 1154 zeigt "alternative" Darstellungen: Die Darstellung Ottos von Freising hält sich an die kaiserliche Vorlage und ist im Sinne des Kaisers gehalten, was sich auch bei Otto Morena zeigt, der darüber hinaus die Rolle Lodis betont. Die Mailänder "Gegendarstellung" hingegen lastet negative Ereignisse ausschließlich Barbarossa an.
Otto von Freising betont die lange geplante Kaiserkrönung in Rom und den Feldzug gegen die Normannen als Ausgangspunkt des ersten Italienzuges. Otto Morena legt den Beginn des Disputs zwischen Barbarossa und den Mailändern auf die Versammlung des Hofes in Konstanz, wo Klagen zweier Lodesen Anlass zu Friedrichs erstem Italienzug gegeben hätten. Der Anonymus aus Mailand wirft Barbarossa vor, mit dem Ziel der militärischen Unterwerfung aufgebrochen zu sein.
Otto von Freising übernahm die Darstellung Barbarossas von einem Bestechungsversuch der Mailänder, deren Konsuln anschließend seinen Zug durch verödete Landschaften geführt hätten, was auch Otto Morena zu berichten weiß. Der Mailänder Schreiber verschweigt dies und erzählt stattdessen von Misshandlungen der Mailänder durch das königliche Gefolge. Die Erstürmung der Burg Rosate stilisiert er als unbegründeten Gewaltakt, während die Schreiber aus Lodi und Freising rechtfertigend argumentieren.
Die unabhängig überlieferte 'Conventio', die 1158 nach der Belagerung Mailands zwischen der Stadt und dem Kaiser geschlossen wurde, beinhaltete neben Strafbestimmungen die Anerkennung der Hoheit des Kaisers unter Wahrung der kommunalen Herrschaftsform. Während Otto Morena ihre Bestimmungen nur höchst unvollständig wiedergab, sodass der Schluss naheliegt, dass er sie nicht kannte, lieferte der Mailänder Anonymus durch gezielte Auslassungen und Verfälschung ihrer Bestimmungen erneut "alternative Fakten" und erweckte den Anschein einer Rückkehr zu den "kaiserfernen" Jahren vor Barbarossa.
Bei genauer Betrachtung der auf dem Hoftag von Roncaglia 1158 festgestellten 'lex omnis iurisdictio' wird deutlich, dass diese entgegen der bisherigen Forschungsmeinung keinen Bruch der 'Conventio' darstellte. Eine Konfrontation der Darstellungen der Ereignisse im Januar 1159 in Mailand mit dem Augenzeugenberichts Vinzenz' von Prag zeigt, dass Otto Morena erneut nur knapp berichtet. Der Anonymus hingegen liefert eine "alternative" Darstellung, nach der die Gesandten des Kaisers gekommen waren, um das Recht zu brechen. Diese Tendenziösität wird auch bei der Einnahme der Burg Trezzo deutlich, über die ein Bericht von Ottos einstigem Kaplan Rahewin vorliegt.
Die Darstellungen offenbaren, dass ihre Autoren ihre Texte gezielt einzusetzen gedachten und so zu Produzenten "alternativen Fakten" wurden. Für den Historiker zeigt sich einmal mehr die Wichtigkeit einer quellenkritischen Arbeitsweise, wie sie Johannes Fried in seiner "Memorik" eindrucksvoll vertrat.
Diese Arbeit beschäftigt sich mit dem Aufbau und der Kalibrierung eines Neutronendetektorarrays für niedrige Energien (Low Energy Neutron detector Array, kurz „LENA“) am kommenden R³B-Aufbau (Reactions with Relativistic Radioactive Beams) am FAIR (Facility for Antiproton and Ion Research) an der GSI in Darmstadt. Die Detektion niederenergetischer Neutronen im Bereich von 100 keV bis 1 MeV ist nötig, um Ladungsaustauschreaktionen, speziell (p,n)-Reaktionen in inverser Kinematik zu untersuchen. In diesem Energiebereich ist die Detektion äußerst schwierig, da Methoden für thermische als auch hochenergetische (100 MeV bis 1 GeV) Neutronen versagen. Neben dem Aufbau des Detektors wird die Bedeutung des Experiments für die nukleare Astrophysik verdeutlicht. Der theoretische Teil dieser Arbeit legt Grundlagen zum Verständnis für den Nachweis von Neutronen, die Funktionsweise des LENA-Detektors und den damit nachweisbaren Kernreaktionen. Des Weiteren wurde eine Simulation des Detektors mit GEANT4 (GEometry And Tracking), einer C++ orientierten Plattform für Simulationen von Wechselwirkungen von Detektormaterial mit Teilchen, durchgeführt. Die Ergebnisse wurden zur Auswertung von Messungen, die im Rahmen einer Strahlzeit im März 2011 an der Physikalisch Technischen Bundesanstalt (PTB) in Braunschweig durchgeführt wurden, herangezogen. Ziel der Arbeit ist es, die Effizienz des Detektors zu bestimmen.
This work proposes to employ the (bursty) GLO model from Bingmer et. al (2011) to model the occurrence of tropical cyclones. We develop a Bayesian framework to estimate the parameters of the model and, particularly, employ a Markov chain Monte Carlo algorithm. This also allows us to develop a forecasting framework for future events.
Moreover, we assess the default probability of an insurance company that is exposed to claims that occur according to a GLO process and show that the model is able to substantially improve actuarial risk management if events occur in oscillatory bursts.
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
PROTACs sind ein Teil der nächsten Generation von pharmazeutischen Wirkstoffen und bieten einen komplett neuen Ansatz, um mit kleinen Molekülen in biochemische Signalwege einzugreifen. PROTACs adressieren hierbei sowohl das Zielprotein als auch den E3-Ligase-Komplex und bewirken die Degradation des Zielproteins. Insbesondere in der Behandlung von bestimmten Krebsarten zeigen PROTACs einen neuen vielversprechenden Ansatz. Durch Inhibition der 5-LO mit bekannten Inhibitoren wie Zileuton® oder CJ-13,610 konnte der Weiterentwicklung von Leukämie, auch bekannt als Blutkrebs, entgegen gewirkt werden, aber nicht aufgehalten werden. Hier sollen als neue Methode PROTACs eingesetzt werden, um der Überexpression der 5-LO in Leukämiezellen durch Degradation entgegenzuwirken.
Mit HK330 und CJ-13,610 als Leitstruktur wurden 17 PROTACs erfolgreich synthetisiert und charakterisiert.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
Die folgende Arbeit handelt von einer Text2Scene Anwendung, welche in der Virtual Reality (VR) umgesetzt wurde. Das System ermöglicht es den Usern aus einer Beschreibung einer Szene, diese virtuell nachzustellen. Dies bietet eine neue Art der Interaktion mit einem Text, die die visuelle Komponente hervorhebt und somit eine Geschichte auf neue Wege erfahrbar macht.
Dazu kann der User einen fertigen Text entweder vom Server zu laden oder einen eigenen erstellen, der dann automatisch verarbeitet wird. Dabei werden die vorhanden physischen Objekte im Text automatisch erkannt und dem User als 3D-Objekte in der virtuellen Umgebung zur Verfügung gestellt. Diese können dann manuell platziert werden und erzeugen dadurch die Szene, die im Ausgangstext beschrieben wurde. Das Ziel der Textverarbeitung ist eine möglichst genaue Beschreibung der Objekte, damit diese zielgerichtet in der Objektdatenbank gesucht werden können.
Bei der Textverarbeitung wird besonderer Wert auf das Erkennen von Teil-Ganz Beziehungen gelegt. Sodass Objekte, die im Text vorkommen und ein Holonym besitzen, automatisch mit diesem verknüpft werden. Gleichzeitig wird die Teil-Ganz Beziehung aber auch in die andere Richtung genauer betrachtet. Die Textverarbeitung soll ferner dazu in der Lage sein, Objekte genauer zu spezifizieren und an den Kontext des Textes anzupassen. Weiterhin wurde das Natural Language Processing (NLP) so ausgebaut, dass der Kontext des Textes erkannt wird und die Objekte entsprechend kategorisiert werden. Die Textverarbeitung wird mithilfe eines Neuronalen Netzes implementiert. Die verwendeten Tools zur Erkennung von Teil-Ganz Beziehungen, Kontext und Spezifikation von Objekten wurden anhand von Texteingaben nach der Genauigkeit der Ausgabe evaluiert.
Zur Nutzung der Textverarbeitung wurde eine virtuelle Szene entwickelt, die das Erstellen von eigenen Szenen aus vorher geladenen beziehungsweise eingegebenen Texten ermöglicht.
Dazu kann der Nutzer manuell oder automatisch Objekte laden lassen, die er dann platzieren kann.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
Lernmodule wie Web Based Trainings (WBT) sind eine Methode um eLearning Inhalte anzubieten. Web Based Trainings basieren per Definition auf dem Word Wide Web (WWW). Durch die Entwicklung des Web zum Web 2.0 sind für Benutzer neue Möglichkeiten entstanden am Web teilzunehmen. Dadurch wurde auch das eLearning beeinflusst. In dieser Arbeit werden die Innovationen für den Autorenprozess von Web Based Trainings betrachtet. Ihre Nützlichkeit soll anhand dem Autorensystem LernBar deutlich gemacht werden. Die Analyse weiterer Autorensysteme verdeutlicht den aktuellen Stand. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer web-basierten LernBar verwendet. Das Konzept für Web 2.0 Based Training beschreibt den neuen Autorenprozess in der LernBar. Das neue Konzept ermöglicht Flexibilität, die zu neuen Einsatzszenarien führt. Schwierigkeiten in der Umsetzung werden diskutiert.
Mithilfe einer (n,γ)-Aktivierung von Germanium am Forschungsreaktor TRIGA in Mainz wurde zum einen in Hinblick auf zukünftige Experiment an der NIF eine Sensitivitätsstudie durchgeführt. Zum anderen wurden die thermischen Neutroneneinfangquerschnitte von 74Ge und 76Ge jeweils für den Einfang in den Isomer- und Grundzustand gemessen, um die Abweichungen der Daten von [Hol93] und [Mug06] zu klären. Zusätzlich wurden die Halbwertszeiten der betrachteten radioaktiven Ge-Isotope bestimmt.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Statistical shape models learn to capture the most characteristic geometric variations of anatomical structures given samples from their population. Accordingly, shape models have become an essential tool for many medical applications and are used in, for example, shape generation, reconstruction, and classification tasks. However, established statistical shape models require precomputed dense correspondence between shapes, often lack robustness, and ignore the global surface topology. This thesis presents a novel neural flow-based shape model that does not require any precomputed correspondence. The proposed model relies on continuous flows of a neural ordinary differential equation to model shapes as deformations of a template. To increase the expressivity of the neural flow and disentangle global, low-frequency deformations from the generation of local, high- frequency details, we propose to apply a hierarchy of flows. We evaluate the performance of our model on two anatomical structures, liver, and distal femur. Our model outperforms state-of-the-art methods in providing an expressive and robust shape prior, as indicated by its generalization ability and specificity. More so, we demonstrate the effectiveness of our shape model on shape reconstruction tasks and find anatomically plausible solutions. Finally, we assess the quality of the emerging shape representation in an unsupervised setting and discriminate healthy from pathological shapes.
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
In dieser Arbeit wurde der mittlere Transversalimpuls 〈pT〉 für nicht identifizierte, geladene Hadronen in pp und Pb–Pb Kollisionen bestimmt. Dazu wurden die pT -Spektren mit verschiedenen Funktionen bis pT = 0 extrapoliert. Die 〈pT〉 -Abhängigkeit wurde sowohl für die Anzahl der gemessen Teilchen nacc , als auch für die Anzahl der geladene Spuren nch gezeigt. Im Rahmen der Zentralitätsabhängigkeit wurde für periphere Ereignisse (70% bis 80 %) 〈pT〉 = 550, 1MeV/c gemessen. Der mittlere Transversalimpuls steigt bis auf 〈pT〉 = 628, 9MeV/c für Zentralitäten von 5% - 20% und verringert sich dann auf 〈pT〉 = 626, 8MeV/c für die zentralsten Kollisionen (0% - 5%) ab. Der Vergleich zu pp und Pb–Pb Kollisionen zeigte Gemeinsamkeiten für niedrige Multiplizitäten und ein sich unterscheidendes Verhalten für höhere Multiplizitäten.
Neben der Bestimmung der systematischen Unsicherheiten ist ein nächster Schritt die Unterscheidung zwischen hadronischer und elektromagnetischer Wechselwirkung für geringe Multiplizitäten in Pb–Pb Kollisionen. Eine Möglichkeit zur Unterscheidung wurde bereits mit Hilfe des ZDC gezeigt [Opp11]. Ebenfalls die Unterschiede zwischen pp und Pb–Pb betrifft eine Untersuchung der 〈pT〉 -Entwicklung für Jets und den sie umgebenden Hintergrund.
Eine allgemeine Erweiterung der Analyse stellt die Untersuchung von 〈pT〉 für identifizierte Teilchen da. Diese Analyse würde vor allem die besonderen PID Fähigkeiten von ALICE nutzen und könnte die schon beobachteten Unterschiede der NA49 Kollaboration[NA499] bei höheren Energien untersuchen
Jürgen Habermas und Talal Asad zählen zu den bedeutendsten Protagonisten des Diskurses um die postsäkulare Gesellschaft. In der vorliegenden Arbeit unternehme ich eine vergleichende Lektüre zentraler Schriften beider Autoren. Dabei versuche ich, möglichst präzise zu beschreiben, wie Habermas und Asad einen neuen Blickwinkel auf die Verhältnisbestimmung von Religion und Gesellschaft in der Gegenwart freigeben und plausibilisieren.
Einen zentralen Stellenwert schreibe ich der Tatsache zu, dass hierfür von beiden der Begriff der ‚Übersetzung‘ herangezogen wird. Ziel der Untersuchung ist es folglich, erste systematisierende Vorstöße bezüglich des Begriffspaars ‚Religion übersetzen‘ zu leisten. Dabei gilt es ein Bündel an Forschungsfragen zu beantworten: Wie wird der Begriff der Übersetzung verstanden? In welcher Art und Weise kommt Religion im Werk der Autoren zur Sprache? Auf welche Aspekte der Religion soll sich die Übersetzungsleistung beziehen? Wer sind die Subjekte dieser Übersetzung? Und schließlich, welche Chancen und Probleme bringen die beiden Ansätze für eine politiktheoretische Perspektive auf religiös-gesellschaftliche Fragestellungen mit sich?
Bei der Bekleidungsmodellierung geht es um den Entwurf von Bekleidung von Personen, die beispielsweise in Szenen dargestellt werden können. Dabei stützt sich der Entwurf auf Informationen aus einer Datengrundlage. Die Darstellung von Szenen, in denen Personen dargestellt werden, stellt sich grundsätzlich als Zusammenspiel komplexer Teilaspekte dar. Dabei wird die Nachvollziehbarkeit einer modellierten Szene oder modellierter Avatare im Auge des Betrachters ganz wesentlich durch den Faktor passend gewählter Kleidung bestimmt.
In dieser Arbeit werden Ansätze und Verfahren vorgestellt, die zur Bekleidungsmodellierung auf Grundlage von Textdokumenten basieren. Dafür werden Möglichkeiten erörtert, die es erlauben Informationen aus Texten zu extrahieren und für die Modellierung einzusetzen.
Zur Bearbeitung der Aufgabenstellung wird zunächst ein aus dem Machine Learning bekanntes kontextuelles Modell hinsichtlich einer Mehrklassen-Klassifizierung trainiert und angewendet. Daraufhin wird die Erstellung einer eigenen Wissensressource, die sich auf textlicher Ebene mit dem Thema der Bekleidung auseinandersetzt, aufgebaut und mit zahlreichen Informationen aus bereits bestehenden Ressourcen popularisiert. Die neue Ressource wird in Form einer Graphdatenbank entworfen. Dabei werden Relationen zwischen den einzelnen Elementen mithilfe von statischen Modellen sowie einem kontextuellen Modell, dem BERT-Modell, erstellt. Schließlich wird auf Grundlage der entwickelten Graphdatenbank ein in der Programmiersprache Python entwickeltes Programm vorgestellt, dass Eingabetexte unter Hinzunahme der Informationen und Relationen innerhalb der Graphdatenbank verarbeitet und Kleidungsstücke detektiert.
Nach der theoretischen Aufarbeitung der entwickelten Ansätze werden die daraus resultierenden Ergebnisse diskutiert und bestehende Problematiken bei der Bearbeitung der Aufgabenstellung angesprochen. Abschließend wird die Arbeit zusammengefasst und Anregungen für die weitere Bearbeitung dieser Thematik vorgestellt.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
Mit dieser Arbeit konnte die Funktionsweise von gekoppelten Resonatoren erklärt werden. Das Verhalten von induktiv gekoppelten Beschleunigerkavitäten wurde näher studiert. Dabei wurde verstanden, wie sich Verstimmungen auf die Resonatoren auswirken und was zu tun ist um die Spannungsamplituden des gekoppelten Systems zu beeinflussen. Zudem wurden die Grundlagen für den gekoppelten Betrieb des FRANZ-Beschleunigers gelegt.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
This work deals with the determination of the scale parameter ΛM̄S̄ from lattice QCD and perturbation theory results of the static quark-antiquark potential for nf = 2. The investigation is done in momentum space. Lattice methods as well as perturbation theory calculations are introduced. Another part of this work concerns the calculation of the quark-antiquark potential from gauge link configurations for nf = 2 + 1 + 1.
Computational workflow optimization for magnetic fluctuation measurements of 3D nano-tetrapods
(2021)
The detailed understanding of micro–and nanoscale structures, in particular their magnetization dynamics, dominates contemporary solid–state physics studies. Most investigations already identified an abundance of phenomena in one–and two–dimensional nanostructures. The following thesis focuses on the magnetic fingerprint of three–dimensional CoFe nano–magnets, specifically the temporal development of their hysteresis loop. These nano–magnets were grown in a tetrahedral pattern on top of a highly susceptible home–build GaAs/AlGaAs micro–Hall sensor using focused electron beam induced deposition (FEBID).
During the measurements, utmost efforts were employed to exemplify current best research practices. The data life cycle of the present thesis is based upon open–source data science tools and packages. Data acquisition and analysis required self–written automated algorithms to handle the extensive quantity of data. Existing instrumental-controlling software was improved, and new Python packages were devised to analyze and visualize the gathered data. The open–source Python data analysis framework (ana) was developed to facilitate computational reproducibility. This framework transparently analyses and visualizes the gathered data automatically using Continuous Analysis tools based on GitLab and Continuous Integration. This automatization uses bespoke scripts combined with virtualization tools like Docker to facilitate reproducible and device–independent results.
The hysteresis loops reveal distinct differences in subsequently measured loops with identical initial experimental parameters, originating from the nano–magnet’s magnetic noise. This noise amplifies in regions where switching processes occur. In such noise–prone regions, the time–dependent scrutinization reveals presumably thermally induced metastable magnetization states. The frequency–dependent power spectral density uncovers a characteristic 1/f² behavior at noise–prone regions with metastable magnetization states.
When performing transfer learning in Computer Vision, normally a pretrained model (source model) that is trained on a specific task and a large dataset like ImageNet is used. The learned representation of that source model is then used to perform a transfer to a target task. Performing transfer learning in this way had a great impact on Computer Vision, because it worked seamlessly, especially on tasks that are related to each other. Current research topics have investigated the relationship between different tasks and their impact on transfer learning by developing similarity methods. These similarity methods have in common, to do transfer learning without actually doing transfer learning in the first place but rather by predicting transfer learning rankings so that the best possible source model can be selected from a range of different source models. However, these methods have focused only on singlesource transfers and have not paid attention to multi-source transfers. Multi-source transfers promise even better results than single-source transfers as they combine information from multiple source tasks, all of which are useful to the target task. We fill this gap and propose a many-to-one task similarity method called MOTS that predicts both, single-source transfers and multi-source transfers to a specific target task. We do that by using linear regression and the source representations of the source models to predict the target representation. We show that we achieve at least results on par with related state-of-the-art methods when only focusing on singlesource transfers using the Pascal VOC and Taskonomy benchmark. We show that we even outperform all of them when using single and multi-source transfers together (0.9 vs. 0.8) on the Taskonomy benchmark. We additionally investigate the performance of MOTS in conjunction with a multi-task learning architecture. The task-decoder heads of a multi-task learning architecture are used in different variations to do multi-source transfers since it promises efficiency over multiple singletask architectures and incurs less computational cost. Results show that our proposed method accurately predicts transfer learning rankings on the NYUD dataset and even shows the best transfer learning results always being achieved when using more than one source task. Additionally, it is further examined that even just using one task-decoder head from the multi-task learning architecture promises better transfer learning results, than using a single-task architecture for the same task, which is due to the shared information from different tasks in the multi-task learning architecture in previous layers. Since the MOTS rankings for selecting the MTI-Net task-decoder head with the highest transfer learning performance were very accurate for the NYUD but not satisfying for the Pascal VOC dataset, further experiments need to varify the generalizability of MOTS rankings for the selection of the optimal task-decoder head from a multi-task architecture.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
The thesis delves into two research questions, drawing from the 2022 Final Report of the Colombian Truth Commission. It critically examines historical power differentials originating from the colonial period, probing their role in legitimizing and perpetuating violence against ethnic groups, women, and individuals diverging from cisgender or heteronormative norms within Colombian society. Additionally, the research explores the pervasive influence exerted by the colonial legacy on the foundational structures of Colombian societal organization. Employing discourse analysis as its methodological approach, the thesis undertakes the task of deconstructing and reconstructing the Report, thereby elucidating emergent and contingent discursive meanings that situate coloniality within the realms of cognition, language, and affect. Emphasizing the presence of counter-hegemonic knowledge within the Report, the thesis integrates its findings into a robust theoretical and conceptual framework, facilitating a nuanced and systematic comprehension of the underlying causes of violence perpetrated against marginalized groups and the environment. These causes are intricately linked to the intertwined and hybridized power structures that have endured since the colonial era.
Power structures of Eurocentric origin, alongside mental constructs imposed by European invaders over centuries — such as anthropocentrism, racism, internal colonialism, heteropatriarchy, cisnormativity, and classism — were gradually naturalized and institutionalized within Colombian society. This process has been perpetuated through the state's reproduction of these patterns since the inception of Colombia as a nation-state. Consequently, hierarchical discursive constructions, posited as universal and self-evident, have marginalized certain groups and justified environmental degradation. While the internal armed conflict exacerbated these issues, it did not create them; rather, it intensified pre-existing violences, targeting individuals, communities, and their territories.
The thesis also underscores the portrayal of otherness within the modern-colonial world-system, rooted in principles of domination and subalternity, perpetuating colonial patterns of thought and action, reinforcing the hegemonic cosmovision. Notions of superiority and inferiority that predate the establishment of the Colombian nation-state have influenced social categories, subject positions, and identities, resulting in disproportionate, differential, and cumulative harm inflicted upon subalternized population groups. This contributes to a culture of 'justified' violence.
The research underscores the profound entrenchment of coloniality in the structures of Colombian society and the various inherent logics of violence within its conflicts. Coloniality, a comprehensive framework encompassing colonial patterns of thought and action, originating from the invasion and conquest of Abya Yala, continuously shapes the contemporary realities of societies in diverse (re-)configurations, leaving indelible imprints. The effects of these dynamics are manifold, ranging from the imperative of monogamous sexuality according to Judeo-Christian principles as a self-evident norm to the view of nature as a resource rather than a unit comprising both people and environment. In other words, colonial patterns are deeply embedded in all structures of society. A key recommendation emerging from this thesis is to underscore the imperative to recognize and question the persistence of colonial patterns in social and individual lives.
The research urges recognition and interrogation of these persistent colonial patterns in societal and individual structures, advocating for transformative paradigms that challenge conventional thought patterns and foster self-reflection among Colombians. The report, functioning as a political instrument, holds the potential to significantly contribute to the formation of subjectivities that break away from the epistemic schemes of modernity/coloniality. The research and its findings create a political space for questioning the universalist notion of the Eurocentric civilizing project, the scientific rationality of the universal subject, and the presumed neutrality of its forms of knowledge. This opens avenues for questioning, disputing, and transforming entrenched paradigms.
Inhalt dieser Arbeit ist die Entwicklung einer digitalen Korpusanwendung zur türkeitürkischen Dialektologie, in welcher der Inhalt des in Kapitel 3.1 beschriebenen Wörterbuchs komplett enthalten und umfangreich durchsuchbar sein soll. Da das Dialektwörterbuch insgesamt 126.468 Einträge enthält, ist eine manuelle Recherche darin äußerst zeitintensiv und unkomfortabel. Selbst die Suche innerhalb einer digitalen Version, die z. B. in einer Word-Datei gespeichert sein kann, ist nicht komfortabel möglich, sobald Optionen bzw. Einschränkungen getätigt werden sollen, wie z. B. die Beschränkung der Ergebnisse auf das Vorkommen in einer bestimmten Provinz. Daher ist es das Ziel der Entwicklung, den Anwendern folgende Suchmöglichkeiten zu bieten: Das Wörterbuch soll entweder komplett im Volltext durchsucht werden können, oder nur innerhalb des Lemmas1. Dabei soll jeweils die Angabe einer oder mehrerer Provinzen möglich sein, sodass die Suchergebnisse nur jene Einträge beinhalten, in denen Suchbegriff und Provinz in der gleichen Zeile enthalten sind. Die Treffer der Suche sollen farbig hervorgehoben sein, damit insbesondere bei großen Wörterbucheinträgen nicht manuell nach den darin enthaltenen Suchbegriffen gesucht werden muss, sondern diese dem Anwender direkt auffallen. Außerdem ist es wünschenswert, mittels Platzhaltern und sogenannten Coversymbolen nach Wortformen und phonetisch bedingten Allomorphen suchen zu können. Letzteres ist für Linguisten, die sich mit dem Türkischen beschäftigen, bei der Eingabe der Suchbegriffe äußerst praktisch, da das Türkische eine vokalharmonische Sprache ist, in der phonetisch bedingte Varianten üblicherweise durch die Schreibung mit Coversymbolen dargestellt werden: z. B. -lAr für die Pluralallomorphe -lar und -ler...
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Asymptotic giant branch (AGB) stars are initially low and intermediate mass stars undergoing recurrent hydrogen and helium shell burning. During the advanced stage of stellar evolution AGB stars follow after the helium core burning ceased and are located in the AGB of the Hertzsprung-Russell Diagram. One characteristic is their ability of element synthesis, especially carbon and nitrogen, which they eject in large amounts into the interstellar medium. But AGB stars also feature a slow-neutron capture process called s-process which forms approximately 50 % of all elements between Fe and Bi. The initial mass function emphasizes the importance of the synthesized ejecta of AGB stars since they are much more abundant than massive stars. Therefore, the abundance evolution of many elements in the universe is drastically affected by AGB stars. In order to understand chemical evolution in the universe their behavior must be known since their first appearance. In previous times less heavy elements were produced and available. Hence AGB stars with lower heavy element content, which means lower metallicity, must be investigated. They appear to behave substantially differently than stars of higher metallicity. Another issue is that AGB stars have mass-dependent characteristics from which follows a division into low-mass, massive and super AGB stars. Super AGB stars have the most open issues due to their large masses and initial mass boundaries that separate them from massive stars. Due to large spectroscopic surveys in the last years, many low metallicity stars have been analyzed. These findings make it necessary to complement those studies through stellar modeling. This work makes a step in this direction. The AGB star masses under investigation are 1M⊙, 1.65M⊙, 2M⊙, 3M⊙, 4M⊙, 5M⊙, 6M⊙ and 7M⊙ which include low-mass, massive and super AGB stars. Metallicities of Z = 6 x 10 exp-3 and Z = 1 x 10 exp-4 (for comparison, solar Z ~ 0.02) were chosen. These results are an extension of already available data, covering solar and half-solar metallicity, but without super AGB stars. Therefore physics input includes mainly well-established approaches rather than new theories. New physical approaches are included due to the low metallicity which makes the results a unique set of models. Additionally, extensive s-process network calculations lead to production factors of all included elements and isotopes. The s-process signatures of those stars were analyzed. The stellar evolution simulations presented in this work have been utilized for rate and especially sensitivity studies. One approach done was to analyze s-process branchings at 95Zr and 85Kr for stars at 3M⊙ with Z = 1 x 10 exp-2 and Z = 1 x 10 exp-3 respectively.
Die Arbeit widmet sich der bisher wenig beachteten Demokratietheorie des neoliberalen Ökonomen und Sozialphilosophen Friedrich Hayeks. In seiner Ablehnung des Prinzips der Volkssouveränität scheint es Hayek nicht in erster Linie um die Kritik des demokratischen Elements zu gehen, sondern vielmehr um die moderne Idee staatlicher Souveränität schlechthin. Es ist folglich die Idee der Rechtssouveränität, so die grundlegende These, auf der Hayek seine doppelte Kritik von Naturrecht und Rechtspositivismus gründet. Entprechend ist der Staat in der von Hayek gezeichneten Utopie nicht länger Souverän, Ausdruck, Grund oder Herrscher (in) der Gesellschaft, sondern bloßes Mittel, um die "spontanen Ordnungen" der Gesellschaft (und der Märkte) zu schützen, ohne durch Gesetzgebung planen, gestalten oder intervenieren zu wollen. Allein solches, an den "Nomos" gebundenes, staatliches Handeln könne (und muss!) der "Meinung" der Menschen entsprechen. Die Klärung dieses sehr speziellen und auf David Hume zurückgehenden Verständnisses von "Meinung" erlaubt schließlich, das Denken Hayeks nicht nur hinsichtlich seines Souveränitätsbegriffs, sondern auch hinsichtlich seines Demokratiebegriffs vom Denken Carl Schmitts abzugrenzen. Entgegen dem prägenden Diskurs nach Cristi und Scheuerman, der die Kritik der hayekschen Theorie über die Problematisierung ihres schmittschen Gehalt unternimmt, soll die Arbeit den Blick dafür schärfen, dass der in Hayeks Theorie angelegte Autoritarismus auf eigenen philosophischen Füßen steht und sich nicht erschöpfend aus einem bewusst oder unbewusst übernommenen schmittschen Erbe erklären lässt.
Das Staatsangehörigkeitsrecht verankert rechtlich Vorstellungen über Zugehörigkeit und bestimmt wer vollumfängliche Rechte in einer Gesellschaft hat und wer nicht. Jahrzehntelang wurde Migration in Deutschland als etwas temporäres betrachtet. Im Staatsangehörigkeitsrecht galt bis zur Reform 1999/2000 weitgehend das „ius sanguinis“, das Abstammungsrecht, das auf einem rassistischen und völkischen Staatsverständnis beruht. Diese Reform bedeutete somit mehr als eine reine Gesetzesänderung. Sie war eine Anerkennung Deutschlands als Einwanderungsland und die Veränderung der Vorstellung deutscher Identität. Als Reaktion entbrannte infolge der Reformpläne eine hitzige, rassistische Debatte in der Öffentlichkeit über ebendiese Fragen, die unter dem polarisierten Schlagwort „Doppelpass“ verhandelt wurde. Es war die lauteste migrationspolitische Debatte dieser Zeit.
Kurze Zeit vor Beginn dieser Debatte war die rechtsterroristische Gruppe „Nationalsozialistischer Untergrund“ (NSU) abgetaucht, um einem Haftbefehl zu entgehen. Der NSU war ein deutsches, neonazistisches Netzwerk, in dessen Mittelpunkt drei Terrorist*innen standen. Sie verübten über einen Zeitraum von zwölf Jahren eine rassistische Mordserie an neun Personen türkischer, kurdischer und griechischer Herkunft sowie drei Sprengstoffanschläge auf migrantische Orte und ermordeten eine Polizistin. Den ersten ihrer Sprengstoffanschläge begingen sie nur einen Monat nach der Unterzeichnung der Reform. Wenige Monate nach dem Inkrafttreten des Gesetzes begannen sie mit dem Anschlag auf Enver Şimşek ihre rassistische Mordserie.
Diese Arbeit untersucht anhand der Struktur der Historisch-Materialistischen Politikanalyse das Migrationsregime um die Staatsangehörigkeitsreform von 1999/2000 und wie der NSU darin verortet werden kann.
Die Kontextanalyse stellt auf der Grundlage einer Literaturrecherche die relevanten historischen und strukturellen Faktoren der Debatte sowie des NSU dar. Im nächsten Schritt werden mithilfe einer Analyse von Zeitungsartikel aus dieser Zeit die relevanten Akteur*innen identifiziert und in die vier Hegemonieprojekte neoliberal, sozial, linksliberal-alternativ und konservativ gruppiert. Darauffolgend wird der Ablauf der Debatte in vier Phasen darstellt und als Aushandlung der vier Hegemonieprojekte rekonstruiert. Dabei zeigt sich, dass kein Projekt sich vollumfänglich durchsetzen und Hegemonie erreichen konnte, sie jedoch unterschiedlich stark in den Medien repräsentiert wurden.
Im letzten Schritt betrachtet diese Arbeit Verbindungen dieser Migrationsregime-Analyse zum NSU. Sie kommt zu dem Ergebnis, dass der NSU kein Akteur im Migrationsregime um die Staatsangehörigkeitsdebatte von 1998/99 war. Aufgrund der geringen Erkenntnisse über spezifische Meinungen des NSU zum Staatsangehörigkeitsrecht, können keine kausalen Beziehungen hergestellt werden. Dennoch zeigt diese Arbeit Gemeinsamkeiten in den Weltbildern, Annahmen und migrationspolitischen Zielen des NSU, des konservativen Hegemonieprojektes sowie Teilen der Bevölkerung auf. Dadurch wird ein Beitrag dazu geleistet den NSU als Produkt und Teil der deutschen Gesellschaft zu begreifen.
The reanalysis products and derived products, ERA5 (Copernicus Climate Change Service, 2018) and W5E5 (WATCH Forcing Data (WFD) methodology applied to ERA5) (LANGE ET AL., 2021) have been recently published initiating a new phase of scientific research utilizing these datasets. ERA5 and W5E5 offer the possibility to reduce insecurities in model results through their improved quality compared to previous climate reanalyses (CUCCHI ET AL., 2020). The suitability of either climate forcing as input for the hydrological model WaterGAP and the influence of the models specific calibration routine has been evaluated with four model experiments. The model was validated by analysing the models ability to produce reasonable values for global water balance components and to reproduce observed discharge in 1427 basins as well as total water storage anomalies in 143 basins using well established efficiency metrics. Bias correction of W5E5 was found to lead to more global realistic mean precipitation and consequently discharge and AET values. In an uncalibrated model setup ERA5 results in better performances across all efficiency metrics. Model results produced with W5E5 as climate input were strongly improved through calibration ultimately leading to the best performances out of all four model experiments. However, model performances considerably improved through calibration with both climate forcings hence calibration was found to have the strongest effect on model performance. Furthermore, spatial differences in performance of either forcing were identified. Snow-dominated regions show an overall better performance with ERA5, while wetter and warmer regions are better represented with W5E5. Finally, it can be concluded that W5E5 should be preferred as climate input for impact modelling; however, depending on the spatial scale and region ERA5 should at least be considered, in particular for snow-dominated regions.
As a part of this thesis, a Monte Carlo-based code has been developed capable of simulating the transition of proton beam properties to neutron beam properties as it occurs in the Li-7(p, n)Be-7 reaction. It is able to reproduce not only the angle-integrated energy distributions but it is also capable of predicting the angle-dependent neutron spectra as measured at Forschungszentrum Karlsruhe (Karlsruhe, Germany) and Physikalisch-Technische Bundesanstalt (Braunschweig, Germany). Since the code retains all three spatial dimensions as well as all three velocity dimensions, it provides very detailed information on the neutron beam. The resulting data can aid in many different aspects, for example it can be used in shielding construction, or for lithium target design. In this work, the code is used to predict the neutron beam properties expected at the Frankfurt Neutron Source at Stern-Gerlach-Zentrum (FRANZ) facility. For different proton beam energies, the neutron distribution in x/p_x, y/p_y, and z/p_z is shown as well as a Mollweide projection, which illustrates the kinematic collimation effect that limits the neutron cone opening angle to less than 180 degree.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
Software updates are a critical success factor in mobile app ecosystems. Through publishing regular updates, platform providers enhance their operating systems for the benefit of both end users and third-party developers. It is also a way of attracting new customers. However, this platform evolution poses the risk of inadvertently introducing software problems, which can severely disturb the ecosystem’s balance by compromising its foundational technologies. So far, little to no research has addressed this issue from a user-centered perspective. The thesis at hand draws on IS post-adoption literature to investigate the potential negative influences of operating system updates on mobile app users. The release of Apple’s iOS 13 update serves as research object. Based on over half a million user reviews from the AppStore, data mining techniques are applied to study the impact of the new platform version. The results show that iOS 13 caused complications with a large number of popular apps, leading to a significant decline in user ratings and an uptrend in negative sentiment. Feature requests, functional complaints, and device compatibility are identified as the three major issue categories. These issue types are compared in terms of their quantifiable negative effect on users’ continuance intention. In essence, the findings contribute to IS research on post-adoption behavior and provide guidance to ecosystem participants in dealing with update-induced platform issues.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.