Refine
Year of publication
Document Type
- Master's Thesis (127) (remove)
Has Fulltext
- yes (127)
Keywords
- Beschleunigerphysik (2)
- E-Learning (2)
- Erwachsenenbildung (2)
- Experiment (2)
- Ionenstrahl (2)
- Konstruktion (2)
- Lehren mit neuen Medien (2)
- Lehrerbildung (2)
- Lernen mit neuen Medien (2)
- Machine Learning (2)
Institute
- Physik (61)
- Gesellschaftswissenschaften (11)
- Informatik und Mathematik (10)
- Mathematik (7)
- Informatik (6)
- Geowissenschaften (4)
- Erziehungswissenschaften (3)
- Neuere Philologien (3)
- Sportwissenschaften (3)
- Psychologie (2)
Frankfurt as a global international city is home to transcultural people with diverse linguistic biographies and migration backgrounds. As teachers exert significant influence on the language practice of their students and their awareness of self and others, it is crucial to examine the language ideologies and attitudes on multilingualism of teachers who work in different schools in Frankfurt. The online questionnaire was selected as the data collection
method for the combination of qualitative and quantitative analysis where teachers were asked to select their opinion on statements that were designed to represent concurring viewpoints of separate bilingualism and flexible bilingualism. The study builds on existing evidence that multiple factors dynamically shape teachers' attitudes towards multilingualism.
School-level support and cooperation between educational institutions seems to be necessary to establish horizontal continuity and help students benefit from language-sensitive didactic methods, such as translanguaging.
Das Staatsangehörigkeitsrecht verankert rechtlich Vorstellungen über Zugehörigkeit und bestimmt wer vollumfängliche Rechte in einer Gesellschaft hat und wer nicht. Jahrzehntelang wurde Migration in Deutschland als etwas temporäres betrachtet. Im Staatsangehörigkeitsrecht galt bis zur Reform 1999/2000 weitgehend das „ius sanguinis“, das Abstammungsrecht, das auf einem rassistischen und völkischen Staatsverständnis beruht. Diese Reform bedeutete somit mehr als eine reine Gesetzesänderung. Sie war eine Anerkennung Deutschlands als Einwanderungsland und die Veränderung der Vorstellung deutscher Identität. Als Reaktion entbrannte infolge der Reformpläne eine hitzige, rassistische Debatte in der Öffentlichkeit über ebendiese Fragen, die unter dem polarisierten Schlagwort „Doppelpass“ verhandelt wurde. Es war die lauteste migrationspolitische Debatte dieser Zeit.
Kurze Zeit vor Beginn dieser Debatte war die rechtsterroristische Gruppe „Nationalsozialistischer Untergrund“ (NSU) abgetaucht, um einem Haftbefehl zu entgehen. Der NSU war ein deutsches, neonazistisches Netzwerk, in dessen Mittelpunkt drei Terrorist*innen standen. Sie verübten über einen Zeitraum von zwölf Jahren eine rassistische Mordserie an neun Personen türkischer, kurdischer und griechischer Herkunft sowie drei Sprengstoffanschläge auf migrantische Orte und ermordeten eine Polizistin. Den ersten ihrer Sprengstoffanschläge begingen sie nur einen Monat nach der Unterzeichnung der Reform. Wenige Monate nach dem Inkrafttreten des Gesetzes begannen sie mit dem Anschlag auf Enver Şimşek ihre rassistische Mordserie.
Diese Arbeit untersucht anhand der Struktur der Historisch-Materialistischen Politikanalyse das Migrationsregime um die Staatsangehörigkeitsreform von 1999/2000 und wie der NSU darin verortet werden kann.
Die Kontextanalyse stellt auf der Grundlage einer Literaturrecherche die relevanten historischen und strukturellen Faktoren der Debatte sowie des NSU dar. Im nächsten Schritt werden mithilfe einer Analyse von Zeitungsartikel aus dieser Zeit die relevanten Akteur*innen identifiziert und in die vier Hegemonieprojekte neoliberal, sozial, linksliberal-alternativ und konservativ gruppiert. Darauffolgend wird der Ablauf der Debatte in vier Phasen darstellt und als Aushandlung der vier Hegemonieprojekte rekonstruiert. Dabei zeigt sich, dass kein Projekt sich vollumfänglich durchsetzen und Hegemonie erreichen konnte, sie jedoch unterschiedlich stark in den Medien repräsentiert wurden.
Im letzten Schritt betrachtet diese Arbeit Verbindungen dieser Migrationsregime-Analyse zum NSU. Sie kommt zu dem Ergebnis, dass der NSU kein Akteur im Migrationsregime um die Staatsangehörigkeitsdebatte von 1998/99 war. Aufgrund der geringen Erkenntnisse über spezifische Meinungen des NSU zum Staatsangehörigkeitsrecht, können keine kausalen Beziehungen hergestellt werden. Dennoch zeigt diese Arbeit Gemeinsamkeiten in den Weltbildern, Annahmen und migrationspolitischen Zielen des NSU, des konservativen Hegemonieprojektes sowie Teilen der Bevölkerung auf. Dadurch wird ein Beitrag dazu geleistet den NSU als Produkt und Teil der deutschen Gesellschaft zu begreifen.
Autonomous steering of an electric bicycle based on sensor fusion using model predictive control
(2019)
In this thesis a control and steering module for an autonomous bicycle was developed. Based on sensor fusion and model predictive control, the module is able to trace routes autonomously.
The system is developed to run on a Raspberry Pi. An ultrasonic sensor and a 2D Lidar sensor are used for distance measurements. The vehicle’s position is determined by using GPS signals. Additionally, a camera is used to capture pictures for the roadside detection. In order to recognize the road and the position of the vehicle on it, computer vision techniques are used. The captured images are denoised, Canny edge detection is performed and a perspective transformation is applied. Thereafter a sliding window algorithm selects the edges belonging to the roadside and a second order polynomial is fitted to the selected data. Based on this, the road curvature and the lateral position of the vehicle on the road are calculated. The implemented software is thus able to detect straight and curved roads as well as the vehicle’s lateral offset.
A route planning module was implemented to navigate the vehicle from the start to the destination coordinates. This is done by creating an abstract graph of the roads and using Dijkstra’s algorithm to determine the shortest path.
Four MPC controllers were implemented to control the movements of the vehicle. They are based on state space equations derived from the linear single-track vehicle model. This relatively straightforward model makes it possible to predict the vehicle behavior and is efficient to compute. Each controller was built with different parameters for different vehicle speeds to account for the non-linearity of the system. The controllers simulate the future states of the system at each timeslot and select appropriate control signals for steering, throttle and brakes.
In this thesis, all the components of the steering and control module were individually validated. It was established that the each individual component works as expected and certain constraints and accuracy limits were identified. Finally, the closed loop capabilities of the system were assessed using a test vehicle. Despite some limitations imposed by this setup, it was shown that the control module is indeed capable of autonomously navigating a vehicle and avoiding collisions.
Ziel der Simulationsstudien in dieser Arbeit war es, die Leistungsfähigkeit des Transition Radiation Detectors zur Identifikation von leichten Kernen und Hyperkernen im CBM-Experiment zu untersuchen. Die Trennung von Helium und Deuterium
mithilfe ihres spezifischen Energieverlustes im TRD ist zentral, um eine Rekonstruktion des seltenen Hyperkerns 6 ΛΛHe mit einem hohen Signal-zu-Untergrund-Verhältnisse zu leisten. Zur Erfüllung der Anforderungen, die sich aus dem CBM-Forschungsprogramm ergeben, wird eine Auflösung des Energieverlustes dEdx von Helium von höchstens 30 % verlangt...
Jürgen Habermas und Talal Asad zählen zu den bedeutendsten Protagonisten des Diskurses um die postsäkulare Gesellschaft. In der vorliegenden Arbeit unternehme ich eine vergleichende Lektüre zentraler Schriften beider Autoren. Dabei versuche ich, möglichst präzise zu beschreiben, wie Habermas und Asad einen neuen Blickwinkel auf die Verhältnisbestimmung von Religion und Gesellschaft in der Gegenwart freigeben und plausibilisieren.
Einen zentralen Stellenwert schreibe ich der Tatsache zu, dass hierfür von beiden der Begriff der ‚Übersetzung‘ herangezogen wird. Ziel der Untersuchung ist es folglich, erste systematisierende Vorstöße bezüglich des Begriffspaars ‚Religion übersetzen‘ zu leisten. Dabei gilt es ein Bündel an Forschungsfragen zu beantworten: Wie wird der Begriff der Übersetzung verstanden? In welcher Art und Weise kommt Religion im Werk der Autoren zur Sprache? Auf welche Aspekte der Religion soll sich die Übersetzungsleistung beziehen? Wer sind die Subjekte dieser Übersetzung? Und schließlich, welche Chancen und Probleme bringen die beiden Ansätze für eine politiktheoretische Perspektive auf religiös-gesellschaftliche Fragestellungen mit sich?
Jede Gesellschaft oder Gemeinschaft wird von ihrer historischen Geschichte beeinflusst. Die gewachsenen Ansichten, Umgangsweisen und Strategien sind die Basis für die Weiterentwicklung jedes Gemeinwesens. Das Museum ist ein Ort der offenen und kritischen Auseinandersetzung mit dieser Geschichte und deren Wirkungen auf die Gegenwart. Es ist somit eine bildungspolitische Einrichtung, die aufgrund dieser gesellschaftlichen Aufgabe ihre besondere Bedeutung und Existenzberechtigung erhält. Museen sind in jeder Kultur und Gesellschaft ein wesentlicher Ort für die Fragen: Wo kommen wir her? Was verbindet uns? Besonderes in einer jungen Nation, die ihre Unabhängigkeit erst 1991 erlangt hat, ist eine Auseinandersetzung mit diesen Fragen dringend und wichtig.
Die Arbeit schlägt einen weiten Bogen vom Allgemeinen zum sehr Speziellen. Sie beginnt mit einer Darstellung der wichtigen Ansätzen und Studien zur Besucherforschung in Museen allgemein. Dabei wird nicht nur der Wandel in den Ansprüchen des Publikums aufgezeigt, sondern auch die Veränderungen der Konzeption und der Repräsentation der Museen selbst. Einen Schwerpunkt legt die Arbeit auf den Aspekt des Erzählens - das bedeutet, etwas sichtbar zu machen, was nicht offensichtlich ist: Kontexte, Reflexionen und Bezüge. Die Bedeutung der Kommunikation zwischen dem Museum und seinen Besuchern wurde in der Ethnologie bisher eher vernachlässigt.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
"Spielen und Sich-Bewegen sind elementare kindliche Bedürfnisse. Als positive Lebensäußerungen fördern sie Gesundheit und Wohlbefinden. Sie unterstützen die psychomotorische, emotionale und soziale Entwicklung und tragen zur Ausbildung kognitiver Strukturen bei. Durch Spiel und Bewegung macht das Kind Erfahrungen seiner selbst: Es erprobt Bewegungs- und Handlungsabläufe, lernt, sich einzuschätzen und erlebt eigenes Können und seine Grenzen. Im gemeinsamen Tun mit anderen Kindern entwickeln sich seine Kooperations- und Kommunikationsfähigkeit." (Hessisches Kultusministerium, 1995, S. 20)
In diesem Auszug aus dem Rahmenplan für den Sportunterricht in hessischen Grundschulen werden dem Sporttreiben neben gesundheitsfördernden vor allem charakterbildende Eigenschaften zugeschrieben. Laut der "Charta des Deutschen Sports" zählt Sport sogar zu den "nicht austauschbare[n] Faktoren der Bildung" und als wichtiger Baustein "zur Entfaltung der Persönlichkeit" (zit. nach Singer, 1986, S. 295). Damit werden hohe Erwartungen an die sportliche Betätigung von Kindern formuliert, die von einer gesamtheitlichen Förderung der individuellen Entwicklung durch die Partizipation am Sport ausgehen und ein geradezu lobpreisendes Bild von Bewegungspraktiken zeichnet.
Dass auch die Welt des Sports ihre negativen Seiten hat, ist nicht von der Hand zu weisen. Ein Blick in die Tageszeitung genügt, um über aktuelle Doping- und Korruptionsvorwürfe rund um Olympische Spiele, Manipulationsverdächtigungen gegenüber Schiedsrichtern oder gar staatlichen Einrichtungen oder randalierende und sich prügelnde Fangruppen informiert zu werden. Diese Thematiken lassen sich von der internationalen Bühne herunterbrechen bis auf den heimischen Fußballplatz vor der Haustür. Gerade auf diesem haben sich in den vergangenen Jahren, man darf mittlerweile gar von Dekaden sprechen, Szenen ereignet, die den im oben angestellten Zitat mit dem Sport verbundenen Ansprüchen nicht gerecht werden.
Gerade im Amateur- und Breitensportbereich des Fußballs ist im Allgemeinen eine rauere Atmosphäre wahrzunehmen, die sich nicht zuletzt in Spielabbrüchen und physischen Auseinandersetzungen äußert und sich nicht auf den Seniorenspielbetrieb beschränkt, sondern gar Junioren- und Kinderspiele umfasst. Diese ausgemachten Tendenzen waren letztendlich ausschlaggebend für die von Ralf Klohr, damals selbst als Nachwuchstrainer aktiv, 2007 vollzogene Gründung der "Fair-Play-Liga", die den angesprochenen Entwicklungen entgegenwirken und das Bildungspotenzial des Sports wieder mehr in den Vordergrund rücken und schützen soll. Die jüngsten Fußballinteressierten, also Kinder ab 4 Jahren, spielen dort nach modifizierten Regeln, die zur Erfüllung ihrer altersentsprechenden Bedürfnisse beitragen und diese sicherstellen sollen. Mittlerweile ist das Konzept deutschlandweit im Einsatz und eine etablierte Organisationsform des Kinderfußballs, mit der Klohr (2018) die "nglaubliche Kraft im Fußball" bemühen und diese über eine dem Straßenfußball ähnliche, aber nach seinen Vorstellungen verbesserte Herangehensweise zurückholen will:
"Ich sehe die Fair-Play-Liga mit Trainer als eine Qualitätssteigerung zum ‚alten‘ Bolzplatz. Ich sehe die Fair-Play-Liga als ‚modernen‘ Bolzplatz. Die Trainer haben in erster Linie einen Betreuungsauftrag. Auf dem modernen Bolzplatz können sie dafür sorgen, dass alle Kinder gerecht behandelt, also nicht, benachteiligt, werden."
Ebenso wie an den Schulsport sind an die Fair-Play-Liga durch ihre Selbstdefinition einige Erwartungen geknüpft. Die vorliegende Masterthesis macht es sich zum Ziel herauszuarbeiten, inwiefern die Initiative ihren eigens auferlegten Ansprüchen gerecht wird, welche Interaktionsverhältnisse sie hervorbringt und was sie im Sinne eines "Vermittlers" bestimmter Wertvorstellungen im Stande ist zu leisten.
Dafür soll zunächst einmal aufgezeigt werden, was dem Sport generell im Sinne eines Fairnessbegriffs und der damit verknüpften Werte tatsächlich an "Übermittlerpotenzial" innewohnt sowie was über das Fairnessverständnis von Kindern und Jugendlichen bekannt ist (Kapitel 2). Im Anschluss daran werden das vom Deutschen Fußball-Bund (DFB) verfolgte Ausbildungskonzept, die Grundmerkmale und Ziele der Fair-Play-Liga und bereits diesbezüglich durchgeführte Untersuchungen vorgestellt (Kapitel 3), ehe die eigenen Fragestellungen der Forschungsarbeit dargelegt werden (Kapitel 4).
Nach einer Beschreibung des methodischen Vorgehens in seiner Theorie und Praxis (Kapitel 5) folgen die Zusammenführung der im Forschungsprozess erzeugten Resultate und die daran anknüpfende Thesenbildung (Kapitel 6). In der anschließenden Diskussion sollen die Ergebnisse hinsichtlich ihrer Relevanz und ihrer Genese bewertet und interpretiert werden (Kapitel 7), sodass in einem letzten Schritt sowohl Handlungs- und Verbesserungsvorschläge gebündelt und Anregungen für weitere empirische Arbeiten gegeben werden können.
Diese Arbeit untersucht die Perzeption der Vokale /a/, /ɐ/ und /ɐ̃/ durch deutsche erwachsene Portugiesischlerner. Ziel war herauszufinden, ob deutsche L1-Sprecher in der Lage sind, die genannten Laute zu unterscheiden, unter anderem in Abhängigkeit von ihrem Fremdsprachenniveau im EP.
Die Teilnehmer der Studie waren 27 deutsche Muttersprachler, die EP im Erwachsenenalter und zumeist an der Universität erlernen oder erlernt haben. Die Kontrollgruppe bildeten 33 portugiesische Muttersprachler. Beide Gruppen nahmen an einem Online-Perzeptionstest teil, dessen Aufbau sich an der Studie von Darcy und Krüger (2012) orientiert. Während des Tests mussten die Probanden aus einer Lautsequenz von drei einsilbigen Kunstwörtern mit der Silbenstruktur CVC dasjenige Kunstwort identifizieren, das einen anderen Vokal beinhaltete als die anderen zwei. Neben dem Perzeptionstest nahmen alle Teilnehmer an einem Einstufungstest für das EP teil, der aus einem C-Test und einem Vokabeltest bestand.
Die vorliegende Arbeit befasst sich damit, wie die spezifische Durchführung eines besonderen psychologischen Laborexperiments in eine allgemeine, kausale Form übersetzt wird. Anstatt dazu formale Kriterien der Validität heranzuziehen, wird ein experimenteller Forschungsprozess ethnographisch begleitet.
Forschungsgegenstand ist ein Verhaltensexperiment aus der allgemeinen Psychologie zur Trainierbarkeit des Arbeitsgedächtnisses. Im Rahmen der Ethnographie werden teilnehmende Beobachtungen, Interviews und Dokumentensammlung kombiniert eingesetzt. Die Auswertung der Materialien erfolgt mithilfe der Situationsanalyse nach Clarke (2012), einer qualitativen Auswertungsmethode im Anschluss an die Grounded Theory.
In dieser Arbeit wird das Verhalten der Versuchsperson ins Zentrum gerückt, das die Messung in Gang setzt und hält und die Entstehung von zahlenförmigen Daten ermöglicht. Dazu wird in Orientierung an neueren Science & Technology Studies eine begriffliche Systematisierung der Experimentalpraxis aus dem empirischen Material herausgearbeitet, mit dem die Konstruktion und Transformation des Verhaltens der Versuchsperson im Verlauf des Datenerhebungs- Auswertungs- und Interpretationsprozesses beschrieben werden kann.
Die Ergebnisse der Ethnographie legen nahe, dass dieses Verhalten der Versuchsperson - korrespondierend zum kausal verfassten Endprodukt des Experiments - von der komplexen Erhebungssituation abhängig und paradoxerweise gleichzeitig unabhängig ist. Damit wird in Anlehnung an Latour (2002) zwischen konstruktivistischen und objektivistischen Positionen vermittelt. Zudem weisen die erforschten Praktiken die epistemische Stellung der Versuchsperson aus. Diese wird im Anschluss an die Terminologie von Rheinberger (2001/ 2006) als Mischform von epistemischem Ding (Neues) und technischem Ding (Bekanntes) bestimmt.
In thesis I investigate the possibility that at the smallest length scale (Planck scale) the very notion of "dimension" needs to be revisited. Due to "quantum effects" spacetime might become very turbulent at these scales and properties like those of "fractals" emerge, including a "scale dependent dimension". It seems that this "spontaneous dimensional reduction" and the appearance of a minimal physical length are very general effects that most approaches to quantum gravity share. Main emphasis is given to the"spectral dimension" and its calculation for strings and p-branes.
Virtual machines are for the most part not used inside of high-energy physics (HEP) environments. Even though they provide a high degree of isolation, the performance overhead they introduce is too great for them to be used. With the rising number of container technologies and their increasing separation capabilities, HEP-environments are evaluating if they could utilize the technology. The container images are small and self-contained which allows them to be easily distributed throughout the global environment. They also offer a near native performance while at the same time aproviding an often acceptable level of isolation. Only the needed services and libraries are packed into an image and executed directly by the host kernel. This work compared the performance impact of the three container technologies Docker, rkt and Singularity. The host kernel was additionally hardened with grsecurity and PaX to strengthen its security and make an exploitation from inside a container harder. The execution time of a physics simulation was used as a benchmark. The results show that the different container technologies have a different impact on the performance. The performance loss on a stock kernel is small; in some cases they were even faster than no container. Docker showed overall the best performance on a stock kernel. The difference on a hardened kernel was bigger than on a stock kernel, but in favor of the container technologies. rkt showed performed in almost all cases better than all the others.
Cleaning an ion beam from unwanted fractions is crucial for intense ion beams. This thesis will explore separation methods using a collimation channel, electric and magnetic dipoles and a velocity selector for low intensity beams on an experimental basis. In addition, statistical data of degassing events during the commissioning of a pentode extraction system for beam energies from 20 - 120keV will be presented.
The aim of this thesis is finding a geometric configuration that allows electron insertion into a Gabor plasma lens in order to increase the density of the confined electrons and provide ignition conditions at parameters where ignition is not possible. First, simulations using CST and bender were conducted to investigate several geometric configurations in terms of their performance of inserting electrons manually. One particular design has been chosen as a basis for an experiment. In order to prepare the experiment, further simulations using the code bender have been conducted to investigate the density distribution that is formed inside the Gabor lens when inserting electrons transversally in compliance with the chosen design. Additionally, bender was used to investigate the impact of the initial electron energy on the distribution inside the lens. Simulations with and without space charge effects have shown a significant impact of the space charge effects on the resulting density dstribution. Therefore, space charge effects have proven to be the major electron redistribution process. A given electron source was characterised in order to find the performance under the conditions inside a Gabor lens. In particular, a transversal magnetic field that will be present in the experiment has to be compensated by shielding the inner regions of the source by a μ-metal layer. Using a μ-metal shield, transversal magnetic fields are sufficiently tolerable to perform measurements in a Gabor lens. Additionally, operating close to 100 eV electron energy yields a maximum in the emitted current. Adding a Wehnelt cylinder to the electron source furthermore improves the extracted current to roughly 1 mA. A test stand consisting of a newly designed anode for the Gabor lens, as well as a terminal for the electron source, was constructed. The electron source was thoroughly characterised in the environment of the Gabor lens and the ignition properties of the new system were evaluated. In further experiments, electron beam assisted ignition by increasing the residual gas pressure was observed and the impact of the position of the electron source on the ignition properties was investigated. In addition, ignition of a sub-critical state, that is a state consisting of potential, magnetic field and pressure that did not yet perform ignition by itself, was performed by increasing the extracted current from the electron source. Finally, the electron source was used to influence a pre-ignited plasma. The density was measured, which was increased by the use of the electron source in most cases. This project is part of the EDEN collaboration (Electron DENsity boosting) of the NNP Group at IAP Frankfurt with INFN institutes in Bologna and Catania.
Gabor lenses were invented for focusing hadron beams by the electric field of a confined electron column. A homogenous magnetic field created by a solenoid confines electrons in transverse direction while a potential well created by a cylindrical electrode system confines them longitudinally.
In this thesis the investigation and characterization of a nonneutral electron plasma (NNP) in a Gabor lens with a toroidal magnetic confinement and a 30 degree-bent anode is presented. Motivated by fundamental research on NNPs in this special environment, diagnostic methods were investigated to characterize the plasma. As a non-invasive method a PCO camera is placed in front of the experimental setup. A ring of 31 photodiodes is used inside the plasma for light intensity and distribution measurements. The experimental data is evaluated and the following results will be presented.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Anisotropic collective flow of protons resulting from non-central heavy ion collisions is a unique hadronic observable providing information about the early stage of the nuclear collision. The analysis of collective flow in the energy regime between 1-2 AGeV enables the study of the phase diagram of hadronic matter at a high baryochemical potential µb, as well as the analysis of the equation of state at densities up to the threefold of the ground state density ρ0.
The algorithms of the standard event plane method and the scalar product method are used to analyse directed and elliptic flow of protons in a centrality range of 0-40 % most central events.
Prior to the analysis of experimental data, the respective influence of the reconstruction procedure on the algorithms is examined using Monte Carlo simulations based on the Ultra relativistic Quantum Molecular Dynamics (UrQMD) model.
Subsequently, experimental data measured in April 2012 with the High Acceptance DiElectron Spectrometer (HADES) is analysed using both methods. About 7.3 · 109 Au+Au events at a kinetic beam energy of 1.23 AGeV, equivalent to a centre of mass energy of √sNN = 2.42 GeV were recorded. A multi-differential analysis is feasible as the HADES detector provides a good transverse momentum and rapidity coverage.
Both algorithms result in identical values for directed and elliptic flow across all centrality classes within the observable phase space of protons. The calculated integrated value of v2 at mid rapidity is in good agreement with world data.
Electron identification with a likelihood method and measurements of di-electrons for the CBM-TRD
(2017)
In this work a likelihood method has been implemented and investigated as particle identification algorithm for the CBM-TRD.
The creation of the probability distributions for the likelihood method via V0-topologies seems to be feasible and the purity of the obtained samples is sufficient for the usage in the likelihood method.
The comparison between the ANN and the likelihood method shows no differences in the identification performance. The pion suppression factor reaches the same values for the same electron identification efficiencies and the yields of the resulting di-lepton signals are comparable. The signal-to-background ratios for both methods have the same values and show a value of about 10−2 in the invariant mass range of minv = 1.5 - 2.5 GeV/c2, which is expected to be sufficient to provide access to the thermal in-medium and QGP radiation.
The investigation of a detector system without a TRD shows no pion suppression for a momentum above p = 6 GeV/c. Therefore, the background contributions increase drastically and the signal-to-background ratio decreases at all invariant masses, but especially in the invariant mass range of minv = 1.5 - 2.5 GeV/c2.
The background contributions in the invariant mass range of minv = 1.5 - 2.5 GeV/c 2 are also influenced by the selected electron identification efficiency of the TRD, which significantly shifts the fraction of the eπ contributions relative to the total number of pairs.
In April and May 2012 data on Au+Au collisions at beam energies of Ekin = 1.23A GeV were collected with the High Acceptance Di-Electron Spectrometer (HADES) at the GSI Helmholtzzentrum für Schwerionenforschung facility in Darmstadt, Germany. In this thesis, the production of deuterons in this collision system is investigated.
A total number of 2.1 × 109 Au+Au events is selected, containing the most central 0-40% of events. After particle identification, based on a mass determination via time-of-flight and momentum and on a measurement of the energy loss, the transverse mass spectra of the deuteron candidates are extracted for various rapidities and subsequently corrected for acceptance and efficiency.
The inverse slope parameter of a Boltzmann fit applied to the transverse mass spectra at midrapidity, which is referred to as the effective temperature, is extracted. For a static thermal source, this parameter corresponds to the kinetic freeze-out temperature Tkin and is therefore expected to be smaller or equal to the chemical freeze-out temperature Tchem. The extracted effective temperature of Tef f = (190 ± 10) MeV however exceeds the chemical freeze-out temperature that was obtained by a statistical model fit to different particle yields. The effective temperatures of various particle species, obtained in previous analyses, suggest a systematic rise with increasing particle mass, which is confirmed by the deuteron results.
An explanation can be the influence of a collective expansion with a radial expansion velocity βr. By fitting a Siemens-Rasmussen function to the transverse mass spectra, the global temperature of T = (100 ± 8) MeV and radial expansion velocity βr = 0.37 ± 0.01 are obtained. This temperature is still very high and only takes into account the production of deuteron nuclei.
The simultaneous fit of a blast-wave function to the transverse mass spectra of deuterons and other particles, as obtained by previous analyses, considers a velocity profile for the radial expansion velocity and takes into account the production of various particle species. The resulting global temperature Tkin = (68 ± 1) MeV and average transverse expansion velocity hβri = 0.341 ± 0.003 are within the expected range for the collision energy.
The Siemens-Rasmussen fits are also used to extrapolate the transverse mass spectra into unmeasured regions, to integrate them and obtain a rapidity-dependent count rate. This count rate exhibits a thermal shape for central events and shows increasing spectator contributions for more peripheral events.
The invariant yield spectra of the deuterons are compared to those of protons, as obtained by a previous analysis, in the context of a nucleon coalescence model. The hereby extracted nucleon coalescence factor B2 = (4.6 ± 0.1) × 10−3 agrees with the expected result for the beam energy that was studied.
Die Arbeit widmet sich der bisher wenig beachteten Demokratietheorie des neoliberalen Ökonomen und Sozialphilosophen Friedrich Hayeks. In seiner Ablehnung des Prinzips der Volkssouveränität scheint es Hayek nicht in erster Linie um die Kritik des demokratischen Elements zu gehen, sondern vielmehr um die moderne Idee staatlicher Souveränität schlechthin. Es ist folglich die Idee der Rechtssouveränität, so die grundlegende These, auf der Hayek seine doppelte Kritik von Naturrecht und Rechtspositivismus gründet. Entprechend ist der Staat in der von Hayek gezeichneten Utopie nicht länger Souverän, Ausdruck, Grund oder Herrscher (in) der Gesellschaft, sondern bloßes Mittel, um die "spontanen Ordnungen" der Gesellschaft (und der Märkte) zu schützen, ohne durch Gesetzgebung planen, gestalten oder intervenieren zu wollen. Allein solches, an den "Nomos" gebundenes, staatliches Handeln könne (und muss!) der "Meinung" der Menschen entsprechen. Die Klärung dieses sehr speziellen und auf David Hume zurückgehenden Verständnisses von "Meinung" erlaubt schließlich, das Denken Hayeks nicht nur hinsichtlich seines Souveränitätsbegriffs, sondern auch hinsichtlich seines Demokratiebegriffs vom Denken Carl Schmitts abzugrenzen. Entgegen dem prägenden Diskurs nach Cristi und Scheuerman, der die Kritik der hayekschen Theorie über die Problematisierung ihres schmittschen Gehalt unternimmt, soll die Arbeit den Blick dafür schärfen, dass der in Hayeks Theorie angelegte Autoritarismus auf eigenen philosophischen Füßen steht und sich nicht erschöpfend aus einem bewusst oder unbewusst übernommenen schmittschen Erbe erklären lässt.
Recently, Aumüller and Dietzfelbinger proposed a version of a dual-pivot Quicksort, called "Count", which is optimal among dual-pivot versions with respect to the average number of key comparisons required. In this master's thesis we provide further probabilistic analysis of "Count". We derive an exact formula for the average number of swaps needed by "Count" as well as an asymptotic formula for the variance of the number of swaps and a limit law. Also for the number of key comparisons the asymptotic variance and a limit law are identified. We also consider both complexity measures jointly and find their asymptotic correlation.
Das Ziel dieser Arbeit ist die Untersuchung der stratosphärischen Meridionalzirkulation mit Hilfe von chemisch aktiven Spurengasen. Diese motiviert sich durch die Tatsache, dass der Klimawandel neben den viel erforschten Auswirkungen auf die Troposphäre, auch Reaktionen in der Stratosphäre zur Folge hat, welche bisher weit weniger tiefgehend untersucht wurden. Das macht die Stratosphäre zu einem aktuellen und frequentierten Forschungsgebiet der experimentellen und theoretischen Meteorologie. Neben vereinzelten hochaufgelösten in-situ Messungen und globalen Satellitendaten sind es hier vor allem globale numerische Klima-Chemiemodelle, die für Analysen genutzt werden. Für diese Arbeit wurden Daten des EMAC-Modells (engl.: ECHAM/MESSy Atmospheric Chemistry) ausgwertet, welche im Rahmen der ESCiMo (engl.: Earth System Chemistry integrated Modelling) Initiative vom MESSy-Konsortium (engl.: Modular Earth Submodel System) erstellt wurden. Die Zielsetzung dieser Arbeit war, ob sich etwaige Änderungen des stratosphärischen Transports anhand von modellierten, chemisch aktiven, idealisierten Spurengasen feststellen lassen. Idealisiert bedeutet hierbei, dass diese Gase ein konstantes Mischungsverhältnis am Erdboden aufweisen und den identischen chemischen Prozessen unterliegen wie die realistischen Tracer. Dies hat zur Folge, dass diese Spurengase somit nicht in das Strahlungsbudget des Modells rückkoppeln und ihre Verteilung nicht durch zeitliche troposphärische Trends beeinflusst wird. Zur Analyse des stratosphärischen Transports wurden die Differenzen der monatlich gemittelten Mischungsverhältnisse zweier Zeitpunkte der verschiedenen Substanzen im Vertikalprofil betrachtet und ausgewertet, wobei hier die photolytische Lebenszeit und die Zeitskala des Transports zu berücksichtigen war. Um die Saisonalität von Transport und Chemie zu berücksichtigen, wurden dazu die Monate März, Juni, September und Dezember analysiert.
Die Resultate zeigten, dass chemisch aktive Substanzen in der Tat geeignet sind Änderungen in der Dynamik festzustellen. So stellte sich heraus, dass mit einer allgemeinen Intensivierung der stratosphärischen Meridionalzirkulation im kommenden Jahrhundert gerechnet werden kann, wobei hiervon besonders die untere Stratosphäre betroffen ist. Eine Differenzierung welche Komponente der Zirkulation (Residualtransport oder bidirektionale quasi-horizontale Mischung) hierbei von übergeordneter Bedeutung ist, konnte nicht spezifiziert werden. Um abzuschätzen, ob sich die Änderung der Zirkulation durch Änderungen in den Mischungsverhältnissen von chemisch aktiven Substanzen mit Hilfe von direkten Messungen nachweisen lässt, wurde die atmosphärische Variabilität des Modells bestimmt und mit den Veränderungen dieser Mischungsverhältnisse verglichen. Es zeigte sich, dass diese modellierte atmosphärische Variabilität zum Teil deutlich größer war, als die Differenzen der Mischungsverhältnisse und so ohne eine Vielzahl von in-situ Messungen keine eindeutige Aussage zulassen. Um eine statistisch valide Aussage treffen zu können, müssen daher mehrere Messreihen innerhalb eines Monats durchgeführt werden. Zudem stellte sich heraus, dass der Monat Juni der bestmögliche Messzeitraum ist, da hier die natürliche Variabilität am geringsten ist. Zuletzt wurden die Spurengase mit vergleichsweise kleiner chemischer Lebenszeit auf normierten N2O-Isoplethen untersucht und die Verschiebung dieser Kurve zwischen den zwei Zeitpunkten analysiert. Die so gewonnenen Resultate ließen den Schluss zu, dass sich auf diese Weise die atmosphärische Variabilität reduzieren lässt und bei Nutzung mit experimentellen Daten eine zu den Tracer-Differenzen konsistente Aussage zulässt. So bestärkte diese Methode die These, dass sich der stratosphärische Transport innerhalb des 21. Jahrhunderts wahrscheinlich verstärken wird.
The Time Projection Chamber (TPC), a large gaseous detector, is the main particle identification device of the ALICE experiment at the CERN LHC. The desired performance of the TPC defines the requirements for the gas mixture used in the detector. The active volume was filled with either Ne-CO2 (90-10) or Ne-CO2-N2 (90-10-5) during the first LHC running period. For LHC Run 2 the gas mixture is changed to Ar-CO2. Calculations of relevant gas properties are performed for Ar-based gas mixtures and compared to Ne-based gas mixtures to identify the most suitable Ar mixture. The drift velocity of ions in Ar is lower than in Ne. The closing time of the gating grid has to be adjusted accordingly to avoid drift field distortions due to back-drifting ions. The drift times of ions in the TPC readout chambers are calculated for the respective gas mixtures to determine the time to collect all ions from the amplification region. For LHC Run 3 the TPC readout chambers will be upgraded. The Multiwire Proportional Chambers (MWPCs) will be replaced by readout chambers based on Gas Electron Multipliers (GEMs) which are operated in continuous mode. As a consequence an ion backflow of the order of 1% causes significant space-charge distortions in the TPC drift volume. Similar distortions are expected in data taken specifically for the study of space-charge effects at the end of Run 1. The gating grid of the MWPCs is operated in the open state allowing the ions from the amplification region to enter the drift volume. The magnitude of the distortions in this data is measured and compared to the expectations for the TPC upgrade and results from current simulations.
Der Mittelmeerraum gilt im europäischen Kollektivgedächtnis als „Wiege Europas“ und Anfangspunkt „abendländischer“ Geschichte. Genauso markiert in gängigen Geschichtsnarrativen das Mittelmeer einen imaginären Bruch zwischen Orient und Okzident. „Der Islam“ kann so in europäischen Diskursen als „Fremdkörper“ konstruiert und aus der Vorstellung einer gemeinsamen kulturellen Identität ausgestoßen werden. Währenddessen vereint die Geschichte des Mittelmeerraums auf drei Kontinenten Christentum, Judentum und Islam. Nur eine Ausblendung der geschichtlichen Komplexität des Mittelmeerraums als kosmopolitischer Region ermöglicht es, die „abendländische“ als eine rein christliche oder jüdisch-christliche Geschichte aufzufassen.
Das islamische Erbe Europas resultiert etwa aus dem jahrhundertelangen Kulturaustausch während der islamischen Kolonisierung des europäischen Mittelmeerraums, die die süditalienische Insel Sizilien einst zu einem Teil Nordafrikas machte. Seit Anbeginn menschlicher Besiedlung ein Schmelztiegel der Kulturen, war Sizilien wie Andalusien im Mittelalter Teil des Maghrebs, des westlichen islamischen Reichs, und an dessen intellektuellen, wissenschaftlichen und philosophischen Errungenschaften beteiligt.
Zuvor sprachlich und religiös von Byzanz geprägt, kam die Insel im 9. Jahrhundert unter arabisch-islamischen Einfluss und wurde ab dem 11. Jahrhundert unter Normannen und Staufern dem lateinisch geprägten römisch-katholischen Christentum zugeführt. Eine Aufeinanderfolge sunnitischer und schiitischer Dynastien, die Entfremdung zwischen Ost- und Westkirche sowie die Präsenz einer vergleichsweise großen jüdischen Gemeinde erhöhen die konfessionelle Komplexität.
Noch lange nach der Ablösung der arabischen Herrschaft, die ihrerseits bewährte byzantinische Elemente in die Inselverwaltung integriert hatte, profitierten spätere Herrscher von den ökonomischen und wissenschaftlichen Strukturen der Muslime und förderten diese. Bis heute hat das arabisch-islamische Substrat Anteil an der Alltagskultur und Sprache, die die sizilianische Identität und das italienische nationale Narrativ konstituieren. Jahrhunderte nach der Vertreibung der Muslime aus Süditalien ist es vor allem in den Bereichen von Wortschatz, Volksliteratur, Orts-und Personennamen, in der Küche, Architektur und im Städtebild Italiens zu finden und wurde teils über Sizilien in ganz Europa verbreitet.
Während die Erzählung der italienischen Nationalgeschichte die arabische Vergangenheit oft ausblendete, traf sie in Sizilien, das von anderen Epochen nicht in gleichem Maße wirtschaftlich profitierte, seit der Aufklärung auf Hochachtung. Brückenbauende Narrative, die Italien als Teil einer mediterranen Hybridkultur definieren, reihen sich in Konzepte verschiedener Denker aus dem Mittelmeerraum ein, eine gemeinsame „mediterrane Kultur“ als zivilisatorische Brücke zu konstruieren im Dialog zwischen drei Kontinenten und drei bedeutenden Weltreligionen.
Das Hauptziel der vorliegenden Arbeit war es, die energieabhängigen Wirkungsquerschnitte von (γ,n)-Reaktionen für 169Tm, 170Yb, 176Yb und 130Te mittels der Photoaktivierungsmethode zu bestimmen.
Dazu wurden zunächst die Effizienzen der verwendeten Detektoren mithilfe von Simulationen korrigiert, da die verwendeten Targets eine ausgedehnte Geometrie aufweisen im Gegensatz zu den punktförmigen Eichquellen. Es hat sich herausgestellt, dass mit den Simulationen die Effizienzen der MCA-Detektoren energieabhängig korrigiert werden konnten, da die Simulationen die Form der gemessenen Effizienzen gut reproduzieren konnten. Bei den Effizienzen der LEPS-Detektoren hingegen konnte keine energieabhäangige Korrektur vorgenommen werden, da die LEPS-Detektoren aufgrund des geringen Abstandes zu den Detektoren hohe Summeneffekte zeigten. Im Rahmen dieser Arbeit konnten diese Summeneffekte jedoch nicht korrigiert bzw. berücksichtigt werden.
This work proposes to employ the (bursty) GLO model from Bingmer et. al (2011) to model the occurrence of tropical cyclones. We develop a Bayesian framework to estimate the parameters of the model and, particularly, employ a Markov chain Monte Carlo algorithm. This also allows us to develop a forecasting framework for future events.
Moreover, we assess the default probability of an insurance company that is exposed to claims that occur according to a GLO process and show that the model is able to substantially improve actuarial risk management if events occur in oscillatory bursts.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
Optimierung von Phasen- und Ratenparametern in einem stochastischen Modell neuronaler Feueraktivität
(2014)
In unserem Gehirn wird Information von Neuronen durch die Emission von Spikes repräsentiert. Als wichtige Signalkomponenten werden hierbei die Rate (Anzahl Spikes), die Phase (zeitliche Verschiebung der Spikes) und synchrone Oszillationen (rhythmische Entladungen der Neuronen am selben Zyklus) diskutiert.
In dieser Arbeit wird untersucht, wie Rate und Phase für eine optimale Detektion miteinander kombiniert werden und abhängig vom gewählten Parameterbereich wird der Beitrag der Phase quantifiziert.
Dies wird anhand eines stochastischen Spiketrain-Modell untersucht, das hohe Ähnlichkeiten zu empirischen Spiketrains zeigt und die drei genannten Signalkomponenten beinhaltet. Das ELO-Modell („exponential lockig to a free oscillator“) ist in zwei Prozessstufen unterteilt: Im Hintergrund steht ein globaler Oszillationsprozess, der unabhängige und normal-verteilte Intervallabschnitte hervorbringt (Oszillation). An den Intervallgrenzen starten unabhängig, inhomogene Poisson-Prozesse (Synchronizität) mit exponentiell abnehmender Feuerrate, die durch eine stimulusspezifische Rate und Phase festgelegt ist.
Neben einer analytischen Bestimmung der optimalen Parameter im Falle reiner Raten- bzw. Phasencodierung, wird die gemeinsame Codierung anhand von Simulationsstudien analysiert.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
The measurement of dielectrons (electron-positron pairs) allows to investigate the properties of strongly interacting matter, in particular the Quark-Gluon Plasma (QGP), which is created in relativistic heavy-ion collisions at the LHC. The evolution of the collision can be probed via dielectrons since electrons do not interact strongly and are created during all stages of the collision. One of the interests in dielectron measurements is motivated by possible modifications of the electromagnetic emission spectrum in the QGP, where pp collisions are used as a medium-free reference. The dielectron spectrum consists of contributions from various processes. In order to estimate contributions of known dielectron sources, simulations of the so-called dielectron cocktail are performed. In this thesis, dielectron cocktails in minimum bias pp collisions at p s = 7 TeV, p–Pb collisions at p sNN = 5.02 TeV and in central (0-10%) and semi-central (20-50%) Pb–Pb collisions at p sNN = 2.76 TeV at the LHC are presented.
L'hypothèse de ce travail est que [...] écrivains vont trouver, dans le Berlin d'après la chute du Mur, une incarnation des paradoxes du XXe siècle, et présenter cette capitale comme la ville de la "postmodernité" qu'ils pourront tour à tour haïr ou aimer, comme le rappelle le titre du texte de Serge Mouraret 'Berlin carnet d'amour et de haine'.
Il conviendra donc d'analyser les représentations de Berlin afin de mettre au jour la mythologie insulaire qu'elles ont façonnée. Le motif de l'île a l'avantage de concentrer une dimension mythique, des caractéristiques formelles et une symbolique forte. Nous tenterons de répondre à la question suivante: pourquoi, bien que Berlin réunifiée ne puisse plus, depuis la chute du Mur, être à proprement parler qualifiée d'île, ce motif persiste t-il comme clef de lecture de la ville?
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
This work derived the value of α-induced production cross sections of 77Kr and 77Br at α-energies of 12 MeV and 14 MeV, the thick target yields of 77Kr and 77Br at α-energies of 11.19 MeV, 13 MeV and 15.1 MeV and the thick target yield of 80Br as well as 80mBr at an α-energy of 15.1 MeV using the activation technique...