Refine
Year of publication
- 2014 (26) (remove)
Document Type
- Master's Thesis (26) (remove)
Has Fulltext
- yes (26)
Keywords
- Beschleunigerphysik (2)
- Ionenstrahl (2)
- Strahldynamik (2)
- Toroidales Magnetfeld (2)
- Accelerator Physics (1)
- Beam Dynamic (1)
- Berlin <Motiv> (1)
- Comic (1)
- Comicroman (1)
- Faraday-Tasse (1)
Institute
- Physik (20)
- Mathematik (3)
- Informatik (1)
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
Optimierung von Phasen- und Ratenparametern in einem stochastischen Modell neuronaler Feueraktivität
(2014)
In unserem Gehirn wird Information von Neuronen durch die Emission von Spikes repräsentiert. Als wichtige Signalkomponenten werden hierbei die Rate (Anzahl Spikes), die Phase (zeitliche Verschiebung der Spikes) und synchrone Oszillationen (rhythmische Entladungen der Neuronen am selben Zyklus) diskutiert.
In dieser Arbeit wird untersucht, wie Rate und Phase für eine optimale Detektion miteinander kombiniert werden und abhängig vom gewählten Parameterbereich wird der Beitrag der Phase quantifiziert.
Dies wird anhand eines stochastischen Spiketrain-Modell untersucht, das hohe Ähnlichkeiten zu empirischen Spiketrains zeigt und die drei genannten Signalkomponenten beinhaltet. Das ELO-Modell („exponential lockig to a free oscillator“) ist in zwei Prozessstufen unterteilt: Im Hintergrund steht ein globaler Oszillationsprozess, der unabhängige und normal-verteilte Intervallabschnitte hervorbringt (Oszillation). An den Intervallgrenzen starten unabhängig, inhomogene Poisson-Prozesse (Synchronizität) mit exponentiell abnehmender Feuerrate, die durch eine stimulusspezifische Rate und Phase festgelegt ist.
Neben einer analytischen Bestimmung der optimalen Parameter im Falle reiner Raten- bzw. Phasencodierung, wird die gemeinsame Codierung anhand von Simulationsstudien analysiert.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
The measurement of dielectrons (electron-positron pairs) allows to investigate the properties of strongly interacting matter, in particular the Quark-Gluon Plasma (QGP), which is created in relativistic heavy-ion collisions at the LHC. The evolution of the collision can be probed via dielectrons since electrons do not interact strongly and are created during all stages of the collision. One of the interests in dielectron measurements is motivated by possible modifications of the electromagnetic emission spectrum in the QGP, where pp collisions are used as a medium-free reference. The dielectron spectrum consists of contributions from various processes. In order to estimate contributions of known dielectron sources, simulations of the so-called dielectron cocktail are performed. In this thesis, dielectron cocktails in minimum bias pp collisions at p s = 7 TeV, p–Pb collisions at p sNN = 5.02 TeV and in central (0-10%) and semi-central (20-50%) Pb–Pb collisions at p sNN = 2.76 TeV at the LHC are presented.
L'hypothèse de ce travail est que [...] écrivains vont trouver, dans le Berlin d'après la chute du Mur, une incarnation des paradoxes du XXe siècle, et présenter cette capitale comme la ville de la "postmodernité" qu'ils pourront tour à tour haïr ou aimer, comme le rappelle le titre du texte de Serge Mouraret 'Berlin carnet d'amour et de haine'.
Il conviendra donc d'analyser les représentations de Berlin afin de mettre au jour la mythologie insulaire qu'elles ont façonnée. Le motif de l'île a l'avantage de concentrer une dimension mythique, des caractéristiques formelles et une symbolique forte. Nous tenterons de répondre à la question suivante: pourquoi, bien que Berlin réunifiée ne puisse plus, depuis la chute du Mur, être à proprement parler qualifiée d'île, ce motif persiste t-il comme clef de lecture de la ville?
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
This work derived the value of α-induced production cross sections of 77Kr and 77Br at α-energies of 12 MeV and 14 MeV, the thick target yields of 77Kr and 77Br at α-energies of 11.19 MeV, 13 MeV and 15.1 MeV and the thick target yield of 80Br as well as 80mBr at an α-energy of 15.1 MeV using the activation technique...
In der Literatur hat sich die Bestimmung der Erzählperspektive längst etabliert, aber genauso manifestiert sich auch in den visuellen Medien ein Erzähler, der das Geschehen zwar weniger mittels der Sprache, dafür im Wesentlichen über Bilder präsentiert. Durch die jeweils darin enthaltene Darstellung und die Verknüpfung der einzelnen Bilder sind diese Ausdruck einer bewussten Formung der Handlung. Der Begriff des Erzählens beschränkt sich somit nicht nur auf die Literatur, sondern trifft auch auf Visualisierungen jeglicher Art zu, da in diesen Fällen ebenso eine Instanz identifiziert werden kann, die hinter der Auswahl der Handlungselemente steht und diese perspektivisch formt. Dennoch kann der Erzähler hier nicht mehr, wie in der Literatur, im Sinne eines "Sprechers" aufgefasst werden, sondern versteht sich eher als abstraktes Konzept. Insbesondere in intermedialer Hinsicht stellt die Übertragung der Erzählperspektive von einem literarischen Text auf ein visuelles Medium eine Herausforderung dar, denn aufgrund des Medienwechsels verändern sich die Bedingungen des Erzählens. Umso schwieriger ist die Übertragung, wenn der literarische Text keinen durchweg logischen Handlungsverlauf aufweist, sondern Widersprüche und Uneindeutigkeiten im Erzählvorgang und in der Erzählperspektive beinhaltet, wie es auf Franz Kafkas 1914 entstandene Erzählung "In der Strafkolonie" zutrifft. Dieser Text dient zudem, wie auch viele andere von Kafkas Werken, als Projektionsfläche diverser, nicht selten konträrer, Deutungsansätze, die sich in der Forschungsliteratur herausgebildet haben. So wurden zahlreiche religiöse Bezüge in der Erzählung entdeckt, genauso wurde der Text aber als realistisch und somit als Kritik an Kolonialismus und Krieg verstanden. Bezug nehmend auf Kafkas Biographie und das Thema Strafe, das in zahlreichen seiner Werke zum Ausdruck kommt, wurde die Erzählung oftmals in psychoanalytischer Hinsicht gedeutet. Andererseits wurde die beschriebene Handlung auch weniger ernst genommen und vor allem auf die grotesken und ironischen Elemente verwiesen. Im Hinblick auf die unterschiedlichen Interpretationsansätze sind auch die Möglichkeiten der visuellen Umsetzung entsprechend vielfältig.
In dieser Arbeit wird anhand von drei Kurzfilmen und einem Comic, unter Berücksichtigung der spezifischen medialen Bedingungen, die Übertragung der Erzählung ins Visuelle analysiert. Dabei soll gezeigt werden, inwiefern die jeweilige Erzählperspektive die visuelle Wahrnehmung in den Filmen und im Comic bestimmt. In diesem Zusammenhang wird auch zu sehen sein, welche Deutung der Erzählung sich in der Visualisierung manifestiert und durch den Erzähler besonders hervorgehoben wird. Nicht zuletzt stellt sich dabei auch die Frage nach der Art der Umsetzung, d.h. ob bei der Adaption die Textnähe und der Inhalt im Vordergrund stehen oder ob vielmehr die Intention verfolgt wird, mit der Visualisierung der Erzählung ein neues und eigenes künstlerisches Werk zu schaffen, das dem Originaltext auf einer tiefergehenden Ebene begegnet.
Lernmodule wie Web Based Trainings (WBT) sind eine Methode um eLearning Inhalte anzubieten. Web Based Trainings basieren per Definition auf dem Word Wide Web (WWW). Durch die Entwicklung des Web zum Web 2.0 sind für Benutzer neue Möglichkeiten entstanden am Web teilzunehmen. Dadurch wurde auch das eLearning beeinflusst. In dieser Arbeit werden die Innovationen für den Autorenprozess von Web Based Trainings betrachtet. Ihre Nützlichkeit soll anhand dem Autorensystem LernBar deutlich gemacht werden. Die Analyse weiterer Autorensysteme verdeutlicht den aktuellen Stand. Die Stärken und Schwächen der untersuchten Autorensysteme werden für die Anforderungsanalyse einer web-basierten LernBar verwendet. Das Konzept für Web 2.0 Based Training beschreibt den neuen Autorenprozess in der LernBar. Das neue Konzept ermöglicht Flexibilität, die zu neuen Einsatzszenarien führt. Schwierigkeiten in der Umsetzung werden diskutiert.
This work deals with the determination of the scale parameter ΛM̄S̄ from lattice QCD and perturbation theory results of the static quark-antiquark potential for nf = 2. The investigation is done in momentum space. Lattice methods as well as perturbation theory calculations are introduced. Another part of this work concerns the calculation of the quark-antiquark potential from gauge link configurations for nf = 2 + 1 + 1.
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.