Refine
Year of publication
Document Type
- Master's Thesis (61) (remove)
Has Fulltext
- yes (61)
Is part of the Bibliography
- no (61)
Keywords
- Beschleunigerphysik (2)
- Ionenstrahl (2)
- Strahldynamik (2)
- Toroidales Magnetfeld (2)
- (n (1)
- ALICE (1)
- Accelerator Physics (1)
- Beam Dynamic (1)
- Beryllium-7 (1)
- CBM (1)
Institute
- Physik (61) (remove)
The ALICE Time Projection Chamber (TPC) is the main tracking detector of ALICE which was designed to perform well at multiplicities of up to 20000 charged primary and secondary tracks emerging from Pb-Pb collisions. Successful operation of such a large and complex detector requires an elaborate calibration and commissioning. The main goal for the calibration procedures is to provide the information needed for the offline software for the reconstruction of the particle tracks with sufficient precision so that the design performance can be achieved. For a precise reconstruction of particle tracks in the TPC, the calibration of the drift velocity, which in conjunction with the drift time provides the z position of the traversing particles, is essential. In this thesis, an online method for the calibration of the drift velocity is presented. It uses the TPC Laser System which generates 336 straight tracks within the active volume of the TPC. A subset of these tracks, showing sufficiently small distortions, is used in the analysis. The resulting time dependent drift velocity correction parameters are entered into a database and provide start values for the offline reconstruction chain of ALICE. Even though no particle tracking information is used, the online drift velocity calibration is in agreement with the full offline calibration including tracking on the level of about 2 x 10 exp (-4). In chapter 2, a short overview of the ALICE detector, as well as the data taking model of the ALICE, is given. In chapter 3, the TPC detector is described in detail. Lastly in chapter 4, the online drift velocity calibration method is presented, together with a detailed description of the TPC laser system.
As a part of this thesis, a Monte Carlo-based code has been developed capable of simulating the transition of proton beam properties to neutron beam properties as it occurs in the Li-7(p, n)Be-7 reaction. It is able to reproduce not only the angle-integrated energy distributions but it is also capable of predicting the angle-dependent neutron spectra as measured at Forschungszentrum Karlsruhe (Karlsruhe, Germany) and Physikalisch-Technische Bundesanstalt (Braunschweig, Germany). Since the code retains all three spatial dimensions as well as all three velocity dimensions, it provides very detailed information on the neutron beam. The resulting data can aid in many different aspects, for example it can be used in shielding construction, or for lithium target design. In this work, the code is used to predict the neutron beam properties expected at the Frankfurt Neutron Source at Stern-Gerlach-Zentrum (FRANZ) facility. For different proton beam energies, the neutron distribution in x/p_x, y/p_y, and z/p_z is shown as well as a Mollweide projection, which illustrates the kinematic collimation effect that limits the neutron cone opening angle to less than 180 degree.
Optimierung der Rekonstruktionsparameter zur Messung von Quarkonia im zentralen ALICE Detektor
(2011)
Seit den ersten Kollisionen im November 2009 läuft der LHC am CERN und dringt in noch nie dagewesene Energiebereiche vor. Die Schwerionenkollisionen innerhalb des ALICE Detektors sollen Aufschluss über die stark wechselwirkende Materie und ihre verschiedenen Phasen geben. Dem liegt die Untersuchung des Quark-Gluon-Plasmas zugrunde. Eine Signatur des Quark-Gluon-Plasmas ist die Rate von produzierten Quarkonia. Diese zerfallen in Leptonenpaare und sind damit zu identifizieren.
In der vorliegenden Arbeit wird diese Rate zur Messung von Quarkonia aufgegriffen und untersucht. Bei der Untersuchung der Simulation durch die Selektion der e++e--Paare, die ausschließlich aus einem J/y stammen, lässt sich ein Massenspektrum produzieren, das im Rahmen dieser Arbeit genauer betrachtet wurde. Durch die genaue Untersuchung der Bremsstrahlung und deren Lokalisierung lässt sich zeigen, dass besonders der ITS ein hohes Maß an Bremsstrahlungsprozessen mit sich bringt, was auf die große Materialanhäufung zurückzuführen ist. Um dies näher zu untersuchen, wurde das Augenmerk auf den ITS gelegt. Eines der wichtigsten Merkmale, die den Bremsstrahlungsprozess beschreiben, ist der Energieverlust. Durch die Bethe-Heitler-Funktion lässt sich der gesamte Detektor nur bedingt beschreiben. Erst die Betrachtung, die sich mit einer Einschränkung auf den ITS und den Azimutwinkel beschäftigt, zeigt eine genaue Beschreibung durch die Parameter der Funktion.
Nach der genauen Beschreibung der Bremsstrahlung wurden verschiedene Methoden entwickelt, in denen die Bremsstrahlungsprozesse innerhalb des invarianten Massenspektums der e++e--Paare ausgeschnitten werden können. Die Methoden der Selektion durch die Anzahl der Spurpunkte sowie die Selektion durch die Position der Spurpunkte zeigen, dass bereits minimale Selektionen ein sehr gutes Signal ergeben. Durch den Vergleich mit den herkömmlichen Selektionen SPDany und SPDfirst, zeigt sich, dass hierbei viel Signal verloren geht und diese Methode für bestimmte Analysen optimiert werden kann.
Durch die Anwendung auf die Datensätze, die während einer Strahlzeit im Jahr 2010 genommen wurden, bestätigte sich die Vermutung. Durch die Selektion von SPDany wird das Signal reduziert. Vergleicht man die Anzahl der Einträge im Signalbereich durch die Reduktion der Teilchen ohne Spurpunkte im ITS (NITSpunkten>0) zu der Anzahl der Einträge durch SPDany, ergibt dies eine Verminderung von bis zu 40%. Die Ursache für den großen Verlust innerhalb des Signalbereichs wird zusätzlich verstärkt, indem der SPD durch Kühlungsprobleme ausgeschaltet ist.
Eine weitere Methode, die untersucht wurde, war die Reduktion der Auswirkungen von Bremsstrahlung mit Hilfe der Kinkanalyse. Diese Methode ließ keine qualitativen Rückschlüsse auf die Analyse der Bremsstrahlung zu.
Dennoch zeigt das Ergebnis, dass das Signal von J/y’s in Proton-Proton Kollisionen um mehr als 40% mehr Einträge verbessert werden kann und sich dieses Prinzip nicht nur theoretisch in den simulierten Daten niederschlägt sondern auch in den untersuchten Datensätzen. Nun gilt es, diese Methode auch in anderen Studien einzubauen, um so eine alltagstaugliche Überprüfung der Erkenntnisse zu gewährleisten.
Das Compressed Baryonic Matter Experiment (CBM) wird im Rahmen der Facility for Antiproton and Ion Research (FAIR) entwickelt, um das Phasendiagramm stark wechselwirkender Materie vorwiegend im Bereich hoher Dichte ausgiebig zu studieren. Dazu sollen Kollisionen schwerer Ionen durchgeführt werden und die Reaktionsprodukte mit hoher Präzision in Teilchendetektoren gemessen und identfiziert werden. Eine wichtige Aufgabe besteht in der Unterscheidung von Elektronen und Pionen, zu der ein Übergangsstrahlungszähler (Transition Radiation Detector) beiträgt. Übergangsstrahlung wird im relevanten Impulsbereich dieser Teilchen nur von Elektronen emittiert und soll im Detektor registriert werden.
In der vorliegenden Arbeit wird die Entwicklung dieses Detektors auf Basis von Vieldrahtproportionalkammern (Multiwire Proportional Chamber ) hauptsächlich anhand von Simulationen diskutiert, aber auch erste Testmessungen eines Prototypen vorgestellt. Der Schwerpunkt der Simulationen eines einzelnen Detektors liegt in der Untersuchung der Effiienz in Abhängigkeit seiner Dicke.
Der Übergangsstrahlungszähler für CBM wird aus mehreren Detektorlagen bestehen. Daher wird außerdem die Effizienz des Gesamtsystems analysiert, indem verschiedene Methoden zur Kombination der einzelnen Signale angewendet werden. Darüber hinaus wird die Effizienz des verfolgten Detektorkonzepts in Abhängigkeit des Radiators, der Anzahl der Detektorlagen, sowie des Teilchenimpulses präsentiert.
Im Rahmen dieser Arbeit wurde die Messung von ψ(2S) Mesonen mit dem ALICE-Experiment am LHC untersucht. Das ψ(2S) gehört zur Familie der Charmonia und kann sowohl in Proton-Proton- als auch in Nukleon-Nukleon-Kollisionen erzeugt werden und ist daher ein wichiger Parameter in den Studien dieser. Die Rate, mit der ψ(2S) durch verschiedene Mechanismen erzeugt werden, liefert Informationen über den Ablauf der Kollision und ist ein hilfreicher Faktor bei der Suche nach dem Quark-Gluon Plasma. Da es sich beim ψ(2S) um ein Charmonium handelt, das in niedrigere Charmoniumzustände zerfallen kann, ist das Verständis des ψ(2S) ebenso für Studien anderer Charmonia, wie dem J/ψ(1S), relevant.
Mit dieser Arbeit konnte die Funktionsweise von gekoppelten Resonatoren erklärt werden. Das Verhalten von induktiv gekoppelten Beschleunigerkavitäten wurde näher studiert. Dabei wurde verstanden, wie sich Verstimmungen auf die Resonatoren auswirken und was zu tun ist um die Spannungsamplituden des gekoppelten Systems zu beeinflussen. Zudem wurden die Grundlagen für den gekoppelten Betrieb des FRANZ-Beschleunigers gelegt.
In dieser Arbeit wurde der mittlere Transversalimpuls 〈pT〉 für nicht identifizierte, geladene Hadronen in pp und Pb–Pb Kollisionen bestimmt. Dazu wurden die pT -Spektren mit verschiedenen Funktionen bis pT = 0 extrapoliert. Die 〈pT〉 -Abhängigkeit wurde sowohl für die Anzahl der gemessen Teilchen nacc , als auch für die Anzahl der geladene Spuren nch gezeigt. Im Rahmen der Zentralitätsabhängigkeit wurde für periphere Ereignisse (70% bis 80 %) 〈pT〉 = 550, 1MeV/c gemessen. Der mittlere Transversalimpuls steigt bis auf 〈pT〉 = 628, 9MeV/c für Zentralitäten von 5% - 20% und verringert sich dann auf 〈pT〉 = 626, 8MeV/c für die zentralsten Kollisionen (0% - 5%) ab. Der Vergleich zu pp und Pb–Pb Kollisionen zeigte Gemeinsamkeiten für niedrige Multiplizitäten und ein sich unterscheidendes Verhalten für höhere Multiplizitäten.
Neben der Bestimmung der systematischen Unsicherheiten ist ein nächster Schritt die Unterscheidung zwischen hadronischer und elektromagnetischer Wechselwirkung für geringe Multiplizitäten in Pb–Pb Kollisionen. Eine Möglichkeit zur Unterscheidung wurde bereits mit Hilfe des ZDC gezeigt [Opp11]. Ebenfalls die Unterschiede zwischen pp und Pb–Pb betrifft eine Untersuchung der 〈pT〉 -Entwicklung für Jets und den sie umgebenden Hintergrund.
Eine allgemeine Erweiterung der Analyse stellt die Untersuchung von 〈pT〉 für identifizierte Teilchen da. Diese Analyse würde vor allem die besonderen PID Fähigkeiten von ALICE nutzen und könnte die schon beobachteten Unterschiede der NA49 Kollaboration[NA499] bei höheren Energien untersuchen
Im Rahmen dieser Arbeit wurde die Analyse von Dielektronen im Bereich niedriger Massen für zwei unterschiedliche Magnetfeldstärken des ALICE-L3-Magneten untersucht. Hierfür wurden zwei Arten von Simulationen, volle Simulationen und schnelle Simulationen, jeweils für die Magnetfeldeinstellungen 0, 2 T und 0, 5 T erstellt und verglichen. Zunächst wurde die Konsistenz der vollen und schnellen Simulationen anhand von Monte Carlo Truth Spektren überprüft. Es zeigte sich eine gute Übereinstimmung der invarianten Massenspektren mit Ausnahme der f-Resonanz, die in den schnellen Simulationen fast 3-mal höher lag. Dann wurden die vollen Simulationen der Magnetfeldeinstellung 0, 5 T mit ALICEMessdaten desselben Magnetfeldes verglichen. Hierbei zeigte sich, dass die Messdaten im Hinblick auf die Transversalimpulsverteilung der einzelnen Elektronen um einen Faktor 1, 2 bis 2 und im Hinblick auf die Transversalimpulsverteilung der Paare um einen Faktor 2 bis 2, 5 über den Simulationen lagen. Dies konnte zum Teil auf eine Kontamination durch Pionen zurückgeführt werden. Das Signal-Untergrund-Verhältnis war mit 0, 99 für die Simulationen 6-mal größer als das der Messdaten mit 0, 16. Die normierte Signifikanz der Simulationen von 0, 0044 lag 3,5-mal über dem Wert 0, 0012 der Messdaten. Für die schnellen Simulationen wurden die Effizienzen für einzelne Elektronen benötigt. Diese wurden mithilfe von Boxensimulationen erstellt. Es wurde zwischen den Elektronidentifikationsmethoden TOF optional und TOF required und den Magnetfeldstärken 0, 2 T und 0, 5 T unterschieden. Die Boxensimulationen ergaben, dass bei einem Magnetfeld von 0, 2 T insgesamt mehr Elektronen rekonstruiert und identifiziert werden konnten. Außerdem konnte die Analyse zu niedrigeren Transversalimpulsen hin ausgedehnt werden. Die schnellen Simulationen zeigten, dass eine Reduktion des Magnetfeldes von 0, 5 T auf 0, 2 T eine Erhöhung der Anzahl an gemessenen Paaren um einem Faktor 2, 0 für die Elektronidentifikation TOF optional und um einem Faktor 6, 0 für die Elektronidentifikation TOF required zur Folge hat. Die vollen Simulationen der Elektronidentifikation TOF optional ergaben nach Reduktion des Magnetfeldes eine Verbesserung des Signal-zu-Untergrund-Verhältnisses um 11% von 0, 98 auf 1, 11. Die Signifikanz konnte von 0, 0043 auf 0, 0060, d.h. um 40%, verbessert werden. Für die Elektronidentifikation TOF required erhielt man ein Signal-zu-Untergrund-Verhältnis von 16, 5 (0, q 2 T) und 19, 1 (0, 2 T). Jedoch war die normierte Signifikanz (sgn = sqrt((s exp 2)/2*B)* (1/sqrt(NEv)))) für das reduzierte Magnetfeld 100% höher und lag bei 0, 086, während sie für 0, 5 T einen Wert von 0, 0043 hatte. In der vorliegenden Arbeit konnte gezeigt werden, dass eine Reduktion der Magnetfeldstärke des ALICE-L3-Magneten von 0, 5 T auf 0, 2 T zu Verbesserungen in der Messung von Elektron-Positron-Paaren führt. Als Fazit kann angenommen werden, dass eine Datennahme bei einem reduzierten Magnetfeld von 0, 2 T sinnvoll erscheint.
Diese Arbeit beschäftigt sich mit dem Aufbau und der Kalibrierung eines Neutronendetektorarrays für niedrige Energien (Low Energy Neutron detector Array, kurz „LENA“) am kommenden R³B-Aufbau (Reactions with Relativistic Radioactive Beams) am FAIR (Facility for Antiproton and Ion Research) an der GSI in Darmstadt. Die Detektion niederenergetischer Neutronen im Bereich von 100 keV bis 1 MeV ist nötig, um Ladungsaustauschreaktionen, speziell (p,n)-Reaktionen in inverser Kinematik zu untersuchen. In diesem Energiebereich ist die Detektion äußerst schwierig, da Methoden für thermische als auch hochenergetische (100 MeV bis 1 GeV) Neutronen versagen. Neben dem Aufbau des Detektors wird die Bedeutung des Experiments für die nukleare Astrophysik verdeutlicht. Der theoretische Teil dieser Arbeit legt Grundlagen zum Verständnis für den Nachweis von Neutronen, die Funktionsweise des LENA-Detektors und den damit nachweisbaren Kernreaktionen. Des Weiteren wurde eine Simulation des Detektors mit GEANT4 (GEometry And Tracking), einer C++ orientierten Plattform für Simulationen von Wechselwirkungen von Detektormaterial mit Teilchen, durchgeführt. Die Ergebnisse wurden zur Auswertung von Messungen, die im Rahmen einer Strahlzeit im März 2011 an der Physikalisch Technischen Bundesanstalt (PTB) in Braunschweig durchgeführt wurden, herangezogen. Ziel der Arbeit ist es, die Effizienz des Detektors zu bestimmen.
Im September 2005 wurden von der HADES-Kollaboration an der GSI in Darmstadt Daten der Schwerionen-Reaktion Ar+KCl bei 1,76A GeV aufgenommen. Neben den Pionen und Dileptonen wurden bereits fast alle Teilchen mit Seltsamkeitsinhalt rekonstruiert. In dieser Arbeit wird zum ersten Mal eine Analyse der leichten Fragmente Deuteronen, Tritonen und 3Helium mit HADES durchgeführt.
Die gemessenen Multiplizitäten wurden mit einem statistischen Hadronisationsmodell verglichen und zeigen gute Übereinstimmung mit diesem. Dies legt die Vermutung nahe, dass das System Ar+KCl bei 1,76A GeV einen hohen Grad an Thermalisierung erreicht. Zu einer weiteren Untersuchung dieser Hypothese wurden die sogenannten effektiven Temperaturen Teff der Teilchen der chemischen Ausfriertemperatur aus dem statistischen Modellfit gegenübergestellt. Bei der effektiven Temperatur handelt es sich um die inversen Steigungsparameter von Boltzmann-Fits an die transversalen Massenspektren mt-m0 bei Schwerpunktsrapidität. Diese Temperatur entspricht bei einer isotropen, statischen Quelle der kinetischen Ausfriertemperatur und sollte somit unterhalb oder gleich der chemischen Ausfriertemperatur sein. Im Falle der effektiven Temperaturen der Ar+KCl-Daten liegen diese jedoch systematisch höher und die Teilchen ohne Seltsamkeitsinhalt zeigen einen massenabhängigen Anstieg, welcher eine radiale kollektive Anregung des Systems vermuten lässt.
Die transversalen Massenspektren der leichten Fragmente werden unter der Annahme eines thermalisierten Systems mit Boltzmann-Funktionen angepasst. Daraus werden die effektiven Temperaturen von Teff,Deuteronen = (139,5 ± 34,9) MeV und Teff,T ritonen = (247,9 ± 62,0) MeV extrahiert, was die Annahme von kollektivem Fluss der Teilchen zu unterstützen scheint. Vergleicht man diese Werte mit den effektiven Temperaturen der leichteren Teilchen, kann mithilfe einer linearen Funktion die kinetische Ausfriertemperatur Tkin = (74,7 ± 5,8) MeV und radiale Flussgeschwindigkeit βr = 0,37 ± 0,13 bestimmt werden. In einem zweiten Ansatz werden daher die Spektren mit Siemens-Rasmussen-Funktionen, die eine radiale Ausdehnung mit einbeziehen, angepasst und daraus die globalen Parameter T = (74 ± 7) MeV und βr = 0,36 ± 0,02 bestimmt. Diese Werte liegen an der oberen Grenze in dem für diesen Energiebereich erwarteten Bereich.
Die Siemens-Rasmussen-Funktionen liefern eine bessere Beschreibung der transversalen Massenspektren und werden zur Extrapolation der nicht abgedeckten transversalen Massenbereiche genutzt. Die Integration liefert die Verteilung der Zählrate als Funktion der Rapidität. Diese Verteilung zeigt zwei Maxima nahe Strahl- und Target-Rapidität, was im Widerspruch zu einer statischen, thermischen Quelle der Teilchen steht.
Das CBM-Experiment an der zukünftigen FAIR Beschleunigeranlage zielt unter anderem darauf, Open-Charm-Teilchen zu rekonstruieren, die in Schwerionenkollisionen im Energiebereich von 10 bis 40 AGeV erzeugt werden. Ein für diese Teilchenrekonstruktion essentieller Detektor ist der Mikro-Vertex-Detektor (MVD).
Im Rahmen der Entwicklungsarbeiten für diesen Detektor werden regelmäßig Detektorsimulationen durchgeführt. Bei einer dieser Simulationen [CAD11], wurden nach Einführung eines verbesserten Simulationsmodells des Detektors, Einbrüche in Rekonstruktionseffizienz für Open-Charm Teilchen festgestellt. Als mögliche Ursache wurde eine Überlastung der Software für die Spurrekonstruktion von CBM vermutet, die erstmals mit realistischen Trefferdichten auf den MVD-Stationen konfrontiert war. Zusätzlich wurde in der Simulation die Geometrie eines MVD mit nur zwei Detektorebenen verwendet. Auch der durch die kleine Anzahl an MVD-Stationen große Abstand zwischen MVD und STS (Silicon-Tracking-System) und dessen potentiell ungünstiger Einfluss auf die Spurrekonstruktion konnte als Ursache für den beobachteten Einbruch der Rekonstruktionseffizienz nicht ausgeschlossen werden.
Die Aufgabe dieser Arbeit bestand in der Prüfung, ob der beobachtete Einbruch der Rekonstruktionseffizienz des Detektorsystems tatsächlich auf eine Überlastung der Spurrekonstruktionssoftware zurückzuführen ist. Darüber hinaus sollte festgestellt werden, ob mögliche konstruktive Verbesserungen im MVD (zusätzliche Detektorstationen) diesem Effekt entgegen wirken können...
Mithilfe einer (n,γ)-Aktivierung von Germanium am Forschungsreaktor TRIGA in Mainz wurde zum einen in Hinblick auf zukünftige Experiment an der NIF eine Sensitivitätsstudie durchgeführt. Zum anderen wurden die thermischen Neutroneneinfangquerschnitte von 74Ge und 76Ge jeweils für den Einfang in den Isomer- und Grundzustand gemessen, um die Abweichungen der Daten von [Hol93] und [Mug06] zu klären. Zusätzlich wurden die Halbwertszeiten der betrachteten radioaktiven Ge-Isotope bestimmt.
ω(782) und ϕ(1020) Mesonenproduktion durch Dielektronen in pp-Kollisionen bei √s = 7 TeV mit ALICE
(2013)
Die Niedrigmassendielektronen (Elektron-Positron Paare mit kleiner invarianten Masse) sind wichtige experimentelle Sonden, um die Eigenschaften des in ultra-relativistischen Schwerionenkollisionen erzeugten heißen und dichten Mediums zu untersuchen. Elektronen koppeln nicht an die starke Wechselwirkung, weshalb sie wichtige Informationen über die gesamten Kollisionsphasen geben. Die Zerfälle von ω(782) und ϕ(1020)-Mesonen in Dielektronen ermöglichen es, besonders wichtige Informationen über ihre In-Medium-Eigenschaften zu erhalten, da Proton-Proton (pp)-Kollisionen als mediumfreie Referenz angenommen werden. Außerdem sind pp-Kollisionen auch für sich genommen interessant, um die Teilchenproduktion im Energiebereich des LHC (Large Hadron Collider) zu untersuchen.
In dieser Analyse werden die Elektronen im mittleren Rapiditätsbereich von |η| < 0.8 mit ITS (Inner Tracking System), TPC (Time Projection Chamber) und TOF (Time of Flight) gemessen.
Die transversalen Impulsspektren der ω(782) und ϕ(1020)-Mesonen im e+e--Zerfallskanal in pp-Kollisionen bei p √s = 7 TeV werden gezeigt. Das transversale Impulsspektrum des ω(782)-Mesons im e+e--Zerfallskanal wird mit den pT-Spektren in den µ+µ--und in den π0π+π--Zerfallskanälen verglichen, während das pT-Spektrum vom ϕ(1020)-Meson im e+e--Zerfallskanal mit den pT-Spektren in µ+µ-- und K+K--Zerfallskanälen verglichen wird.
Nach dem einführenden Theorieteil werden in den darauffolgenden Kapiteln zuerst die Auslegung und die Vermessung der drei Tripletts an der GSI in Darmstadt beschrieben und dann versucht mit Hilfe von LORASR einen Akzeptanzrahmen der MEBT-Sektion (Medium Energy Beam Transport) für ein Teilchenpaket anzugeben. Anschließend werden die Ergebnisse aus Feldvermessung und CST EM STUDIO Feldsimulationen verglichen. Damit soll die Frage, inwieweit es mit Particle Tracking Simulationen, in denen mit in CST EM STUDIO simulierten und anschließend in BENDER importierten Feldern gearbeitet wird, möglich ist, zutreffende Aussagen zu machen, beantwortet werden. Im letzten Kapitel werden wiederum die Ergebnisse dieser Simulationen präsentiert und ihre Bedeutung, im Vergleich mit den erweiterten Untersuchungen der Transporteigenschaften durch verschiedene aus überlagerten Multipolfeldern generierten Magnetfelder, eingeordnet. Abschließend wird nochmals ein Fazit zur Aussagekraft der Ergebnisse und der Folgen für den Strahltransport gezogen und ein Ausblick auf die noch ausstehenden Schritte und weitere experimentelle Analyseoptionen gegeben.
Seit den 20er Jahren werden Teilchen durch verschiedenste Methoden beschleunigt und wechselwirken unter Laborbedingungen mit anderen Teilchen. Hierbei spielt die Erzeugung neuer meist sehr kurzlebiger Teilchen eine wichtige Rolle. Die Untersuchung dieser Streuexperimente ist eine der wichtigsten Methoden der Elementarteilchen-, Kern- und Astrophysik. So steht bei den heutigen Kernphysik-Experimenten immer mehr die Astrophysik im Vordergrund. Die offenen kosmischen Fragen nach dem Ursprung und der Entwicklung des Universums drängen nach Antworten. Seit die Menschen bewusst denken können, gibt es diese Neugier zu erfahren woraus das Universum besteht. Unser Bild des Universums wurde durch neue Erkenntnisse alleine in den letzten 30 Jahren mehrmals radikal verändert.
Besonders die Vielzahl und Häufigkeit der heute zu findenden Elemente wollen erklärt werden. Da nach heutigen Kenntnissen davon ausgegangen wird, dass kurz nach dem Urknall lediglich die leichten Elemente Wasserstoff, Helium und Lithium vorhanden waren. Hier versucht die aktuelle Forschung anzusetzen. Das Konzept der sogenannten „Nukleosynthese“ ist entwickelt worden und versucht das Entstehen aller schwereren Elemente zu erklären. So geht man heute davon aus, dass sich die weiteren Elemente bis hin zu Eisen durch Kernfusions-Prozesse innerhalb der verschiedenen Brennphasen von Sternen entwickelt haben - während alle schwereren Elemente durch neutronen-induzierte Prozesse entstanden sind. Die beiden großen Neutronenprozesse sind der r-Prozess (rapid neutron-capture process) und der s-Prozess (slow neutron-capture process). Während der r-Prozess wahrscheinlich in hochexplosiven Szenarien, wie den Supernovae, stattfindet, spielt sich der s-Prozess meist innerhalb Roter Riesen ab [Rei06].
Um diese Theorien zu belegen und zu unterstützen, ist es nötig diverse kernphysikalische Experimente auf der Erde durchzuführen. Hier versucht man den Bedingungen in den Sternen nahe zu kommen. Es werden hohe Energien und hohe Neutronenflüsse benötigt um schwerere Elemente durch Neutroneneinfangs- und Fusionsprozesse zu erzeugen. Ziel Motivation Einleitung ist es unter anderem nukleare Wirkungsquerschnitte diverser Reaktionen experimentell nachzuweisen und auf die Sternmodelle umzurechnen.
Die Schwierigkeit liegt hier nicht nur in der Erzeugung und Erhaltung dieser hohen Raten, sondern vielmehr auch in der Detektion der entstandenen Fragmente und Teilchen. Da diese Teilchen und subatomaren Partikel nur eine jeweils sehr kurze Lebensdauer besitzen, ist es eine große Herausforderung möglichst effiziente und effektive Detektoren zu entwickeln. Damit diese Detektoren in den jeweiligen Experimenten dann möglichst optimal arbeiten und die gewünschten Auflösungen liefern, ist es nötig gute Kalibrierungsmöglichkeiten im Voraus auszunutzen.
Asymptotic giant branch (AGB) stars are initially low and intermediate mass stars undergoing recurrent hydrogen and helium shell burning. During the advanced stage of stellar evolution AGB stars follow after the helium core burning ceased and are located in the AGB of the Hertzsprung-Russell Diagram. One characteristic is their ability of element synthesis, especially carbon and nitrogen, which they eject in large amounts into the interstellar medium. But AGB stars also feature a slow-neutron capture process called s-process which forms approximately 50 % of all elements between Fe and Bi. The initial mass function emphasizes the importance of the synthesized ejecta of AGB stars since they are much more abundant than massive stars. Therefore, the abundance evolution of many elements in the universe is drastically affected by AGB stars. In order to understand chemical evolution in the universe their behavior must be known since their first appearance. In previous times less heavy elements were produced and available. Hence AGB stars with lower heavy element content, which means lower metallicity, must be investigated. They appear to behave substantially differently than stars of higher metallicity. Another issue is that AGB stars have mass-dependent characteristics from which follows a division into low-mass, massive and super AGB stars. Super AGB stars have the most open issues due to their large masses and initial mass boundaries that separate them from massive stars. Due to large spectroscopic surveys in the last years, many low metallicity stars have been analyzed. These findings make it necessary to complement those studies through stellar modeling. This work makes a step in this direction. The AGB star masses under investigation are 1M⊙, 1.65M⊙, 2M⊙, 3M⊙, 4M⊙, 5M⊙, 6M⊙ and 7M⊙ which include low-mass, massive and super AGB stars. Metallicities of Z = 6 x 10 exp-3 and Z = 1 x 10 exp-4 (for comparison, solar Z ~ 0.02) were chosen. These results are an extension of already available data, covering solar and half-solar metallicity, but without super AGB stars. Therefore physics input includes mainly well-established approaches rather than new theories. New physical approaches are included due to the low metallicity which makes the results a unique set of models. Additionally, extensive s-process network calculations lead to production factors of all included elements and isotopes. The s-process signatures of those stars were analyzed. The stellar evolution simulations presented in this work have been utilized for rate and especially sensitivity studies. One approach done was to analyze s-process branchings at 95Zr and 85Kr for stars at 3M⊙ with Z = 1 x 10 exp-2 and Z = 1 x 10 exp-3 respectively.
Der langsame Neutronen-Einfangprozess (s-Prozess) ist weitgehend verstanden und erforscht. Dies liegt vor allem daran, dass er im Gegensatz zu r- und p- Prozess hauptsächlich an stabilen Nukliden abläuft. Auch ist die Anzahl relevanter Reaktionen (Netzwerk) vergleichsweise klein.
Dennoch gibt es im s-Prozess viele ungeklärte Fragen. Eine dieser Fragen ist die Häufigkeitsverteilung von 86Kr in Staubkörnern von Meteoriten. Mit bisherigen Berechnungen und Simulationen dieser Szenarien konnte die Häufigkeitsverteilung von 86Kr jedoch nicht erklärt werden.
In dieser Arbeit werden die besonderen Eigenschaften von 85Kr, insbesondere sein Isomerzustand, vorgestellt und genauer untersucht. Die Häufigkeitsverteilung von 86Kr im s-Prozess wird entscheidend durch die Eigenschaften 85Kr beeinflusst. Mit den gewonnenen Daten aus dieser Arbeit wurde eine erste Simulation erstellt, die einen möglichenWeg aufzeigt, das Rätsel um die Häufigkeitsverteilung zu lösen.
Im Rahmen dieser Arbeit wurde eine JTAG-Ansteuerung für MIMOSA26-Sensoren basierend auf FPGA-Boards entwickelt. Als VHDL-Code ist die Implementierung anpassbar. Jede JTAG-Chain wird durch einen unabhängigen JTAG-Chain-Controller angesteuert, so dass sich begrenzt durch die Zahl der I/O-Leitungen und die Ressourcen die Anzahl der JTAG-Chain-Controller auf einem FPGA einstellen lässt. Die Anpassbarkeit hat sich bereits bei der Strahlzeit am CERN im November 2012 gezeigt, für die eine Version mit drei JTAG-Chain-Controllern auf einem FPGA und Ausgängen auf einem SCSI-Kabel synthetisiert wurde. Dabei wurde die Prototyp-Frontend-Elektronik Version 1 verwendet. Außerdem ist die Größe des pro Sensor verwendeten Speichers (in Zweierpotenzen) im VHDL-Code einstellbar, um auch eventuelle zukünftige Sensoren mit größeren Registern zu unterstützen.
Aus dieser Sicht sollte die Implementierung mit kleinen Anpassungen im finalen MVD verwendbar sein, es gibt jedoch wie immer noch Verbesserungsmöglichkeiten, z.B. die Verwendung eines externen Speichers. Des Weiteren fehlt noch eine grafische Benutzeroberfläche für den finalen MVD, wobei wie bei den anderen Detektoren von CBM dazu eine Steuerung basierend auf EPICS entwickelt werden sollte, um eine einheitliche Oberfläche zu erreichen.
Auf Seiten der Elektronik für ded finalen MVD gibt es noch einige offene Fragen, vor allem bei der Entwicklung der Zuleitungen für die Sensoren. Die Signale auf den Flexprint-Kabeln zeigen bereits bei kurzen JTAG-Chains ein hohes Übersprechen (Abschnitt 9.1.2), das zu hoch werden könnte, wenn man Sensor-Module mit mehr als einem Sensor (wie für den finalen MVD geplant, siehe Kapitel 3) an das bisher verwendete Chain-FPC anschließt.. Es kann jedoch auch gut sein, dass das Übersprechen gar kein Problem darstellen wird. Prinzipiell besteht die Möglichkeit, dass sich das Übersprechen z.B. durch Einfügen einer Masseschicht in Kabel und Boards reduzieren lässt, was in Simulationen gezeigt wurde (siehe Kapitel 8). Jedoch wurden in diesen Simulationen die Steckverbinder und eventuelle Fehlanpassungen der Boards vernachlässigt, weshalb nicht sicher ist, ob bzw. wie gut sich dies praktisch umsetzen lässt. In jedem Fall stellen die betrachteten Möglichkeiten, das Übersprechen zu reduzieren, einen erhöhten Aufwand dar. Daher erscheint es sinnvoll, zuerst eine konkrete Geometrie für die Elektronik des finalen MVD zu entwerfen1, und für diese zu ermitteln, ob das Übersprechen ein Problem darstellt.
Dabei stellt sich die wichtige Frage, wie viele Sensoren auf einem Sensor-Modul mit einem einlagigen Kabel in der zur Verfügung stehenden Breite angeschlossen werden können, da mindestens vier zusätzliche Datenleitungen für jeden weiteren Sensor erforderlich sind.
Ziel der nuklearen Astrophysik ist es, die solare Häufigkeitsverteilung der Elemente zu erklären (siehe Seite 10, Abb. 1.1). Die Elemente bis zur Eisengruppe sind dabei unmittelbar nach dem Urknall und während verschiedener Brennphasen in Sternen durch Kernfusion entstanden. Da die Bindungsenergie pro Nukleon der Elemente in der Eisengruppe am höchsten ist, ist für den Aufbau schwererer Elemente keine Energiegewinnung durch Fusion geladener Teilchen mehr möglich und Neutroneneinfänge und Betazerfälle spielen die entscheidende Rolle für die Nukleosynthese. In Abhängigkeit von der Neutronendichte und der Temperatur wird dabei zwischen dem langsamen Neutroneneinfangprozess, dem s-Prozess, und dem schnellen Neutroneneinfangprozess, dem r-Prozess, unterschieden. Während der r-Prozess weit abseits der stabilen Isotope an der Neutronenabbruchkante statt findet, verläuft der Reaktionspfad des s-Prozesses entlang der stabilen Isotope am "Tal der Stabilität".
Mit einem COLTRIMS Reaktions-Mikroskop wurde die Doppelionisation von Argon durch Laserpulse gemessen, um die Energiequantisierung im Allgemeinen und den Recollision Mechanismus zu untersuchen. Mit der Abhängigkeit der Doppelionisationsrate von der Elliptizität des Lichts liegt ein starker Hinweis auf ein Modell vor, welches Rescattering beinhaltet. Außerdem ist durch die Messung der Doppelionisationsrate gewährleistet, dass in einem Intensitätsintervall gemessen wurde, welches der nicht-sequentiellen Doppelionisation zugeschrieben wird.
Recollision-Ionization scheint für die in einem bestimmten Intensitätsintervall beobachtete erhöhte Doppelionisation verantwortlich zu sein. Das sollte zu ATI-Peaks in der Summenenergie der ausgelösten Elektronen führen. Diese werden in der vorliegenden Arbeit erstmalig beobachtet. Außerdem sind nicht erwartete ATI-Peaks im Energiespektrum der einzelnen Elektronen sichtbar, welche der direkten Stoßionisation widersprechen.
Dadurch liegt der Schluss nahe, dass der Hauptmechanismus der Doppelionisation in diesem Intensitätsbereich ein anderer Effekt ist: RESI (Recollision Excitation and Subsequent Ionization). Hierbei wird zunächst das zweite Elektron beim Stoß mit dem ersten angeregt. Das erste Elektron bleibt im Kontinuum und wird durch den Laser beschleunigt. Beim nächsten Feldmaximum wird das angeregte Elektron tunnelionisiert, wodurch ebenfalls ATI-Peaks im Energiespektrum dieses Elektrons erzeugt werden.
Als mögliche Zwischenzustände werden 3s23p4(1D)4s (2D) und 3s23p4(1D)3d (2P) identifiziert, die zu dem beobachteten angeregten Endzustand 3s23p4(1D) führen.
Als es in den 1920er und 1930er Jahren zur Entdeckung des expandierenden Raums, gemessen über die kosmologische Rotverschiebung, kommt, wird daraus erstmals die Idee eines kleinsten Ursprungspunkts zu Beginn der Zeit postuliert. Es dauerte jedoch weitere 30 Jahre, bis das Konzept des „Big Bang“ als Ursprungsmodell veröffentlicht wurde [Lum07]. Seitdem untersuchen Wissenschaftler fortschreitend die Theorie des Big Bang. Der Zustand der Materie zum Zeitpunkt Null ist nach wie vor ungeklärt, ab ca. 10 exp (-44) Sekunden nach dem Urknall wird in der Theorie des Big Bang davon ausgegangen, dass sich die Materie im Zustand des Quark-Gluon-Plasmas befand. Zunächst galt es eine experimentelle Bestätigung für die generelle Existenz eines solchen Zustands zu finden. Die experimentelle Suche nach dem Quark-Gluon-Plasma im Labor begann vor fast 30 Jahren am Bevalac in Berkley [Gus84], dort konnte bei Niobium-Kollisionen kollektiver Fluss beobachtet werden. Zehn Jahre später begannen die Messungen des Schwerionen-Forschungsprogramms am CERN1. Im Jahr 1994 wurden dort die ersten Schwerionenkollisionen durchgeführt, von denen man sich erhoffte, dass sie zu einer kurzzeitigen Erzeugung des Quark-Gluon-Plasmas führen. Im Jahr 2000 gab es dann eine zusammenfassende Pressemitteilung des CERN, in der die Messungen eines neuartigen Materiezustands beschrieben wurden [CER00]. Weitere fünf Jahre später wurde ein Bericht der bis dahin erreichten Ergebnisse der vier Quark-Gluon-Plasma Experimente am Relativistic Heavy Ion Collider (RHIC) des Brookhaven National Labratory veröffentlicht [BNL05]. Dabei konnten einige Ergebnisse aus den Messungen am CERN bestätigt werden, andere hingegen nicht. Die Annahme, das Quark-Gluon-Plasma verhalte sich wie ein Gas, musste beispielsweise nach den Messungen am RHIC verworfen werden. Diese zeigen, dass das Verhalten des Quark-Gluon-Plasma eher dem von Flüssigkeiten ähnelt [BNL05].
Seit den ersten Schritten zur Untersuchung des Quark-Gluon-Plasma am CERN, in denen vor allem die Messung der Existenz des Quark-Gluon-Plasmas an sich im Vordergrund stand, soll der Phasenübergang nun quantitativ untersucht werden. Dazu werden Dichte und Temperatur der betrachteten Materie variiert und die vorhandene Zustandsphase gemessen. Eines dieser Experimente soll das Compressed Baryonic Matter (CBM) Experiment werden. Das Ziel des Experiments ist die Untersuchung von Materie bei sehr hohen Dichten, aber im Vergleich zu anderen aktuellen Experimenten relativ niedrigen Temperaturen. Im Jahr 2009 wurde der erste Spatenstich auf dem Gelände der Gesellschaft für Schwerionenforschung in Darmstadt für den Bau der Facility for Antiproton and Proton Research (FAIR) getätigt. Mit Hilfe der FAIR-Beschleuniger soll dann das CBM Experiment das Quark-Gluon-Plasma bei hohen Materiedichten mit bisher nicht erreichter Statistik untersuchen können. Jedoch gerade das Erreichen solch hoher Ereignisraten stellt nicht nur eine zentrale Herausforderung an die Beschleuniger dar, sondern auch an die messenden Detektoren. Diese Arbeit beschäftigt sich mit der Entwicklung eines Transition Radiation Detektors für das CBM Experiment.
Nach einer kurzen Einführung in die generelle Untersuchung des Quark-Gluon-Plasmas folgt die Beschreibung des geplanten Aufbaus des CBM Experiments mit dessen Subsystemen. Danach wird die theoretische und praktische Funktionsweise eines Transition-Radiation Detektors (TRD) erklärt, um darauf aufbauend die Charakterisierung und Signalanalyse der entwickelten TRD-Prototypen darzustellen. Abschließend werden die Ergebnisse in Bezug auf den für das CBM Experiment zu entwickelnden Detektor diskutiert.
In der vorliegenden Arbeit wurden Messungen zur Plasmadynamik eines Lorentz-Drift- Beschleunigers (LDB) durchgeführt. Dieser basiert auf einer koaxialen Elektrodengeometrie. Bei einem Überschlag führt der entstehende Stromfluss zu einemMagnetfeld, sodass die gebildeten Ladungsträger durch die resultierende Lorentzkraft beschleunigt werden. Es hat sich gezeigt, dass die Abhängigkeit von Durchbruchspannung und Druck dem charakteristischen Verlauf einer Paschenkurve folgt.
Die Strom-Spannungs-Charakteristik des Versuchsaufbaus wurde in Konfigurationen mit und ohne Funkenstrecke untersucht. Mit Hilfe von diesem als Schalter fungierenden Spark-Gaps konnte bei Durchbruchspannungen gemessen werden, die oberhalb des Selbstdurchbruchs liegen.
Es zeigte sich, dass die im Versuchaufbau verwendete Funkenstrecke keinen wesentlichen Einfluss auf die Entladung hat. Es kommt an der Funkenstrecke lediglich zu einem Spannungsabfall im Bereich einiger hundert Volt, der den Verlauf derEntladung im LDB allerdings nicht beeinflusst.
Der Lorentz-Drift-Beschleuniger könnte in Zukunft zur Erzeugung eines Druckgradienten verwendet werden, indem Teilchen von einem Rezipienten in einen Zweiten beschleunigt werden. Als Voruntersuchung zur Eingnung dieses als Lorentz-Drift-Ventil bezeichneten Konzeptes wurden Messungen durchgeführt, die den Einfluss der Durchbruchspannung auf die Teilchenbeschleunigung mit Hilfe eines piezokeramischen Elementes untersuchen. So wurde der magnetische Druck bzw. die entsprechende Kraft einer Entladungswolke in Abhängigkeit von Durchbruchspannungen bis etwa 9,5 kV untersucht. Es hat sich gezeigt, dass der Einsatz von hohen Spannungen sinnvoll ist, da sich die auf das Piezoelement einwirkende Kraft quadratisch zur Durchbruchspannung verhält. So wurde die maximale Kraft von 0,44N bei einer Zündspannung von 9,52 kV gemessen.
Zudem wurde untersucht, in welchem Druckbereich der Einfluss der Druckwelle zu messen und wie sich die Geschwindigkeit der Ausbreitung der Druckwelle bei verschiedenen Durchbruchspannungen verhält. Bei einer Entfernung von 231mm zwischen Elektrodengeometrie und Piezoelement hat sich gezeigt, dass im Druckbereich unterhalb von etwa 0,2mbar kein wesentlicher Einfluss des Gasdruckes auf die Piezospannung erkennbar ist. Dies lässt sich durch die geringe Teilchenanzahl im Arbeitsgas begründen, sodass Teilchenstöße vernachlässigt werden können. Die maximale gemessene Geschwindigkeit der durch die Entladung verursachten Druckwelle liegt bei 55 km s ± 10%.
Die gemessene Plasmadynamik lässt darauf schließen, dass das Konzept eines gepulsten Lorentz-Drift-Ventils insbesondere mit hohen Durchbruchspannungen realisierbar ist. Zur Erzeugung eines dauerhaften Druckgradienten müsste die Repetitionsrate allerdings ausreichend hoch sein, sodass der rückfließende Gasdurchsatz geringer ist als die durch den LDB erzeugte Drift. Geht man von der Schallgeschwindigkeit als Rückflussgeschwindigkeit der Teilchen aus, so sind mindestens Repetitionszeiten im Bereich einer Millisekunde erforderlich.
Ergänzend zu den durchgeführten Untersuchungen ist es sinnvoll, die bisherigen Messungen durch Einbau eines Triggers zu verifizieren. Ein Trigger erzeugt eine Vorentladung mit deren Hilfe die eigentliche Entladung auch im Bereich unterhalb des Selbstdurchbruchs gezündet werden kann.
Das Ziel dieser Masterarbeit ist die Auslegung des Kickers für den Bunch-Kompressor des FRANZ-Projektes. Anhand eines Modells wurden die verschiedenen Möglichkeiten der Einkopplung sowie das Feld zwischen den Kondensatorplatten bereits untersucht. In der vorliegenden Arbeit wird der Kicker mit Hilfe des Programms CST Microwave Studio erstellt und optimiert, sodass er nach Abschluss der Untersuchungen in die Fertigung gehen kann. Dabei ist der erste Schwerpunkt der Untersuchungen die Auslegung und Optimierung der Kondensatorplatten, die für die Auslenkung der Mikro-Bunche im FRANZ-Projekt verantwortlich sind. Zu Beginn der Masterarbeit gab es gezielte Winkelverteilungen, die der Kicker im Rahmen des FRANZ-Projektes erreichen sollte. Nachdem ein Erreichen dieser Werte nur bedingt möglich war, wurden verschiedene Abschnitte des FRANZ-Projektes neu überdacht und die Anforderungen an den Kicker änderten sich dadurch grundlegend. Aus diesem Grund wurde der Kicker zu Beginn der Arbeit für eine Frequenz von 5 MHz ausgelegt, wohingegen er im Rahmen der neuen Anforderungen für eine Resonanzfrequenz von 2,57 MHz ausgelegt wurde. Die Untersuchung der optimalen Resonanzfrequenz für die Anforderungen des Kickers stellt den zweiten Schwerpunkt dieser Arbeit dar.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
The measurement of dielectrons (electron-positron pairs) allows to investigate the properties of strongly interacting matter, in particular the Quark-Gluon Plasma (QGP), which is created in relativistic heavy-ion collisions at the LHC. The evolution of the collision can be probed via dielectrons since electrons do not interact strongly and are created during all stages of the collision. One of the interests in dielectron measurements is motivated by possible modifications of the electromagnetic emission spectrum in the QGP, where pp collisions are used as a medium-free reference. The dielectron spectrum consists of contributions from various processes. In order to estimate contributions of known dielectron sources, simulations of the so-called dielectron cocktail are performed. In this thesis, dielectron cocktails in minimum bias pp collisions at p s = 7 TeV, p–Pb collisions at p sNN = 5.02 TeV and in central (0-10%) and semi-central (20-50%) Pb–Pb collisions at p sNN = 2.76 TeV at the LHC are presented.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
This work derived the value of α-induced production cross sections of 77Kr and 77Br at α-energies of 12 MeV and 14 MeV, the thick target yields of 77Kr and 77Br at α-energies of 11.19 MeV, 13 MeV and 15.1 MeV and the thick target yield of 80Br as well as 80mBr at an α-energy of 15.1 MeV using the activation technique...
This work deals with the determination of the scale parameter ΛM̄S̄ from lattice QCD and perturbation theory results of the static quark-antiquark potential for nf = 2. The investigation is done in momentum space. Lattice methods as well as perturbation theory calculations are introduced. Another part of this work concerns the calculation of the quark-antiquark potential from gauge link configurations for nf = 2 + 1 + 1.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
The Time Projection Chamber (TPC), a large gaseous detector, is the main particle identification device of the ALICE experiment at the CERN LHC. The desired performance of the TPC defines the requirements for the gas mixture used in the detector. The active volume was filled with either Ne-CO2 (90-10) or Ne-CO2-N2 (90-10-5) during the first LHC running period. For LHC Run 2 the gas mixture is changed to Ar-CO2. Calculations of relevant gas properties are performed for Ar-based gas mixtures and compared to Ne-based gas mixtures to identify the most suitable Ar mixture. The drift velocity of ions in Ar is lower than in Ne. The closing time of the gating grid has to be adjusted accordingly to avoid drift field distortions due to back-drifting ions. The drift times of ions in the TPC readout chambers are calculated for the respective gas mixtures to determine the time to collect all ions from the amplification region. For LHC Run 3 the TPC readout chambers will be upgraded. The Multiwire Proportional Chambers (MWPCs) will be replaced by readout chambers based on Gas Electron Multipliers (GEMs) which are operated in continuous mode. As a consequence an ion backflow of the order of 1% causes significant space-charge distortions in the TPC drift volume. Similar distortions are expected in data taken specifically for the study of space-charge effects at the end of Run 1. The gating grid of the MWPCs is operated in the open state allowing the ions from the amplification region to enter the drift volume. The magnitude of the distortions in this data is measured and compared to the expectations for the TPC upgrade and results from current simulations.
Das Hauptziel der vorliegenden Arbeit war es, die energieabhängigen Wirkungsquerschnitte von (γ,n)-Reaktionen für 169Tm, 170Yb, 176Yb und 130Te mittels der Photoaktivierungsmethode zu bestimmen.
Dazu wurden zunächst die Effizienzen der verwendeten Detektoren mithilfe von Simulationen korrigiert, da die verwendeten Targets eine ausgedehnte Geometrie aufweisen im Gegensatz zu den punktförmigen Eichquellen. Es hat sich herausgestellt, dass mit den Simulationen die Effizienzen der MCA-Detektoren energieabhängig korrigiert werden konnten, da die Simulationen die Form der gemessenen Effizienzen gut reproduzieren konnten. Bei den Effizienzen der LEPS-Detektoren hingegen konnte keine energieabhäangige Korrektur vorgenommen werden, da die LEPS-Detektoren aufgrund des geringen Abstandes zu den Detektoren hohe Summeneffekte zeigten. Im Rahmen dieser Arbeit konnten diese Summeneffekte jedoch nicht korrigiert bzw. berücksichtigt werden.