Refine
Year of publication
Document Type
- Bachelor Thesis (67) (remove)
Language
- German (67) (remove)
Has Fulltext
- yes (67)
Is part of the Bibliography
- no (67)
Keywords
- Beschleunigerphysik (2)
- Ionenstrahl (2)
- Strahldynamik (2)
- Strahlprofil (2)
- Drift Tube Linac (1)
- Emittanz (1)
- FRANZ (1)
- Gabor lens (1)
- Gabor-Linse (1)
- Ionenbeschleuniger (1)
Institute
- Physik (67) (remove)
Mit dieser Arbeit wurde gezeigt, wie sich Störung und Kopplung auf ein System zwei gekoppelter Resonatoren auswirkt. Das Einfahren des Tauchkolbens birgt die Möglichkeit die Eigenfrequenzen des Systems zu verändern und die Feldverteilungen anzupassen. Ein Tauchkolben auf der anderen Seite des Resonators wäre für die Anschauung der Störung praktisch gewesen, hätte jedoch keine weiteren Erkenntnisse geliefert.
Es ist möglich mit zwei verschiedenen eingekoppelten Frequenzen eine Schwebung im Resonator zu erzeugen. Dies könnte theoretisch für eine Hochfrequenzstrahlablenkung nützlich sein. Mit einer speziell auf Strahlablenkung optimierten Resonatorgeometrie gilt es dies praktisch zu überprüfen.
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.
In der vorliegenden Arbeit wird die Gestaltung eines Teststandes für die optische Tomographie eines Ionenstrahles untersucht. Nachdem Ionenstrahlen hoher Intensität immer mehr Leistung in den Diagnosegeräten deponieren, müssen neue nicht Strahlzerstörende Diagnosemethoden gefunden werden. Die Diagnose mittels strahlinduziertem Restgasleuchten ist dabei eine viel versprechende nicht zerstörende Methode. Neben der Definition der Anforderungen für einen solchen Teststand werden verschiedene Realisierungsmöglichkeiten untersucht. Mit einem Testaufbau wird das strahlinduzierte Leuchten in Abhängigkeit verschiedener Restgase und Restgasdrücke untersucht, sowie die Eigenschaften des optischen Systems und der Kamera analysiert. Weiterhin wird die Möglichkeit der Emittanzbestimung aus einer optischen Aufnahme mit vorhandenen Methoden untersucht.
In dieser Arbeit wurde gezeigt, ob Simulation und Messung der realen Struktur übereinstimmen. Dazu wurde mit Hilfe der Störkörpermessmethode über die Phasenverschiebung die elektrische Feldverteilung einer IH-Struktur bestimmt (unter Variation der Tunerhöhe). Die Feldverteilung von Simulation und Messung sind im Kurvenverlauf gleich, allerdings ist die Stärke der Simulationsfelder um einen Faktor 1,1 – 1,2 größer...
Im Jahr 1960 gelang es Theodore Mainman einen funktionierenden Laser zu bauen. Die Entwicklung dieser Technik war seitdem rasant. Im Alltag ist der LASER heute genausowenig wegzudenken wie in weiten Teilen der Forschung und Medizin. Er findet Anwendung in der Datentechnik (z.B. bei CDs und DVDs), hilft, Augenschäden zu heilen und hat natürlich auch weitreichende Bedeutung in der Physik. Besonders ultrakurze Pulse und hohe Energiedichten werden hierbei benötigt. Um hohe Energiedichten zu erreichen, müssen oft Verstärker (englisch: amplifier) benutzt werden. Häufig verwendet wird hierbei ein Aufbau, bestehend aus einem Stretcher, der schon bestehende Pulse zeitlich streckt, um Beschädigungen an optischen Geräten zu vermeiden, einem verstärkenden Medium, in dem der Puls durch stimulierte Emission verstärkt wird, und einem anschließenden Kompressor, der den Puls zeitlich wieder komprimiert. Hierbei kann man aber nur einen bestehenden Puls verstärken und nicht die zentrale Wellenlänge ändern. Gerade diese Art Verstärker wird jedoch in vielen Bereichen benötigt, in denen man infrarotes Licht mit durchstimmbarer Wellenlänge haben möchte. Eine Möglichkeit, dies zu erreichen, stellt der optisch-parametrische Verstärker dar. Eben dieser wird in der folgenden Arbeit behandelt und näher beschrieben.
Nach Abschluss meiner Untersuchungen, kann man sagen, dass die galvanische Einkopplung die eleganteste und wohl sinnvollste für den Kicker im FRANZ-Projekt ist, da man mit ihr perfekt kritische Einkopplung erreicht und sie relativ einfach zu realisieren ist, indem man die Zuleitung direkt an die Stützen lötet. Da die Zuleitung nur relativ kurz ist und Außerhalb der Spule verläuft verändert sie die Eigenschaften des Kickers nicht wesentlich. Die induktive Einkopplung eignet sich zwar auch sehr gut um die kritische Ankopplung zu erreichen, allerdings stellt die Indutktionsschleife eine zusätzliche Induktivität dar. Ebenso verhält es sich mit der kapazitiven Einkopplung. Der Einkoppelstift stellt eine zusätzliche Kapazität dar, welche die Eigenschaften des Kickers verändert.
Zu den Störkörpermessungen ist zu sagen, dass das Elektromagnetische Feld, dass ich vermessen habe, gut mit der Simulation aus [2] übereinstimmt. Die verschiedenen Einkopplungsverfahren haben keinen Einfluss auf die Feldverteilung, d.h. für die Feldverteilung ist es egal ob man kapazitiv, induktiv oder galvanisch einkoppelt. Der Peak, der am Anfang des Kondensators immer wieder auftritt lässt sich dadurch begründen, dass der Störkörper nicht auf einer geraden Linie durch das Modell gezogen wurde (siehe Abbildung 15. Aufgrund der Geometrie der Endplatten wurde der Störkörper leicht schräg durch das Modell und den Kondensator gezogen. Dadurch kommt der Störkörper am Anfang des Kondensators sehr nahe an ihn heran. Wenn der Störkörper nun zu nahe an der Metalloberfläche vorbeiläuft gilt die normale Störkörpertheorie nicht mehr und es treten Oberflächenladungseffekte auf, die die Phasenverschiebung beeinflussen. Somit erhält man am Anfang des Kondensators mehr Phasenverschiebung als in der Mitte des Kondensators.
Wir haben uns in dieser Arbeit der Frage nach der Dissipation in niederenergetischen Schwerionenkollisionen gewidmet. Dissipation im Allgemeinen hat ihre Ursache in direkten Teilchenkollisionen, die in der Methode von TDHF bezüglich der Nukleonen fehlen. Im VUU-Modell sind sie dagegen ein zentraler Bestandteil der Zeitentwicklung und spielen bei mittleren und hohen Energien eine wichtige Rolle.
Mithilfe des VUU-Modells wurde deshalb versucht einen Einfluss der Nukleon-Nukleon-Kollsionen auf den Impulsstrom festzustellen, der an der Verbindungsstelle in der Reaktion 16O + 132Sn mit b = 7 fm und Ecm = 100 vorliegt. Dabei variierten wir den NN-Wirkungsquerschnitt im Kollisionsterm der VUU-Gleichung mit der Erwartung, dass eine daraus resultierende Verminderung bzw. Erhöhung der Stoßrate Auswirkungen auf die Geschwindigkeitsverteilungen der Materie zeigt. Ein positives Ergebnis hätte den Schluss nahegelegt, dass die mittlere freie Weglände und damit die Viskosität von Kernmaterie in Schwerionenkollisionen zu berücksichtigen ist.
Im Verlauf unserer Analyse haben wir festgestellt, dass die von uns verwendeten Methoden nicht zu den gewünschten Ergebnissen führten, z.T. auch weil die Kerne in den VUU-Rechnungen Instabilität aufwiesen und so die relevante Reaktionszeit einschgeschränkt wurde. Wir konnten einen Einfluss von direkten Teilchenkollisionen auf den Impulsstrom zwischen den Kernen des obigen Systems nicht verifizieren. Zusätzliche Simulationen an 12C + 12C mit b = 0 fm haben dann gezeigt, dass offenbar der allergrößte Teil der Nukleon-Nukleon-Kollisionen aufgrund des Pauli-Prinzips blockiert wird. Aus diesem Grund ziehen wir die Möglichkeit in Betracht, dass die starke Präsenz des Pauli-Prinzips im niederenergetischen Bereich die Stoßrate nicht nur maßgeblich reduziert, sondern damit direkte Stöße insgesamt kaum Einfluss auf den Impulsstrom und die Dissipation haben könnten. Die Dissipation ist demnach hauptsächlich auf einen Austausch üuber die Verbindungsstelle zweier Kerne zurückzuführen, was in weiterführender Literatur unter dem Stichwort window formula bekannt ist.
Weitere Untersuchungen in diese Richtung sind wünschenwert. Insbesondere ist es erforderlich das angesprochene Zeitproblem zu lösen, um eventuell die Stoßrate zu erhöhen. Dann könnte ein möglicher Einfluss auf den Impulsstrom wesentlich länger und detaillierter studiert werden. Es bietet sich zudem an, das benutzte Auswerteprogramme vuudens so abzuändern, dass z.B. ein feineres Gitter benutzt werden kann, auf dem die Dichten berechnet werden. Das so gesteigerte Auflösungsvermögen würde sicherlich die
Unzulänglichkeiten der in dieser Arbeit verwendeten Methoden reduzieren. Bei weiterem und tieferem Studium der besprochenen Prozesse könnte es natürlich sein, dass bessere Ansätze zur Analyse gefunden werden. Dies wäre in jedem Fall zu begrüßen.
Im Rahmen der Bachelorarbeit wurden verschiedene Messungen am CH-Modell des Protonen - Linearbeschleunigers für FAIR durchgeführt.
Zu Beginn wurde die Wirkung der Tuner auf das elektrische Feld im Resonator und die Frequenz untersucht. Aus den systematischen Messungen konnte man feststellen, wie die Tuner das elektrische Feld beeinflussen. Außerdem konnte man sehen, dass die Tuner zu einer Erhöhung der Frequenz führen, was auch durch den theoretischen Hintergrund erwartet wurde. Aus den so gewonnenen Erkenntnissen konnte nun versucht werden, die Spaltspannungen an eine Vorgabe aus LORASR anzupassen. Dies nahm den Hauptteil der Bachelorarbeit ein. Die Anpassung konnte durch Variation der Tuner und der Spaltlängen erreicht werden. Die Abweichungen zur LORASR - Vorgabe lagen alle, bis auf einen Wert, im vorgegebenen Bereich. Allerdings waren die Messungen nicht perfekt reproduzierbar, da es bei der Störkörpermessung zu Fehlern kam. Der Motor, der den Störkörper durch die CH-Struktur ziehen sollte, war in diesem Zeitraum defekt, wodurch sich die gemessenen Spaltspannungen etwas veränderten.
Weiterhin wurde noch eine Sensibilitätsuntersuchung bei Erwärmung des Niederenergieteils des Resonators und eine Modenuntersuchung durchgeführt.
Durch die Erwärmung des Niederenergieteils konnte man sehen, dass das Feld im Inneren des Resonators auf Temperaturunterschiede reagiert. Dies hat aber keinen Einfluss auf die Betriebsfähigkeit des Resonators, da die zu erwartenden Einflüsse auf den Resonator im Betrieb sehr gering sind. Die Modenuntersuchung hat die vorherigen Annahmen bestätigt. Die Hochfrequenzleistung wird über die Linse hinweg störungsfrei weitergegeben und die ersten 4 Moden schwingen alle in dem Modell an und sind messbar, wenn man außen in den Tanks einkoppelt.
Der Karlsruhe 4π-Bariumfluorid-Detektor, entwickelt und aufgebaut Ende der Achtzigerjahre am Forschungszentrum Karlsruhe, ist ein effizienter Detektor für Gammastrahlung und bietet vielfältige Einsatzmöglichkeiten für kernphysikalische Experimente. Insbesondere für Experimente der nuklearen Astrophysik ist er geeignet, aber auch für die Forschung zur Entwicklung neutronengetriebener Reaktoren, zum Beispiel zur Transmutation radioaktiver Abfälle. Derzeit befindet sich der Detektor an der Goethe-Universität Frankfurt, wo er mit der sich dort in Entwicklung befindenden FRANZ-Neutronenquelle eingesetzt werden soll. Diese ermöglicht zum Beispiel Messungen von Wirkungsquerschnitten für den s-Prozess in astrophysikalisch relevanten Energiebereichen und bei hohen Intensitäten.
Diese Arbeit behandelt astrophysikalische Möglichkeiten die der Detektor bietet sowie dessen allgemeinen Aufbau und Eigenschaften. Es wurden eine Funktionsprüfung des Detektors, Messungen der Zeit- und Energieauflösung, Energiekalibration sowie kleine Optimierungen und Reparaturen durchgeführt.
In der LEBT-Sektion der Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) befinden sich zur transversalen Fokussierung des Ionenstrahls vier Solenoide. Die ersten beiden dienen dem Einschuss in das ExB-Choppersystem, die letzten beiden dem Einschuss in die erste Beschleunigerstruktur, den Radiofrequenzquadrupol (RFQ). In numerischen Transportsimulationen konnte gezeigt werden, dass insbesondere der erste Solenoid einen hohen Füllgrad aufweisen wird, was zu Strahlaberrationen und damit zu einer unerwünschten Erhöhung der Strahlemittanz führen kann.
Um diesen Effekt zu untersuchen, wurden die Fokussier- und Abbildungseigenschaften des ersten FRANZ-Solenoides analysiert. Analytische Rechnung unter Verwendung der Twissparametertransformation wurden durchgeführt, numerische Simulationen mit einem idealisiertem und einem realistischem Magnetfeldverlauf gemacht und 2 Messaufbauten mit einer Volumenquelle, dem Solenoid und einer Schlitz-Gitter-Emittanzmessanlage realisiert, um gemessene mit analytischen und numerischen Daten vergleichen zu können. Die Parameter, die ausgewertet und verglichen wurden, sind die Lage der Emittanzellipse, die Emittanz im x-x'-Phasenraum und die normierten vierten Momente (Wölbung) im Ortsraum.
Neutroneneinfangquerschnitte werden häufig mithilfe der Aktivierungsmethode bestimmt. Hierbei wird die zu untersuchende Probe mit Neutronen der gew¨unschten Energie bestrahlt und danach in einem untergrundoptimierten Labor ausgezählt. Am Institut für Angewandte Physik der Goethe Universität Frankfurt wurde ein solcher Aufbau realisiert. Er besteht aus zwei Clover Detektoren, die gegenüberliegend in enger Geometrie angeordnet sind. Die aktivierte Probe wird mittels spezieller Probenhalter reproduzierbar und zentriert zwischen den Detektoren platziert. Die Clover Detektoren sind mit passiven Schilden (Pb) und einer aktiven Abschirmung (BGO) umgeben. Die unterschiedlichen Abschirmungen wirken sich in verschieden Energiebereichen jeweils anders aus.
Diese Arbeit befasst sich mit der astrophysikalischen Motivation und dem Aufbau, mit dem später die Ausbeute einer neutronenaktivierten Probe bestimmt werden kann. Außerdem werden die Ergebnisse der verschiedenen Untergrundmessungen miteinander verglichen.
Im Rahmen dieser Arbeit wird ein Gammaspektroskopie-Aufbau unter Verwendung eines HPGe-Clover-Detektors zur Nutzung in Aktivierungsexperimenten charakterisiert und untersucht. Die für präzise Aktivitätsmessungen nach einer Aktivierung nötigen Effizienzen werden mit Hilfe der Eichquellen 60Co und 22Na unter Nutzung verschiedener Modi des Clover-Detektors abstandsabhängig errechnet. „Listmode“-Daten ermöglichen dabei eine „offline“-Verarbeitung. Begleitet werden die Messungen von aufwändigen Monte-Carlo-Simulationen in Geant4. Parallele Auswertungsmethoden erlauben einen genauen Vergleich zwischen simulierten und experimentellen Ergebnissen.
Die vorliegende Arbeit beschäftigt sich mit optischen und elektrischen Untersuchungen an einer koaxial aufgebauten Lorentz-Drift-Geometrie. So wurden Messungen an der Lorentz-Drift-Sputterquelle bezüglich der Durchbruchspannung durchgeführt. Es hat sich gezeigt, dass das Verhalten der Durchbruchspannung in Abhängigkeit vom Druck trotz der koaxialen Elektrodengeometrie vergleichbar mit der Paschenkurve fur eine planparallele Anordnung ist.
Zur Untersuchung des Sputterverhaltens wurden zunächst einige Kurzzeitaufnahmen mit einer Belichtungszeit im Mikrosekundenbereich durchgefuhrt, um so die Ausbreitung der Plasmawolke zu betrachten. Bei einem Durchbruch führt der Stromfluss zu einem Magnetfeld, sodass ein Lorentz-Drift entsteht. Durch die resultierende Kraft wird das Plasma beschleunigt.
Es zeigt sich, dass sich die Plasmawolke mit zunehmender Zeit bzw. zunehmendem Abstand von den Elektroden homogener im Rezipient verteilt. Da durch die Ausbreitung der Plasmafront auch ausgelöstes Elektrodenmaterial zu einem entsprechend platzierten Substrat beschleunigt wird, lagert sich dort eine dünne Schicht an.
Die Ablagerungen am Substrat wurden bei verschiedenen Drucken und verschiedenen Abständen zu den Elektroden betrachtet. Erste Messungen zeigen, dass die Schichten mit größerem Abstand homogener werden und besser am Substrat haften bleiben, jedoch die Schichtdicke geringer wird. Bei geringem Abstand lagern sich vergleichsweise dicke Schichten an, die jedoch sehr inhomogen und instabil sind. Durch Optimierung sollte es aber möglich sein, einen gewünschten Kompromiss aus Schichtdicke, Stabilität und Homogenität zu finden.
Bei niedrigeren Drucken und somit hohen Durchbruchspannungen kommt es aufgrund der höheren Stromdichte zu stärkeren Lorentz-Drifts, sodass die Teilchenenergien im Plasma steigen und es zu dickeren Ablagerungen kommt.
Die Schlussfolgerung dieser Arbeit ist, dass die Beschichtung durch eine Lorentz-Drift-Geometrie prinzipiell möglich ist. Es konnten bisher qualitative Messungen durchgeführt werden, die jedoch noch quantitativ verifiziert werden sollten.
Ziel der Bachelorarbeit war es, einen Versuch für das Fortgeschrittenen-Praktikum des Instituts für Kernphysik zu konzipieren, der es ermöglicht, die Lebensdauer von aus der kosmischen Strahlung entstandenen Myonen zu bestimmen.
Dazu wurden vorhandene Komponenten auf ihre Gebrauchstauglichkeit getestet und untersucht, insbesondere in Bezug auf die Größe der Szintillatoren, ob der für einen Praktikumsversuch zeitlich gegebene Rahmen eingehalten werden kann.
Es ergaben sich einige mechanische Probleme, insbesondere bei der Verbindung der neuen, größeren Szintillatoren mit den Photomultipliern, die angegangen wurden. Die zuerst getestete Methode stellte sich jedoch als uneffektiv heraus, sodass die endgültige Lösung mit Hilfe einer neuen, computergesteuerten Fräsmaschine der Feinmechanik-Werkstatt erreicht werden soll.
Um die entstandenen Daten zu verarbeiten, wurde ein entsprechendes Programm in LabVIEW entwickelt, das die am TDC abgegriffenen Daten auf ihre Relevanz untersucht und die Ergebnisse in eine Textdatei schreibt. Das LabVIEW Front Panel wurde dabei so gestaltet, dass es den Praktikanten alle wichtigen Daten in graphisch anschaulicher Weise liefert.
Die Daten aus der Textdatei werden dann mit Hilfe eines ROOT Makros mit zwei verschiedenen Exponentialfunktionen gefittet.
In ersten Messungen ergibt sich ein Wert für die Lebensdauer der Myonen, der erstaunlich nahe am Literaturwert liegt.
Die vorliegende Arbeit beschäftigt sich mit der Energiekalibration und der Effizienz zweier Niederenergie-Germaniumdetektoren, deren Energieauflösungen hier ebenfalls bestimmt werden. Die Untersuchungen werden an den γ-Spektren von 109Cd, 54Mn, 137Cs, 57Co, 133Ba, 60Co und 22Na in zwei verschiedenen Verstärkungseinstellungen vorgenommen, wobei der Abstand der Eichquellen zu dem Detektor variiert wird, um zussätzlich die Abhänngigkeit der Effizienz vom Raumwinkel sowie den Einfluss von Summeneffekten zu untersuchen. Einige der Eichquellen weisen in ihren Spektren γ-Zerfallskaskaden auf, die sich negativ auf die Bestimmung der Detektoreffizienz auswirken und somit als Eichquellen nicht optimal sind. Zusätzlich erfolgt dann ein Vergleich der Effizienzeichungen mit einer Monte-Carlo-Simulation.
Ein zentraler Bestandteil der Teilchenphysik ist die Berechnung der Zerfallsbreiten bzw. Lebensdauern von Teilchen. Die meisten bekannten Teilchen sind instabil und zerfallen in zwei oder mehr leichtere Teilchen. Die Formel für die Berechnung einer Zerfallsbreite enthält zwei verschiedene Komponenten: Die kinematischen Faktoren, die lediglich vom Anfangs- und Endzustand abhängen und aus der Energie- und Impulserhaltung folgen, und die dynamischen Faktoren, die sich aus der Art der Wechselwirkung und eventuellen Zwischenstufen ergeben. Gibt es mehrere Zerfallskanäle, die zu den gleichen Endzuständen führen, so unterscheiden diese sich nur in den dynamischen Faktoren. Aus diesem Grunde werden kinematische und dynamische Faktoren getrennt, da nur letztere für die Analyse der Wechselwirkung relevant sind.
Die kinematischen Faktoren von Zwei- und Dreikörperzerfällen haben einen fundamentalen Unterschied: Beim Zweikörperzerfall ist durch die Erhaltungssätze die Verteilung der Energien der Produktteilchen komplett festgelegt, während sie bei einem Dreikörperzerfall innerhalb bestimmter Grenzen variieren kann.
Ein Dreikörperzerfall kann auf zwei verschiedeneWeisen auftreten: Bei einem direkten Zerfall entstehen gleichzeitig alle drei Endprodukte. Bei einem indirekten Zerfall zerfällt das Startteilchen zuerst in zwei Teilchen, von denen eines stabil ist und das andere erneut zerfällt. Im Falle des indirekten Zerfalls haben die resultierenden Teilchen eine andere Impulsverteilung als bei einem direkten Zerfall, woraus sich Informationen über den Zwischenzustand gewinnen lassen.
Im ersten Kapitel dieser Arbeit widmen wir uns der expliziten Berechnung der Zerfallsbreite für die verschiedenen Fälle. Wir beschränken uns hier und in allen weiteren Rechnungen auf skalare und pseudoskalare Teilchen, bei denen keine Spineffekte auftreten.
Die Zerfallsbreite eines Dreikörperzerfalls lässt sich in einer besonders praktischen Form, dem sogenannten Dalitz-Plot, darstellen. Hierbei sind alle kinematischen Faktoren konstant und eine Darstellung der Zerfallsbreite in Abhängigkeit der entsprechenden Variablen lässt direkten Aufschluss über die Art der Wechselwirkung zu. Die Form eines Dalitz-Plots sowie dessen Interpretation ist Gegenstand des zweiten Kapitels.
Im dritten Kapitel beschäftigen wir uns kurz mit der Frage, welche Auswirkungen Prozesse höherer Ordnung auf den gesamten Zerfall haben. Hierbei beschränken wir uns auf die Betrachtung von Loopbeiträgen des Zwischenzustandes eines indirekten Zerfalls.
Im letzten Kapitel werden wir die theoretischen Betrachtungen am Zerfall eines pseudoskalaren Glueballs anwenden. Ein Glueball ist ein gebundener Zustand aus Gluonen, den Austauschteilchen der starken Wechselwirkung. Da die Gluonen aufgrund der nichtabelschen Struktur der Farbsymmetriegruppe selbst Farbladung tragen, ist es theoretisch möglich, Zustände nur aus Gluonen zu konstruieren, die farbneutral sind und damit den Regeln des Confinements entsprechen. Im Falle der betrachteten Glueballs tritt ein weiterer interessanter Effekt auf: Da es mehrere Zerfallskanäle gibt, die zum gleichen Endzustand führen, treten Interferenzeffekte auf, deren Auswirkung auf das Gesamtergebnis näher untersucht wird.
In dieser Arbeit wurde der Entwurf eines Rebunchers für die Ionenstrahltherapieanlage MedAustron mit Hilfe des Simulationsprogramms Microwave Studio entwickelt. Es wurde ein neues Design in Anlehnung an einen Spiralresonator gewählt, wobei der Spiralarm aus einem wassergekühlten induktiven Teil und einem aus massivem Kupfer gefertigten kapazitiven Teil besteht.
Die Frequenz der ersten Eigenmode liegt zwischen 217,8 MHz (ohne Keramik) und 217,3 MHz (mit Keramik). In der Realität könnte die Frequenz von diesem Wert etwas abweichen (bis zu 0,5 MHz), da einerseits Details wie Ein- und Auskopplung und andererseits reale Effekte wie Oberflächenverunreinigung oder kleinste Abweichungen in der Geometrie in Microwave Studio nicht berücksichtigt werden können. Außerdem wird die Genauigkeit der Simulationen durch die Anzahl Gitterpunkte limitiert. Um diese Eekte kompensieren zu können, wurden die Auswirkungen eines Tuners auf die Frequenz untersucht. Hierbei ergab sich für eine Tunerhöhe von 40 mm eine Frequenzveränderung von 220 kHz, bei 70 mm sind es schon 1,224 MHz.
Da sich bei dieser Frequenz und Geometrie ein Laufzeitfaktor von nur 0,66 auf der Strahlachse ergibt und die Spannung dort zusätzlich um den Faktor 0,983 niedriger ist als am Spaltrand, muss bei einer effektiven Shuntimpedanz von 13,4 M Ω/m eine Leistung von 2,46 kW aufgebracht werden. Nähere Untersuchungen der elektrischen Felder fürten zu dem Ergebnis, dass der Grund für den niedrigen Laufzeitfaktor dynamische Eekte sein müssen. Die "statischen Felder" verhalten sich wie erwartet.
Aber auch die reale Shuntimpedanz und somit auch die reale Verlustleistung können beträchtlich von den berechneten Werten abweichen. Es wird erwartet, dass die Shuntimpedanz im ungünstigsten Fall nur 60% der simulierten Impedanz beträgt, weswegen man mit einer Verlustleistung von 4,09 KW rechnen muss.
Der Rebuncher soll zusammen mit der Beschleunigeranlage in Österreich im Jahr 2013 in Betrieb gehen, aber bereits in 2012 zu Strahlexperimenten am CERN zur Verfügung stehen.
Der für diese Arbeit entwickelte Prototyp zur Neutronenproduktion hat sich bereits während der ersten Tests bewährt, womit schnell festgestellt wurde, dass sich das Grunddesign des Prototypen für die späteren Experimente am FRANZ eignet. Wie man gesehen hat, entstand die verwendete Revision in mehreren Schritten, da immer wieder aus gemachten Planungsfehlern gelernt werden musste. Zusätzlich gab es bei der Planung mehrere Beschränkungen, die beachtet werden mussten, dazu zählt unter anderem die Form des Prototypen, um ohne Probleme den Bedampfungstand des FZK verwenden zu können.
Das neue Kühlsystem verlangte während der Planung besonderer Aufmerksamkeit. Bei Experimenten wie am IRMM oder FZK kann aufgrund der geringen Leistung des Beschleunigers mit einer Luftkühlung oder einfachen Wasserkühlung gearbeitet werden. Diese Arten der Kühlung beeinflussen den Neutronenfluss nicht. Bei FRANZ muss aufgrund der im Vergleich zu den vorher genannten Experimenten viel höheren Leistung von 4 kW, ein gänzlich neuer Kühlungsansatz verwendet werden. Um die Leistung vom Target abzuführen, muss nun ein viel größerer Bereich gekühlt werden, um die entstehenden Temperaturen unter Kontrolle zu halten. Auch das Vorhersagen der entstehenden Temperaturen war nur unter Annahme mehrerer Parameter möglich. Durch die komplexe Struktur des Prototypen stieß die Berechnung des Temperaturprofis mit einfachen analytischen Mitteln schnell an ihre Grenzen. Aus diesem Grund wurden für diese Arbeit jeweils nach der Einführung der Wärmeleitung vereinfachte Annahmen gemacht, um dennoch Berechnungen durchführen zu können. Dass dies nicht immer zu exakten Ergebnissen führt, wurde während des Prozesses mehrfach festgestellt. Dennoch konnten so die Größenordnungen der Temperaturen bestimmt werden, was letztlich zur Auslegung des Kühlsystems beitrug.
Die Lösung, für die sich entschieden wurde, war die Kühlung der Rückseite des Target mit Wasser. Der große Nachteil dieser neuen, aber notwendigen Kühllösung, sind die Materialien, die nun den Neutronenfluss aus der Li(p,n) Reaktion beeinflussen. Wichtig war es eine Balance zwischen Schichtdicken von Kupfer und Wasser, die für die mechanische und thermische Stabilität notwendig waren, und der Qualität des erhaltenen Spektrums zu finden. Hierfür wurden zahlreiche Simulationen mit GEANT 3 angefertigt, um die Einflüsse beider Stoffe abschätzen zu können, wobei sich schließlich herausstellte, dass die Schichtdicke von Wasser die Neutronen am meisten beeinflusst. Da Wasser stark moderierend auf Neutronen wirkt, stellte man fest, dass man bei Experimenten vor allem hochenergetische Neutronen verliert. Konsequenz war die strikte Kontrolle der Wasserdicke.
Phänomenologie der Pseudovektormesonen und Mischung mit Axialvektormesonen im kaonischen Sektor
(2012)
Ziel dieser Bachelorarbeit war die Vorstellung und die Untersuchung eines effektiven, mesonischen Drei-Flavor-Modells der Quantenchromodynamik und dessen Phänomenologie. Dazu wurden zunächst die Kopplungskonstanten a und b des Modells durch die Berechnung dominanter Zerfallsbreiten der im Modell enthaltenen Axialvektor- und Pseudovektor-Mesonen festgelegt. Dabei wurde für die Festlegung der Kopplungskonstanten a der Zerfall von f1 (1420) in KK*(892) verwendet. Die so berechnete Kopplungskonstante wurde anschließend unter Verwendung des ρπ-Zerfalls von a1 (1260) auf Konsistenz geprüft. Das dadurch erhaltene Resultat von Γa1--> ρπ= (443:962 ± 13:456) MeV liegt sehr gut in dem von der particle data group angegebenen Wertebereich der Gesamtbreite von a1 (1260). Die Festlegung und Berechnung der Kopplungskonstante b des Pseudovektor-Sektors war Gegenstand der Bachelorarbeit von Lisa Olbrich, so dass in dieser Arbeit nur die Resultate dieser Rechnung präsentiert wurden. Jedoch passen die dort erzielten Resultate auch mit guter Genauigkeit zu den experimentell bestimmten Werten der particle data group.
Das zweite Ziel dieser Bachelorarbeit war die Untersuchung der im Modell enthaltenen Mischungseffekte der Kaonen-Felder von K1 (1270) und K1 (1400). Zunächst waren im Axialvektor- und Pseudovektor-Nonet dieses Modells nur unphysikalische Kaonen-Felder K1;A und K1;B enthalten. Durch den Mischungsterm Lmix der Lagrange-Dichte des Modells existieren allerdings Mischterme beider Felder. Diese Mischterme wurden durch die Einführung der physikalischen Felder K1 (1270) und K1 (1400), welche durch eine SU(2)-Drehung aus den unphysikalischen Feldern hervorgehen, zum Verschwinden gebracht. Dies hat allerdings zur Folge, dass die Wechselwirkungsterme der physikalischen Felder K1 (1270) und K1 (1400) nun über eine gedrehte Kopplungskonstante koppeln. Diese gedrehte Kopplungskonstante ist eine Funktion der ursprünglich bestimmten Kopplungskonstanten a; b und eines Mischwinkels Φ. Dieser Mischungswinkel wurde von uns über den K? (892) π-Zerfall von K1 (1270) festgelegt. Anschließend konnten wir unter Verwendung des so berechneten Mischungswinkels Φ die Zerfallsbreite von K1 (1400) berechnen und mit den experimentell festgelegten Daten der particle data group vergleichen. Auch hier konnten wir eine gute Übereinstimmung unserer durch das Modell vorhergesagten Daten mit den experimentell bestimmten Werten erzielen.
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
In der Atom- und Molekülphysik werden häufig Multichannelplate Detektoren mit Delay-Line-Auslese eingesetzt. Um eine große Präzision und eine hohe Reaktionsrate zu erhalten, ist es wichtig, dass alle Daten genau analysiert werden können. Die aktuelle Methode der Datenanalyse stößt dabei auf Probleme, wenn mehrere Teilchen kurz hintereinander auf den Detektor treffen. In dieser Arbeit wird versucht, ein neuronales Netz so zu trainieren, dass es eine bessere Datenanalyse liefert. Hierzu wird im ersten Kapitel der Detektoraufbau beschrieben, um zu verstehen, woher die einzelnen Signale kommen und wie sie zu interpretieren sind. Im zweiten Kapitel wird dann die Theorie vorgestellt, auf der neuronale Netze basieren. Das dritte Kapitel gibt einen kurzen Überblick über die benutzte Technik. Im vierten und fünften Kapitel werden die Ergebnisse dieser Arbeit vorgestellt. Im abschließenden sechsten Kapitel werden die Ergebnisse zusammengefasst und ein Ausblick auf weitere mögliche Projekte gegeben.
Entwicklung und Untersuchung verschiedener Elektrodenkonfigurationen eines gepulsten Plasmajets
(2012)
Im Rahmen dieser Arbeit wurden zwei verschiedene Zerfallsprozesse behandelt. Zunächst wurde im Rahmen des erweiterten Linearen Sigma-Modells die Antwort auf die Frage gesucht, welches Teilchen als chiraler Partner des Nukleons in Frage kommt. Dazu wurde der Zerfall des chiralen Partners in ein Nukleon und ein skalares Teilchen betrachtet. Das skalare Teilchen wurde mit dem Tetraquark-Zustand f0(600) identifiziert. In Augenschein genommen wurden die Resonanzen N(1535) und N(1640). Aufgrund der berechneten Zerfallsbreiten erkannte man im Falle von N(1650) eine größere Übereinstimmung mit den experimentellen Werten. Die Zerfallsbreite von 45.91 MeV liegt in der Größenordnung des im Particle Data Book verzeichneten Intervalls. Der Wert, den man bei Verwendung von N(1535) als Ausgangsteilchen erhielt, ist allerdings gegenüber der Vorhersage zu groß.
Ein nächster Schritt im Studium dieses Sachverhalts stellt das erweiterte Misch-Szenario dar. Es beinhaltet nicht nur zwei, sondern vier Spinoren. Zwei davon beschreiben Nukleon-Resonanzen, zwei sind mögliche chirale Partner. Da die Zustände mischen, wird der chirale Partner nicht eindeutig durch ein, sondern durch zwei Resonanzen repräsentiert. Weiterhin steht die eingehende Betrachtung des Ursprungs von m0 aus. Dazu muss außer derWechselwirkung mit dem Tetraquark-Zustand auch die Wechselwirkung eines Glueballs mit den beteiligten Hadronen berücksichtigt werden. Dadurch erhält die Masse von m0 einen Anteil, der aus dem Glueball-Kondensat stammt. Dies muss beim Rückschluss auf die Nukleonmasse beachtet werden.
Als nächstes wurde der Zerfall des pseudoskalaren Glueballs in zwei Nukleonen betrachtet. Da die Kopplungskonstante dieses Zerfalls noch nicht experimentell bestimmt wurde, wurde ein Verhältnis zwischen zwei Zerfallskanälen berechnet. Es zeigte sich, dass der Zerfall in zwei Nukleonen fast doppelt so wahrscheinlich ist wie der Zerfall in Nukleon und chiralen Partner, der an der Energieschwelle liegt. Die Berechnung wurde mit einem Teilchen der Masse 2.6 GeV als Glueball durchgeführt. Die Untersuchung derart schwerer Glueballs wird in naher Zukunft erstmalig im Rahmen des PANDA-Experiments der GSI möglich sein.
Zukünftige Studien sollten die Beteiligung des Glueballs an gemischten Zuständen berücksichtigen. Außerdem sollte ein möglicher skalarer Glueball in die Betrachtung miteinbezogen werden.
Die vorliegende Arbeit befasst sich mit der Hochfrequenzabstimmung und den Feldoptimierungen zweier Linearbeschleunigerstrukturen für eine in der Entwicklung befindliche Forschungsanlage an der Goethe-Universität in Frankfurt am Main. Ein 4-Rod-RFQ sowie ein IH-Driftröhrenbeschleuniger sollen gekoppelt betrieben, d.h. nicht wie üblich von zwei, sondern nur von einem Hochfrequenz-Sender mit Leistung versorgt werden. Hierdurch lässt sich nicht nur der benötigte Platz reduzieren, sondern auch ein beträchtlicher Teil der Kosten des Projekts einsparen. Um das Verhalten der gekoppelten Beschleuniger genauer vorhersagen zu können, wurden Untersuchungen an bereits gebauten Modellen im Maßstab 1:2 durchgeführt und diese vermessen. Eine Methode zur systematischen Anpassung der Feldverteilung in 4-Rod-RFQs wurde darüber hinaus am einzeln betriebenen RFD-Modell angewandt und optimiert, sowie ein Algorithmus zur Automatisierung entwickelt. Parallel laufende Computersimulationen ermöglichten Vergleiche zu den realen Messwerten. Darüberhinaus konnten Rückschlüsse auf die Genauigkeit der Simulationen am Computermodell gezogen und hier liegende Herausforderungen, auch in Bezug auf die bei FRANZ zum Einsatz kommenden Beschleunigerstrukturen, näher untersucht werden. Hieraus resultierende Empfehlungen für das Design der FRANZ-IH-Struktur konnten gegeben werden und wurden bereits umgesetzt.
An der Goethe Universität in Frankfurt wird ein Konzept für ein magnetostatischen Hochstromspeicherring für Protonen- und Ionenstrahlen entwickelt und untersucht. Zur Zeit stehen dem Experiment zwei Toroidsegmente und eine Volumenionenquelle zur Verfügung. An diesem Aufbau werden Experimente mit dem Ziel die Strahldynamik zu untersuchen und die Strahldiagnose in toroidalen Magnetfeldern zu entwickeln, durchgeführt [Joshi] Für Experimente ist eine Strahldiagnose entlang der starken toroidalen Magnetfelder bis maximal 0, 6T nötig. Dabei sind die zur Verfügung stehenden Strahldiagnoseverfahren zum Einen ein Faraday-Cup und zum Anderen ein entlang des kompletten Aufbaus beweglicher Szintillatordetektor. Der Szintillatordetektor, besteht aus einem Phosphorschirm und einer Kamera, die hinter dem Schirm angebracht ist. [Nonn] Aufgrund der geschlossenen Ringgeometrie und dem Anspruch auf eine hohe Flexibilität des Detektors ist die Konstruktion eines neuen von starken Magnetfeldern unbeeinflussbaren und sehr kompakten Detektors notwendig. Ziel dieser Arbeit ist es, ein allgemeines Strahldiagnoseverfahren zu entwickeln.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
In dieser Arbeit wurden Simulationen des γ-Prozesses zu den vier p-Kernen 92;94Mo und 96;98Ru durchgeführt. Die Simulationen wurden mit den Simulationen aus [Rapp et al., 2006] verglichen, und die Ergebnisse waren bis auf wenige Ausnahmen die gleichen.
Die Untersuchung der Sensitivitäten auf insgesamt 38 geänderte Raten hat einige besonders wichtige Raten für jedes der Isotope identifiziert. Es stellte sich heraus, dass die Isotope jeweils auf eine destruktive Rate besonders sensitiv sind. Bei 92Mo war dies die 92Mo(γ,p) Rate, bei 94 die 94Mo(γ,n) Rate, bei 96Ru die 96Ru(γ,α) Rate und bei 98Ru die Destruktion über 98Ru(γ,n).
Diese Raten sind nur theoretisch bestimmt, haben aber großen Einfluss auf die Häufigkeiten der untersuchten Isotope. Experimentelle Untersuchungen dieser Raten sind nötig, um ein besseres Verständnis des γ-Prozesses in dieser Massenregion zu erlangen.
Leider konnten schon exisitierende neuere Untersuchungen im Rahmen dieser Arbeit nicht berücksichtigt werden, beispielsweise [Utsunomiya et al., 2013]. In zukünftigen Simulationen sollten diese Untersuchungen berücksichtigt werden. Außerdem sollten die Simulationen Neutroneneinfänge untersuchen, da diese vermutlich auch zur Produktion von 94Mo und 98Ru beitragen.
Ein Problem in dieser Arbeit war die Rekonstruktion der Reaktionsflüsse aus Raten und Häufigkeiten, in Zukunft sollten die Reaktionsflüsse direkt mitgeschrieben werden.
Die Unsicherheiten der Raten reichen nicht aus, um die Unterproduktion von 92;94Mo und 96;98Ru erklären. Zur Verdeutlichung dieser Tatsache befinden sich im Anhang A.15 Abbildungen der Überproduktionsfaktoren mit den geänderten Raten 92Mo(γ,p)x0.5 und 98Ru(γ,n)x0.5, also den beiden Raten, die eine Sensitivität größer eins aufweisen. Trotz der geänderten Raten werden 92Mo und 98Ru um mehr als einen Faktor 10 unterproduziert. Wenn man annehmen würde, dass die Sensitivität linear verläuft und eins beträgt, würde selbst die Reduktion der Raten auf Null nur eine Verdopplung der Häufigkeit bewirken. In der Realität wird sich die Sensitivität noch verringern, wenn andere Desintegrationsprozesse dominant werden. Es ist also nicht anzunehmen, dass die Unsicherheiten in diesen Raten die Unterproduktion erklären können. Dies war auch nicht erwartet worden[Rapp et al., 2006].
Einen größeren Einfluss auf die Endhäufigkeiten hat die Saatverteilung vor der Supernova Phase des Sterns. Diese wird durch einige entscheidende Reaktionen während der Sternentwicklung stark beeinflusst (Kapitel 1). Teilweise sind die Raten dieser Reaktionen mit großen Unsicherheiten behaftet, und eine Änderung führt zu sehr unterschiedlichen Häufigkeiten der p-Kerne [Pignatari et al., 2013]. Der Ort des p-Prozesses spielt ebenfalls eine entscheidende Rolle. Supernova Ia oder Neutronensterne könnten entscheidend zur Produktion der p-Kerne beitragen, speziell bei den leichteren Kernen mit A < 110. Diese Szenarien sind aber schwerer zu modellieren und wenig untersucht [Rauscher, 2010]. In zukünftigen Arbeiten sollten diese Szenarien genauer untersucht werden. Die Unterschiede in Saatverteilung und Temperaturverlauf sowie die neutronenreiche Umgebung einer Supernova Ia lassen veränderte Sensitivitäten erwarten.
Zum besseren Verständnis des p-Prozess sind also sowohl weitere experimentelle Daten als auch weitere Untersuchungen der Rahmenbedingungen nötig.
Das CBM-Experiment an der Forschungseinrichtung FAIR in Darmstadt wird in Zukunft das Phasendiagramm der QCD im Bereich von niedrigen bis moderaten Temperaturen und hohen Baryondichten untersuchen und dabei mit hadronischen und elektromagnetischen Sonden eine Vielzahl an Observablen messen. Um Elektronen und Positronen von geladenen Pionen effizient zu unterscheiden werden mehrere Lagen von Übergangsstrahlungsdetektoren auf Basis von Vieldrahtproportionalkammern verwendet. Bei den hohen Reaktionsraten des CBM-Experiments von bis zu 10MHz am target sind schnelle Detektoren notwendig um die vielen Teilchen mit einer hohen zeitlichen Auflösung nachzuweisen. Aus diesem Grund werden am IKF der Goethe-Universität dünne MWPCs ohne zusätzliche Driftregion entwickelt, für die ein Eintrittsfenster aus dünner Mylarfolie mit einer kleinen Absorptionswahrscheinlichkeit der TR-Photonen in Betracht gezogen wird. Bei großen Detektoren beult sich ein dünnes Folienfenster bereits bei Druckunterschieden von einigen Mikrobar aus, was eine Variation der Gasverstärkung zur Folge hat.
Mit Garfield-Simulationen wurde die relative Änderung der Gasverstärkung in Abhängigkeit der Ausbeulung des Eintrittsfensters für Detektoren der Größe 4+4 mm, 5+5mm und 6+6mm mit den Gasgemischen Xe(80%)/CO2(20%) und Xe(90%)/CO2(10%) bestimmt. Um eine Gain-Stabilität von Δ,G = +/- 10% zu gewährleisten, beträgt die maximale Ausbeulung des Folienfensters durchschnittlich 120 μm +/- 5 μm bei der 4+4mm Kammer, 137 μm +/- 5 μm bei der 5+5mm Kammer und 154 μm +/- 6 μm bei der 6+6mm Kammer unabhängig vom Gasgemisch. Diese Ergebnisse stellen eine große Herausforderung für die Detektorentwicklung und -konstruktion dar. Eine Möglichkeit die Ausbeulung des Folienfensters zu minimieren ist ein geeigneter Aufbau, der die Folie verstärkt. Eine weitere Herangehensweise ist die Entwicklung einer Korrekturmethode, die die Gasverstärkung bzw. die gemessenen Signale abhängig von verschiedenen Drücken, Druckunterschieden und der damit verbundenen Ausbeulung des Eintrittsfensters korrigiert, wodurch die Signale reproduzierbar und vergleichbar werden.
Weiterhin wurden die Elektron-Driftzeiten für die drei Kammergeometrien simuliert um eine Aussage über die Zeitauflösung des Detektors zu machen. Die Driftzeiten unter Verwendung eines Xe(90%)/CO2(10%) Gasgemischs sind dabei grundsätzlich größer als mit Xe(80%)/CO2(20%) und führen zu Zeitauflösungen von Δt ~ 40 ns bzw. Δt ~ 30 ns. Die maximalen Driftzeiten am äußeren Rand der Detektoren sind für alle Detektorgeometrien mit beiden Gasgemischen sehr klein im Vergleich zu den erwarteten durchschnittlichen Teilchenraten. Daraus folgt, dass die Zeitauflösung der untersuchten Detektoren die Erwartungen mit Hinblick auf die Reaktionsraten des CBM-Experiments erfüllt.
Erwärmt man Eis, so brechen die Molekülbindungen auf und bei einer kritischen Temperatur von 0°C entsteht durch einen Phasenübergang flüssiges Wasser. Dies ist wohl bekannt und das Phasendiagramm, sowie die Anomalie von Wasser ein bekanntes Hilfsmittel in Physik und Chemie. Doch was passiert, wenn man Kernmaterie erhitzt? Kann diese auch verschiedene Aggregatzustände annehmen? Physiker erwarten, dass ab einer definierten kritischen Temperatur auch die Bindungen zwischen den kleinsten Teilchen unserer Materie, den Quarks, aufbrechen und das bis dahin bestehende Hadronengas in ein Quark-Gluon-Plasma übergeht. In Experimenten auf der ganzen Welt sollen die Eigenschaften des Quark-Gluon- Plasmas und der Phasenübergang der Materie untersucht werden. Daraus möchte man ein Phasendiagramm für die hadronische Materie entwickeln (Abb. 1). In verschiedenen Experimenten werden die unterschiedlichen Stationen des Phasendiagramms abgelaufen. Die laufenden Projekte an den großen Teilchenbeschleuniger Anlagen am LHC (Large Hadron Collider) am CERN (Conseil Européen pour la Abbildung 1: Das Phasendiagramm stark wechselwirkender Materie. Aufgetragen ist die Temperatur gegen die Baryonendichte. Der braune Bereich stellt den Übergangsbereich zwischen Hadronengas und Quark-Gluon-Plasma dar [ZAM]. Recherche Nucléaire) und am RHIC (Relativistic Heavy Ion Collider) in Brookhaven untersuchen das Phasendiagramm bei hohen Temperaturen und geringen Dichten. An der neuen, noch im Aufbau befindlichen Beschleunigeranlage FAIR (Facility for Antiproton and Ion Research) soll nun, im Rahmen des CBM-Experiment (Compressed Baryonic Matter), das Phasendiagramm bei hohen baryonischen Dichten und geringeren Temperaturen untersucht werden. Dafür werden spezielle Detektorkomplexe entwickelt. Diese werden benötigt, um herauszufinden, wann ein Quark-Gluon-Plasma vorliegt. Hierbei ist die Identifizierung von Elektronen von großer Bedeutung. Beim CBM-Experiment wird zur Unterscheidung zwischen Pionen und Elektronen unter anderem ein Transition Radiation Detektor (TRD) verwendet. (Kapitel 4) Dessen Eingangsfenster besteht aus einer dünnen Mylar®-Folie, welche empfindlich auf Druckschwankungen reagiert. Dies führt zu einer Veränderung des Kammervolumens, was zu einer Variation der Gasverstärkung und des daraus gewonnenen Signals führt. Die Auswirkungen von Druckschwankungen auf das Eingangsfenster des CBM-TRDs sollen in der folgenden Arbeit anhand von Simulationen (Kapitel 5) sowie anhand von Messungen (Kapitel 6) untersucht und verglichen werden. Zunächst wird jedoch ein Überblick der Grundlagen gegeben.
Diese Arbeit beschäftigt sich mit der Charakterisierung des 4π-Bariumfluorid(BaF2)-Detektors, der in Zukunft im Rahmen des FRANZ-Projektes (Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum) eingesetzt werden soll. Der Detektor soll zum Nachweis von γ-Emission zum Beispiel nach einem Neutroneneinfang genutzt werden, womit der (n,γ)-Wirkungsquerschnitt bestimmt werden kann. Hauptaufgabe dieser Arbeit ist die Bestimmung der Energie- und Zeitauflösung, sowie die Energie- und Zeitkalibrierung und die Effizienzbestimmung.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
Zunächst sind einige Methoden und Techniken zusammenfassend aufzuzählen, welche mir in meiner Zeit am IKF nahegebracht wurden.
Von technischer Seite her sind hier der Umgang mit der Instituts-eigenen Lichtmikroskop und den pA-Messgeräten sowie der analogen Messkette zu nennen. Außerdem gegebenen GEM-Folien auf Fehlstellen zu untersuchen, sie unter Spannung zu testen und anschließen in die Testkammer zu montieren und diese anschließend ordnungsgemäß in Betrieb zu nehmen. Während des Betriebs der Kammer sind neben den Messungen selbst auch die Programmierung in C++ um ein vorhandenes GUI zu verstehen und erweitern zu können zu nennen. In der Analyse der gewonnenen Daten ist vor allem die im Institut verbreiteten Analyse-Software „Root“ zu nennen um Daten zu verarbeiten, zu plotten und zu fitten.
Der physikalische Gehalt der Messungen war in Folge der ersten Messung nicht mit Sicherheit zu bestimmen, da die Raten-Abhängigkeit des IB entweder grundlegender physikalischer oder technischer Natur sein konnte, was näher zu untersuchen blieb. Nach wiederholter Messung mit größerem Messbereich und einer zweiten Messreihe mit einer anderen Gas-Mischung konnten jedoch Aussagen getroffen werden.
So konnte in der Argon-Messung die gleiche Raten-Abhängigkeit des IBF wie zuvor festgestellt werden, während der IBF in der Neon-Mischung kaum merklich anstieg. Außerdem ist festzuhalten, dass Messungen an der Kathode nur über 10 pA problemlos genau sind. Darunter werden die Werte bei zu wenig Messzeit weniger aussagekräftig.
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.