Refine
Year of publication
Document Type
- Bachelor Thesis (75) (remove)
Has Fulltext
- yes (75)
Is part of the Bibliography
- no (75) (remove)
Keywords
- Beschleunigerphysik (2)
- FRANZ (2)
- Ionenstrahl (2)
- Strahldynamik (2)
- Strahlprofil (2)
- (n, gamma) Reaktionen (1)
- (n, gamma) reactions (1)
- BaF2 Detektor-Array (1)
- BaF2 detector array (1)
- Charge change (1)
Institute
- Physik (75) (remove)
Die Arbeit ist in zwei Teile gegliedert. Der erste Teil behandelt einige naturphilosophische und mathematische Probleme. Es wird außerdem das Pfeil-Paradoxon von Zeno vorgestellt, auf dem die moderne Variante des Quanten-Zeno-Paradoxons basiert. Im zweiten Teil wird zunächst eine allgemeine Analyse des Zerfallsgesetzes instabiler Quantensysteme gegeben. Es ist eine Mischung aus Zusammenfassungen von Reviews und neuen Ideen. Eine wichtige Rolle spielt dabei die Wellenfunktion in Energiedarstellung bzw. deren Betragsquadrat, genannt Energiedichte. Es wird auch auf den Fall eingegangen, wenn ein Quantensystem wiederholten (frequenten) Messungen ausgesetzt ist. Anschließend wird der Quanten-Zeno-Effekt und das Quanten-Zeno-Paradoxon als Folge des Verhaltens der Überlebenswahrscheinlichkeit für Zeiten kurz nach der Zustandspräparation beschrieben. Danach wird das Lee-Modell zur Beschreibung eines Teilchenzerfalls vorgestellt. Das Modell beschreibt den Zerfall eines instabilen Teilchens in zwei mögliche Kanäle, d.h. entweder in (genannt) a-Teilchen oder b-Teilchen. Es werden alle wichtigen Funktionen (Zerfallsgesetz, Energiedichte, etc.) analytisch hergeleitet. Es folgen darauf die Ergebnisse der numerischen Auswertung.
Die vorliegende Arbeit befasst sich mit der Hochfrequenzabstimmung und den Feldoptimierungen zweier Linearbeschleunigerstrukturen für eine in der Entwicklung befindliche Forschungsanlage an der Goethe-Universität in Frankfurt am Main. Ein 4-Rod-RFQ sowie ein IH-Driftröhrenbeschleuniger sollen gekoppelt betrieben, d.h. nicht wie üblich von zwei, sondern nur von einem Hochfrequenz-Sender mit Leistung versorgt werden. Hierdurch lässt sich nicht nur der benötigte Platz reduzieren, sondern auch ein beträchtlicher Teil der Kosten des Projekts einsparen. Um das Verhalten der gekoppelten Beschleuniger genauer vorhersagen zu können, wurden Untersuchungen an bereits gebauten Modellen im Maßstab 1:2 durchgeführt und diese vermessen. Eine Methode zur systematischen Anpassung der Feldverteilung in 4-Rod-RFQs wurde darüber hinaus am einzeln betriebenen RFD-Modell angewandt und optimiert, sowie ein Algorithmus zur Automatisierung entwickelt. Parallel laufende Computersimulationen ermöglichten Vergleiche zu den realen Messwerten. Darüberhinaus konnten Rückschlüsse auf die Genauigkeit der Simulationen am Computermodell gezogen und hier liegende Herausforderungen, auch in Bezug auf die bei FRANZ zum Einsatz kommenden Beschleunigerstrukturen, näher untersucht werden. Hieraus resultierende Empfehlungen für das Design der FRANZ-IH-Struktur konnten gegeben werden und wurden bereits umgesetzt.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
The current performance of a 4π barium fluoride gamma detector consisting of 41 modules is evaluated. It will be used to measure neutron capture events in different samples that are exposed to a neutron beam that is expected to contain up to 10^7 neutrons/(cm^2 sec). The capture cross-sections acquired in this experiment will be relevant to a multitude of different areas, for example to s-process studies, or accelerator-driven systems. The detector array was re-mounted after having been moved from Karlsruhe to Frankfurt and in the course of this process, the detector modules have been checked for their current detection properties. Every module consists of a BaF2 crystal, a photomultiplier tube connected to the crystal by sillicon oil and a voltage divider to drive the PMT, so each of them is already an individual gamma detector. Using Cobalt-60 and Caesium-137 test sources the energy resolution and - more importantly - the time resolution of every module has been determined; the results are presented in this work and compared to previous data taken at the time the detector was built initially in the mid-1980s.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
In dieser Arbeit wurden Simulationen des γ-Prozesses zu den vier p-Kernen 92;94Mo und 96;98Ru durchgeführt. Die Simulationen wurden mit den Simulationen aus [Rapp et al., 2006] verglichen, und die Ergebnisse waren bis auf wenige Ausnahmen die gleichen.
Die Untersuchung der Sensitivitäten auf insgesamt 38 geänderte Raten hat einige besonders wichtige Raten für jedes der Isotope identifiziert. Es stellte sich heraus, dass die Isotope jeweils auf eine destruktive Rate besonders sensitiv sind. Bei 92Mo war dies die 92Mo(γ,p) Rate, bei 94 die 94Mo(γ,n) Rate, bei 96Ru die 96Ru(γ,α) Rate und bei 98Ru die Destruktion über 98Ru(γ,n).
Diese Raten sind nur theoretisch bestimmt, haben aber großen Einfluss auf die Häufigkeiten der untersuchten Isotope. Experimentelle Untersuchungen dieser Raten sind nötig, um ein besseres Verständnis des γ-Prozesses in dieser Massenregion zu erlangen.
Leider konnten schon exisitierende neuere Untersuchungen im Rahmen dieser Arbeit nicht berücksichtigt werden, beispielsweise [Utsunomiya et al., 2013]. In zukünftigen Simulationen sollten diese Untersuchungen berücksichtigt werden. Außerdem sollten die Simulationen Neutroneneinfänge untersuchen, da diese vermutlich auch zur Produktion von 94Mo und 98Ru beitragen.
Ein Problem in dieser Arbeit war die Rekonstruktion der Reaktionsflüsse aus Raten und Häufigkeiten, in Zukunft sollten die Reaktionsflüsse direkt mitgeschrieben werden.
Die Unsicherheiten der Raten reichen nicht aus, um die Unterproduktion von 92;94Mo und 96;98Ru erklären. Zur Verdeutlichung dieser Tatsache befinden sich im Anhang A.15 Abbildungen der Überproduktionsfaktoren mit den geänderten Raten 92Mo(γ,p)x0.5 und 98Ru(γ,n)x0.5, also den beiden Raten, die eine Sensitivität größer eins aufweisen. Trotz der geänderten Raten werden 92Mo und 98Ru um mehr als einen Faktor 10 unterproduziert. Wenn man annehmen würde, dass die Sensitivität linear verläuft und eins beträgt, würde selbst die Reduktion der Raten auf Null nur eine Verdopplung der Häufigkeit bewirken. In der Realität wird sich die Sensitivität noch verringern, wenn andere Desintegrationsprozesse dominant werden. Es ist also nicht anzunehmen, dass die Unsicherheiten in diesen Raten die Unterproduktion erklären können. Dies war auch nicht erwartet worden[Rapp et al., 2006].
Einen größeren Einfluss auf die Endhäufigkeiten hat die Saatverteilung vor der Supernova Phase des Sterns. Diese wird durch einige entscheidende Reaktionen während der Sternentwicklung stark beeinflusst (Kapitel 1). Teilweise sind die Raten dieser Reaktionen mit großen Unsicherheiten behaftet, und eine Änderung führt zu sehr unterschiedlichen Häufigkeiten der p-Kerne [Pignatari et al., 2013]. Der Ort des p-Prozesses spielt ebenfalls eine entscheidende Rolle. Supernova Ia oder Neutronensterne könnten entscheidend zur Produktion der p-Kerne beitragen, speziell bei den leichteren Kernen mit A < 110. Diese Szenarien sind aber schwerer zu modellieren und wenig untersucht [Rauscher, 2010]. In zukünftigen Arbeiten sollten diese Szenarien genauer untersucht werden. Die Unterschiede in Saatverteilung und Temperaturverlauf sowie die neutronenreiche Umgebung einer Supernova Ia lassen veränderte Sensitivitäten erwarten.
Zum besseren Verständnis des p-Prozess sind also sowohl weitere experimentelle Daten als auch weitere Untersuchungen der Rahmenbedingungen nötig.
Diese Arbeit beschäftigt sich mit der Wasserkühlung einer normalleitenden CH-Kavität. Insbesondere stellt sich die Frage, ob die im CST Thermal Steady State Solver simulierten Temperaturen mit Messungen während High Power Tests übereinstimmen. Zusätzlich interessiert, inwiefern die Temperatur über die dissipierte Leistung aus dem CST Eigenmode Solver und dem gemessenen Volumenstrom im Kanal abgeschätzt werden kann. In dem Kontext wird auch geklärt, ob die Reihenschaltung der Mantelkanäle den Kühlanforderungen genügt.
Neben Volumenstrom- und Druckmessungen an den in Reihe und parallelgeschalteten Kanälen werden die Leistungs- und Temperaturwerte der Konditionierung in sämtlichen Simulationen aufgegriffen. Indem die Kavität in einzelne Sektionen unterteilt wird und in diesen die dissipierte Leistung mit dem Eigenmode Solver simuliert wird, die ein Kühlkanal abführt, werden die Temperaturerhöhungen direkt berechnet und verglichen.
Zusammengefasst hat sich der Durchfluss in kritischen Bauteilen wie den Stützen durch die Reihenschaltung der Mantelkanäle erhöht und wird damit empfohlen. Es werden die simulierten Temperaturverteilungen gezeigt. Die Näherung über den Eigenmode Solver liefert erneut für die thermisch belasteten Bauteile wie die Stützen präzise Vorhersagen.
Abschließend werden Erfahrungen aus dem Institut in dieser Arbeit zusammengetragen und die Verwendung des Steady State Solver freigegeben.