Refine
Year of publication
Document Type
- Doctoral Thesis (600) (remove)
Has Fulltext
- yes (600)
Is part of the Bibliography
- no (600)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (600) (remove)
Classical light microscopy is one of the main tools for science to study small things. Microscopes and their technology and optics have been developed and improved over centuries, however their resolution is ultimately restricted physically by the diffraction of light based on its wave nature described by Maxwell’s equations. Hence, the nanoworld – often characterized by sub-100-nm structural sizes – is not accessible with classical far-field optics (apart from special x-ray laser concepts) since its lateral resolution scales with the wavelength.
It was not until the 20th century that various technologies emerged to circumvent the diffraction limit, including so-called near-field microscopy. Although conceptually based on Maxwell’s long known equations, it took a long time for the scientific community to recognize its powerful opportunities and the first embodiments of near-field microscopes were developed. One representative of them is the scattering-type Scanning Near-field Optical Microscope (s-SNOM). It is a Scanning Probe Microscope (SPM) that enables imaging and spectroscopy at visible light frequencies down to even radio waves with a sub-100-nm resolution regardless of the wavelength used. This work also reflects this wide spectral range as it contains applications from near-infrared light down to deep THz/GHz radiation.
This thesis is subdivided into two parts. First, new experimental capabilities for the s-SNOM are demonstrated and evaluated in a more technical manner. Second, among other things, these capabilities are used to study various transport phenomena in solids, as already indicated in the title.
On the technical side, preliminary studies on the suitability of the qPlus sensor – a novel scanning probe technology – for near-field microscopy are presented.
The scanning head incorporating the qPlus sensor–named TRIBUS – is originally intended and built for ultra-high vacuum, low temperature, and high resolution applications. These are desirable environments and properties for sensitive nearfield measurements as well. However, since its design was not planned for near-field measurements, several special technical and optical aspects have to be taken into account, among others the scanning tip design and a spring suspended measurement head.
In addition, in this thesis field-effect transistors are used as THz detectors in an s-SNOM for the first time. Although THz s-SNOM is already an emerging technology, it still suffers from the requirements of sophisticated and specialized infrastructure on both the detector and laser side. Field-effect transistors offer an alternative that is flexible, cost-efficient, room-temperature operating, and easy to handle. Here, their suitability for s-SNOM measurements, which in general require very sensitive and fast detectors, is evaluated.
In the scientific part of this thesis, electromagnetic surface waves on silver nanowires and the conductivity/charge carrier density in silicon are investigated. Both are completely different concepts of transport phenomena, but this already shows the general versatility of the s-SNOM as it can enter both fields. Silver nanowires are analysed by means of near-infrared radiation. Their plasmonic behaviour in this spectral region is studied complementing other simulations and studies in literature performed on them using for example far-field optics.
Furthermore, the surface wave imaging ability of the s-SNOM in the near-infrared regime is thoroughly investigated in this thesis. Mapping surface waves in the mid-infrared regime is widespread in the community, however for much smaller wavelengths there are several important aspects to be considered additionally, such as the smaller focal spot size.
After that, doped and photo-excited silicon substrates are investigated. As the characteristic frequencies of charge carriers in semiconductors – described by the plasma frequency and the Drude model – are within the THz range, the THz s-SNOM is very well suited to probe their behaviour and to reveal contrasts, which has already been shown qualitatively by numerous literature reports. Here, the photo-excitation enables to set and tune the charge carrier density continuously.
Furthermore, the analysis of all silicon samples focuses on a quantitative extraction of the charge carrier densities and doping levels ...
We discuss aspects of the phase structure of a three-dimensional effective lattice theory of Polyakov loops derived from QCD by strong coupling and hopping parameter expansions. The theory is valid for the thermodynamics of heavy quarks where it shows all qualitative features of nuclear physics emerging from QCD. In particular, the SU(3) pure gauge effective theory also exhibits a first-order thermal deconfinement transition due to spontaneous breaking of its global Z₃ center symmetry. The presence of heavy dynamical quarks breaks this symmetry explicitly and consequently, the transition weakens with decreasing quark mass until it disappears at a critical endpoint. At non-zero baryon density, the effective theory can be evaluated either analytically by the so-called high-temperature expansion which does not suffer from the sign problem, or numerically by standard Monte-Carlo methods due to its mild sign problem. The first part of this work devotes to a systematic derivation of the effective theory up to the 6th order in the hopping parameter κ. This method combined with the SU(3) link update algorithm provides a way to simulate the O(κ⁶) effective theory. The second part involves a study of the deconfinement transition of the pure gauge effective theory, with and without static quarks, at all chemical potentials with help of the high-temperature expansion. Our estimate of the deconfinement transition and its critical endpoint as a function of quark mass and all chemical potentials agrees well with recent Monte-Carlo simulations. In the third part, we investigate the N ſ ∈ {1,2} effective theory with zero chemical potential up to O(κ⁴). We determine the location of the critical hopping parameter at which the first-order deconfinement phase transition terminates and changes to a crossover. Our results for the critical endpoint of the O(κ²) effective theory are in excellent agreement with the determinations from simulations of four-dimensional QCD with a hopping expanded determinant by the WHOT-QCD collaboration. For the O(κ⁴) effective theory, our estimate suggests that the critical quark mass increases as the order of κ-contributions increases. We also compare with full lattice QCD with N ſ = 2 degenerate standard Wilson fermions and thus obtain a measure for the validity of both the strong coupling and the hopping expansion in this regime.
In this thesis, the emission of protons as well as the production of Λ hyperons, Κ0S mesons and 3ΛH hypernuclei are analyzed multi-differentially as a function of transverse momentum, rapidity and centrality. Therefore, the 3.03 billion 30 % most central Ag(1.58A GeV)+Ag events recorded by HADES are used. Furthermore, the lifetimes of Λ hyperons, Κ0S mesons and 3ΛH hypernuclei are measured. The obtained 3ΛH lifetime of (253 ± 24 ± 42) ps is compatible with the lifetime of free Λ hyperons, as predicted by theoretic calculations due to its low binding energy. Finally, also the double strange Ξ– hyperons are reconstructed. Unfortunately, the fully optimized signals lie below the confidence threshold of 5σ, which is why both an production rate and an upper production limit are estimated using averaged acceptance and efficiency corrections. Never before, 3ΛH or Ξ– were successfully reconstructed and analyzed in heavy-ion collisions at such low energies. The obtained results are compared to previous measurements and put in context with world data form different energies and collision systems.
The present research in high energy physics as well as in the nuclear physics requires the use of more powerful and complex particle accelerators to provide high luminosity, high intensity, and high brightness beams to experiments. With the increased technological complexity of accelerators, meeting the demand of experimenters necessitates a blend of accelerator physics with technology. The problem becomes severe when optimization of beam quality has to be provided in accelerator systems with thousands of free parameters including strengths of quadrupoles, sextupoles, RF voltages, etc. Machine learning methods and concepts of artificial intelligence are considered in various industry and scientific branches, and recently, these methods are used in high energy physics mainly for experiments data analysis.
In Accelerator Physics the machine learning approach has not found a wide application yet, and in general the use of these methods is carried out without a deep understanding on their effectiveness with respect to more traditional schemes or other alternative approaches. The purpose of this PhD research is to investigate the methods of machine learning applied to accelerator optimization, accelerator control and in particular on optics measurements and corrections. Optics correction, maximization of acceptance, and simultaneous control of various accelerator components such as focusing magnets is a typical accelerator scenario. The effectiven- ess of machine learning methods in a complex system such as the Large Hadron Collider, which beam dynamics exhibits nonlinear response to machine settings is the core of the study. This work presents successful application of several machine learning techniques such as clustering, decision trees, linear multivariate models and neural networks to beam optics measurements and corrections at the LHC, providing the guidelines for incorporation of machine learning techniques into accelerator operation and discussing future opportunities and potential work in this field.
The main subject of this thesis is the study of hadron and photon production in relativistic heavy-ion collisions by means of hydrodynamics+transport approaches. Two different kinds of such hybrid approaches are employed in this work, the SMASH-vHLLE-hybrid and a MUSIC+SMASH hybrid. While the former is capable of simulating heavy-ion collisions covering a wide range of collision energies down to √s = 4.3 GeV, reproducing the correct baryon stopping powers, the latter provides a framework to consistently model photon production in the hadronic stage of high-energy heavy-ion collisions.
The SMASH-vHLLE-hybrid is a novel state-of-the-art hybrid approach whose development constitutes a major contribution to this thesis. It couples the hadronic transport SMASH to the 3+1D viscous hydrodynamics approach vHLLE. Therein, SMASH is employed to provide the fluctuating 3D initial conditions and to model the late hadronic rescattering stage, and vHLLE for the fluid dynamical evolution of the hot and dense fireball. The initial conditions are provided on a hypersurface of constant proper time, and the macroscopic evolution of the fireball is carried out down to an energy density of ecrit = 0.5 GeV/fm3, where particlization occurs. Consistency at the interfaces is verified in view of global, on-average quantum number conservation and the SMASH-vHLLE-hybrid is validated by comparison to SMASH+CLVisc as well as UrQMD+vHLLE hybrid approaches. The establishment of the SMASH-vHLLE-hybrid to theoretically describe heavy-ion collisions at intermediate and high collision energies forms a basis for a range of extensions and future research projects. It is further made available to the heavy-ion community by virtue of being published on Github.
The SMASH-vHLLE-hybrid is applied to simulate Au+Au/Pb+Pb collisions between √s = 4.3 GeV and √s = 200.0 GeV. A good agreement with the experimentally measured rapidity and transverse mass spectra is obtained. In particular the baryon stopping dynamics are well reproduced at low, intermediate, and high collision energies. Excitation functions for the mid-rapidity yield and mean transverse momentum of pions, protons and kaons are demonstrated to agree well with their experimentally measured counterpart. These results further validate the approach and provide a solid baseline for potential future studies. The importance of annihilations and regenerations of protons and anti-protons is additionally investigated in Au+Au/Pb+Pb collisions between √s = 17.3 GeV and √s = 5.02 TeV with the SMASH-vHLLE-hybrid. It is found that, regarding the p + p ̄ ↔ 5 π reaction, 20-50% (depending on the rapidity range) of the (anti-)proton yield lost to annihila- tions in the hadronic rescattering stage is restored owing to the back reaction. The back reaction thus constitutes a non-negligible contribution to the final (anti-)proton yield and should not be neglected when modelling the late rescattering stage of heavy-ion collisions.
The MUSIC+SMASH hybrid is a hybrid approach ideally suited to model the production of photons in relativistic heavy-ion collisions. Therein, the macroscopic production of photons in the hadronic stage in MUSIC relies on the identical effective field theories as the photon cross sections implemented in SMASH for the microscopic production. The MUSIC+SMASH hybrid thus provides the first consistent framework to the end of hadronic photon production. It accounts for 2 → 2 scattering processes of the kind π + ρ → π + γ and pion bremsstrahlung processes π + π → π + π + γ. The MUSIC+SMASH hybrid is employed in an ideal 2D setup to systematically assess the importance of non-equliibrium dynamics in the hadronic rescattering stage on mid-rapidity transverse momentum spectra and elliptic flow of photons at RHIC/LHC energies. This is achieved by comparing the outcome of the MUSIC+SMASH hybrid, involving an out-of-equilibrium late rescattering stage, to macroscopically approximating late stage photon production by means of MUSIC, employed down to temperatures well below the switching temperature. It is found that non-equilibrium dynamics have only minor implications for photon transverse momentum spectra, but significantly enhance the photon elliptic flow. At RHIC energies, an enhancement of up to 70%, and at LHC of up to 65% is observed in the non-equilibrium afterburner as compared to its hydrodynamical counterpart. In combination with the large amount of photons produced above the particlization temperature, these differences are modest regarding the transverse momentum spectra, but a significant enhancement of the elliptic flow is observed at low transverse momenta. Below pT ≈ 1.4 GeV, the combined v2 is enhanced by up to 30% at RHIC, and up to 20% at the LHC within the non-equilibrium setup as compared to its approximation via hydrodynamics. Non-equilibrium dynamics in the hadronic rescattering stage are hence important, especially in view of momentum anisotropies at low transverse momenta. These findings thus contribute to the understanding of low-pT photons produced in heavy-ion collisions at RHIC/LHC energies and the MUSIC+SMASH hybrid employed for this study provides a baseline for additional studies regarding photon production in the future.
To summarize, the approaches and frameworks presented in this thesis provide a good baseline for further extensions and studies in order to improve the understanding of hadron and photon production in relativistic heavy-ion collisions across a wide range of collision energies. More broadly, such future studies of hadrons and photons may contribute to enhance the understandig of the properties of the fundamental building blocks of matter, of which everything that surrounds us is made of.
The putative effects of dark matter are most easily explained by a collisionless fluid on cosmological scales and by Modified Newtonian Dynamics (MOND) on galactic scales. Hybrid MOND dark matter models combine the successes of dark matter on cosmological scales and those of MOND on galactic scales. An example of such a model is superfluid dark matter (SFDM) which postulates that this differing behavior with scale is caused by a single underlying substance with two phases. In this thesis, I highlight successful observational tests of SFDM regarding strong lensing and the Milky Way rotation curve. I also discuss three problems due to the double role of the aforementioned single underlying substance and show how these may be avoided. Finally, I introduce a novel Cherenkov radiation constraint for hybrid MOND dark matter models. This constraint is different from standard modified gravity Cherenkov radiation constraints because such hybrid models allow even non-relativistic objects like stars to emit Cherenkov radiation.
Das Feld der Hochenergie-Schwerionenforschung hat sich der Untersuchung des Quark-Gluon-Plasmas (QGP) gewidmet. Ein QGP ist ein sehr heißer und dichter Materiezustand, der kurz nach dem Urknall für einige Mikrosekunden das Universum füllte. Unter diesen extremen Bedingungen sind die fundamentalen Bausteine der Materie, die Quarks und Gluonen, quasi frei, also nicht in Hadronen eingeschlossen, wie es unter normalen Bedingungen der Fall ist. Hadronen sind Teilchen, die aus Quarks und Gluonen bestehen. Die bekanntesten Hadronen sind Protonen und Neutronen, die Bestandteile von Atomkernen, aus denen, zusammen mit Elektronen, die gesamte bekannte Materie aufgebaut ist.
Um ein QGP im Labor zu erzeugen, lässt man ultrarelativistische schwere Ionen, wie zum Beispiel Pb-208-Kerne, aufeinander prallen. Dies geschieht am CERN, dem größten Kernforschungszentrum der Welt. Der Teilchenbeschleuniger, welcher Protonen und Pb-Kerne beschleunigt und zur Kollision bringt, heißt Large Hadron Collider (LHC) und ist mit 27 km Umfang der größte der Welt. Bei einer einzigen Pb-Pb Kollision am LHC werden mehrere Tausend Teilchen und Antiteilchen erzeugt. Das dedizierte Experiment zur Untersuchung von Schwerionenkollisionen am LHC ist ALICE. ALICE ist mit mehreren Teilchendetektoren ausgerüstet, die es ermöglichen, tausende Teilchen gleichzeitig zu messen und zu identifizieren.
Unter den produzierten Teilchen befinden sich auch leichte Atomkerne, wenngleich diese nur sehr selten erzeugt werden. Die Anzahl der produzierten Teilchen pro Teilchensorte hängt nämlich von deren Masse ab. In Pb-Pb Kollisionen am LHC sinkt die Anzahl der produzierten (Anti)kerne exponentiell um einen Faktor 1/330 bei Hinzufügen jedes weiteren Nukleons. Die Menge an produzierten Teilchen pro Spezies stellt Informationen über den Produktionsmechanismus beim Übergang vom QGP zum Hadrongas zur Verfügung. Hierbei sind leichte (Anti)kerne von besonderem Interesse, da sie vergleichsweise groß sind und ihre Bindungsenergie bis zu zwei Größenordnungen kleiner ist als die Temperaturen, die bei der Erzeugung der Hadronen vorherrschen. Es ist bis heute noch nicht verstanden, wie leichte (Anti)kerne bei diesen Bedingungen erzeugt werden und überleben können.
Für diese Arbeit wurden ca. 270 Millionen Pb-Pb Kollisionen bei einer Schwerpunktsenergie von 5,02 TeV, die von ALICE im November 2018 aufgezeichnet wurden, analysiert. Es wurde die Produktion von (Anti)triton und (Anti)alpha untersucht. Wegen ihrer großen Masse werden beide Kerne sehr selten produziert, bei weitem nicht bei jeder Kollision. Antialpha ist der schwerste Antikern, der jemals gemessen wurde. Aufgrund dieser Seltenheit ist die Größe des zur Verfügung stehenden Datensatzes entscheidend. Es war möglich, das erste jemals gemessene Antialpha-Transversalimpulsspektrum zu extrahieren. Auch für (Anti)triton und Alpha wurden Transversalimpulsspektren bestimmt.
Die Ergebnisse wurden mit theoretischen Modellen und anderen ALICE Messungen verglichen.
Am Ende wird in einem Ausblick auf das kürzlich durchgeführte Upgrade der ALICE Spurendriftkammer (TPC) eingegangen. In der nächsten, bald startenden Datennahmeperiode wird der LHC seine Kollisionsrate erheblich erhöhen, was es ermöglichen wird, mehr als 100 mal so viele Daten wie bisher aufzuzeichnen. Hiervon werden die in dieser Arbeit beschriebenen (Anti)triton- und (Anti)alpha-Analysen beachtlich profitieren. Um mit den erheblich höheren Kollisionsraten zurecht zu kommen, mussten einige Detektoren, unter anderem die TPC, maßgeblich erneuert werden. In den ersten beiden Datennahmeperioden wurde die TPC mit Vieldrahtproportionalkammern betrieben. Diese sind allerdings viel zu langsam für die geplanten Kollisionsraten. Deshalb wurden sie im Jahr 2019, während einer langen Betriebspause des LHC, durch Quadrupel-GEM (Gas Electron Multiplier) Folien basierte Auslesekammern ersetzt, welche eine kontinuierliche Auslese der TPC ermöglichen. Da es sich um die erste jemals gebaute GEM TPC im Großformat handelt, war ein umfangreiches Forschungs- und Entwicklungs- (F&E) Programm notwendig, um die GEM Auslesekammern zu charakterisieren und zu testen. Im Rahmen dieses F&E Programms wurden am Anfang dieser Promotion systematische Messungen an einer kleinen Test TPC mit Quadrupel-GEM Auslese, die extra zu diesem Zweck gebaut worden war, durchgeführt. Hierbei wurde der Rückfluss der bei der Gasverstärkung erzeugten Ionen in das Driftvolumen der TPC und die Energieauflösung mit verschiedenen GEM Folien Typen und unterschiedlicher Anordnung gemessen. Das Ziel war, möglichst kleine Ionenrückflüsse bei möglichst guter Energieauflösung zu erreichen. Hierbei musste ein Kompromiss gefunden werden, da die beiden Größen sich gegenläufig verhalten. Es war jedoch möglich, mit mehreren GEM Konfigurationen Spannungseinstellungen zu identifizieren, bei denen beide Größen den gewünschten Anforderungen entsprachen.
Die Entstehung der Elemente im Universum wird auf eine Vielzahl von Prozessen zurückgeführt, die sowohl in Urknall - als auch in stellaren Szenarien angesiedelt werden. Die Kenntnis der dort ablaufenden Reaktionen und deren Raten ermöglicht es die zugrundeliegenden Modelle einzugrenzen und somit genauere Aussagen über die Plausibilität der Szenarien zu treffen. Ein Teil dieser Prozesse stützt sich auf Neutroneneinfänge an Atomkernen, wodurch die Massezahl des Ausgangskerns erhöht wird.
Die Aktivierungsmethode ermöglicht die Bestimmung der Wahrscheinlichkeit eines Neutroneneinfangs, sofern der Zielkern eine detektierbare Radioaktivität aufweist. Die experimentelle Untersuchung einer Reaktion mit einem kurzlebigen Produktkern ist eine besondere Herausforderung, da bei langen Aktivierungen zwar viele Einfänge stattfinden, die meisten Produktkerne jedoch schon während der Aktivierung zerfallen. Ein probates Mittel um genügend Zerfälle des Produktkerns beobachten zu können ist die zyklische Aktivierung, wobei die Probe in mehrfachen Wiederholungen kurz bestrahlt und ausgezählt wird.
Im Rahmen dieser Arbeit wurden zwei verschiedene Anwendungen der zyklischen Aktivierung behandelt.
Eine vom Paul Scherrer Institut Villigen bereitgestellte Probe von 10Be wurde am TRIGA Reaktor der Johannes Gutenberg - Universität Mainz mit Neutronen aktiviert. Über die Cadmiumdifferenzmethode konnte der thermische und der epithermische Anteil der Neutronen separiert werden und dadurch sowohl der thermische Wirkungsquerschnitt als auch das Resonanzintegral für die Reaktion 10Be(n,γ)11Be bestimmt werden.
Am Institut für Kernphysik der Goethe Universität Frankfurt wurde mit einem Van - de - Graaff - Beschleuniger über die 7Li(p,n)7Be Reaktion ein quasistellares Neutronenspektrum mit kBT ≈ 25 keV erzeugt. Für die zyklische Aktivierung von Proben wurde die Infrastruktur in Form einer automatisiert ablaufenden Vorrichtung zur Bestrahlung und Auszählung geplant und umgesetzt. In diesem Rahmen wurden die über das Spektrum gemittelten Neutroneneinfangsquerschnitte für verschiedene Reaktionen bestimmt. Für 19F(n,γ)20F konnte der Gesamteinfangsquerschnitt bestimmt werden. Für die Reaktion 45Sc(n,γ)46Sc wurde der partielle Wirkungsquerschnitt in den 142,5 keV Isomerzustand gemessen. Aus der 115In(n,γ)116In Reaktion konnten die partiellen Querschnitte in die Isomerzustände bei 289,7 keV, 127,3 keV sowie den Grundzustand bestimmt werden.
Außerdem wurde mit einer Hafniumprobe die partiellen Einfangsquerschnitte in den 1147,4 keV Isomerzustand von 178Hf und in den 375 keV Isomerzustand von 179Hf gemessen.
Ionenstrahlen werden in der Grundlagenforschung, in der Industrie und der Medizin verwendet. Um die Teilchen für die jeweiligen Anforderungen nutzbar zu machen, werden sie mit Ionenbeschleunigern je nach Anwendung auf eine bestimmte Energie beschleunigt. Eine Beschleunigeranlage besteht dabei aus einer Reihe von unterschiedlichen Elementen: Ionenquellen, Linearbeschleuniger, Kreisbeschleuniger, Fokussierelemente, Diagnosesysteme usw. In jeder dieser Kategorien gibt es wiederum verschiedene Realisierungsmöglichkeiten, je nach Anforderung des jeweiligen Abschnitts und der gesamten Anlage. Im Bereich der Linearbeschleuniger ist als Bindeglied zwischen Ionenquelle/Niederenergiebereich und Nachfolgebeschleuniger der Radiofrequenzquadrupol (RFQ) weit verbreitet. Dieser kann den aus der Quelle kommenden Gleichstromstrahl in Teilchenpakete (Bunche) formen und diese gleichzeitig auf die nächste Beschleunigerstufe angepasst vorbeschleunigen. Desweiteren wird der Teilchenstrahl innerhalb des RFQ kontinuierlich fokussiert, wodurch insbesondere bei diesen niedrigen Energien Strahlverluste minimiert werden. Bei hohem Masse-zu-Ladungs-Verhältnis wird für schwere Ionen eine niedrige Resonanzfrequenz von deutlich unter 100 MHz benötigt. Dies führt zu längeren Beschleunigungszellen entlang der Elektroden, womit durch eine bessere Fokussierung auch höhere Strahlströme beschleunigt werden können. Im Allgemeinen bedeutet eine niedrigere Resonanzfrequenz aber auch einen größeren Querschnitt der Resonanzstruktur sowie einen längeren Beschleuniger. Gegenstand dieser Arbeit ist die Untersuchung unterschiedlicher RFQ-Strukturen für niedrige Frequenzen, wie sie beispielsweise im Linearbeschleunigerbereich der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt Anwendung finden. Zunächst wird die Beschleunigeranlage des GSI Helmholtzzentrums für Schwerionenforschung in Darmstadt und dessen zur Zeit im Bau befindliche Erweiterung FAIR (Facility for Antiproton and Ion Research) kurz vorgestellt. Teil dieser Anlage ist der Hochstrominjektor genannte Anfangsbeschleuniger, der wiederum aus einem RFQ und zwei nachfolgenden Driftröhrenbeschleunigern besteht. Dieser Hochstrominjektor dient als Referenz für die vorliegende Arbeit. In Kapitel 3 wird kurz auf Linearbeschleuniger im Allgemeinen und auf das Grundprinzip und die Eigenschaften eines RFQ näher eingegangen. Anschließend werden verschiedene RFQ-Strukturkonzepte vorgestellt und die Strahldynamik in einem RFQ sowie charakteristische Resonatorgrößen beschrieben. Ausgangspunkt ist der aktuelle RFQ des Hochstrominjektors (Kapitel 4). Dieser IH-RFQ mit einer Betriebsfrequenz von 36 MHz ist seit vielen Jahren in Betrieb und soll für eine verbesserte Effizienz und Betriebssicherheit ein Upgrade erfahren. Dazu wurden Simulationen sowohl der bestehenden Struktur als auch mit Modifikationen durchgeführt und diese miteinander verglichen. Zur Entwicklung eines kompakten Resonators werden in Kapitel 5 verschiedene Splitring-RFQ-Modelle als Alternative zur IH-Struktur mittels Simulationen untersucht. Diese wurden für eine niedrigere Frequenz von 27 MHz entworfen, was der Frequenz des ursprünglichen Wideröe-Beschleunigers (Vorgänger des Hochstrominjektors HSI) entspricht und ebenso wie die 36 MHz des IH-RFQ eine Subharmonische der 108 MHz des Folgebeschleunigers ist. Abschließend wurde noch eine neue RFQ-Struktur, der Splitframe-RFQ, entworfen und untersucht. Auch dieser wurde für eine Frequenz von 27 MHz ausgelegt. Die Ergebnisse dieser Entwicklung, die eine Mischung aus einem Splitring- und einem klassischen 4-Rod-RFQ darstellt, befinden sich in Kapitel 6. Alle Feldsimulationen wurden mit dem Programm Microwave Studio von CST durchgeführt. Zusammenfassend werden die verschiedenen Konzepte anhand der charakteristischen Resonatorgrößen verglichen und ein Ausblick auf weiterführende Arbeiten gegeben.
The present work deals with photoionization in the realm of the absorption of one single photon. The formal treatment of one-photon ionization usually employs a semi-classical approach, where the electron’s initial and final states are described as quantum-mechanical wave functions but the photon is treated as a classical electromagnetic wave. In the calculation of photoionization cross sections with this semi-classical method, there is an often used approximation which is called the electric dipole approximation. Mathematically, the application of the dipole approximation corresponds to truncating the series expansion of an exponential after the leading term. Physically, this means neglecting the linear photon momentum and the spatial dependence of the light field. The dipole approximation is valid if the wavelength of the light is much larger than the spatial extent of the target and if the photon momentum is small compared to the momenta of the reaction products, which is generally the case for photon energies short above the electron binding energy.
For the present work, we experimentally investigated nondipolar photoionization, i.e., one-photon ionization at high photon energies where the dipole approximation breaks down. In our experiments, we irradiated single atoms and molecules with such high-energetic photons and measured the three-dimensional momentum distributions of the reaction fragments to uncover the effects of the linear photon momentum and the spatially-dependent light field on photoionization. Our observations allow the first profound insight into photoionization that reveals all photon properties, i.e., photon energy, spin, linear momentum, and the speed of light. Hopefully, our efforts make a constructive contribution to the understanding and the further exploration of light-matter interaction.