Institutes
Refine
Year of publication
- 2021 (104)
- 2023 (90)
- 2022 (89)
- 2020 (43)
- 2019 (42)
- 2014 (35)
- 2017 (34)
- 2012 (30)
- 2018 (28)
- 2013 (24)
- 2016 (17)
- 2015 (16)
- 2024 (11)
- 2004 (10)
- 1962 (9)
- 1954 (8)
- 2003 (8)
- 2011 (8)
- 2008 (7)
- 2010 (6)
- 1957 (5)
- 1958 (5)
- 1959 (5)
- 1971 (5)
- 1978 (5)
- 1953 (4)
- 1956 (4)
- 1960 (4)
- 1965 (4)
- 1966 (4)
- 1974 (4)
- 2001 (4)
- 2005 (4)
- 2006 (4)
- 1950 (3)
- 1952 (3)
- 1961 (3)
- 1967 (3)
- 1972 (3)
- 1977 (3)
- 2002 (3)
- 2007 (3)
- 2009 (3)
- 1947 (2)
- 1973 (2)
- 1975 (2)
- 1976 (2)
- 1999 (2)
- 1928 (1)
- 1949 (1)
- 1951 (1)
- 1955 (1)
- 1963 (1)
- 1964 (1)
- 1968 (1)
- 1969 (1)
- 1980 (1)
- 1982 (1)
- 1990 (1)
- 2000 (1)
Document Type
- Article (407)
- Doctoral Thesis (223)
- Preprint (43)
- Conference Proceeding (17)
- Master's Thesis (12)
- Bachelor Thesis (9)
- Contribution to a Periodical (9)
- Book (5)
- Habilitation (3)
- Other (1)
Has Fulltext
- yes (731)
Is part of the Bibliography
- no (731) (remove)
Keywords
- Relativistic heavy-ion collisions (7)
- ALICE (5)
- Black holes (5)
- FEBID (5)
- Heavy-ion collisions (5)
- LHC (5)
- Toroidales Magnetfeld (5)
- Equation of state (4)
- Fluctuations (4)
- HADES (4)
Institute
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
In this thesis we work on the theoretical description of relativistic heavy-ion collisions, focussing on electromagnetic probes. We present mainly four topics: electric conductivity and diffusion properties of the hot plasma and hadronic matter, response of the quark-gluon plasma to external magnetic fields, direct photon production in the quark-gluon plasma and a study about initial and final state effects in small systems. The latter topic aims, i.a., at a better understanding of the initial state, which is crucial for electromagnetic probes. In all research areas we make use of the Boltzmann transport equation, whereby the presented methods provide analytical and numerical solutions. We pay particular attention to the construction of complete leading order photon production processes in numerical transport simulations of the quark-gluon plasma.
To begin with, our findings are the complete conserved charge diffusion matrix and electric conductivity. Those properties are important ingredients, e.g., for future simulations of baryon rich collisions. Next, we find that the influence of external magnetic fields to the QGP dynamics is not quantifiable in observables.
We present results for a variety of direct photon observables and we can partly explain experimental data. We emphasize the importance of the chemical composition and non-equilibrium nature of the medium to the direct photon puzzle. Lastly, we observe the interesting dynamic behavior of azimuthal correlations in small systems and identify signatures of the initial state in final observables. This will also be of interest for more precise simulations of electromagnetic probes and allows for various future studies.
The Generalized Uncertainty Principle (GUP) arises from Quantum Gravity thought experiments and contains a minimal lenght. In this thesis I calculate Schwarzschild Black Holes that are modified by the GUP. These Black Holes have the property, that their temperature does not diverge for small masses, although they still posses a curvature singularity. I calculate analytically that in more than 3+1 dimensions the temperature diverges again.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Terahertz (THz) physics are an emerging field of research dealing with electromagnetic radiation in the far-infrared to microwave region. The development of innovative technologies for the generation and detection of THz radiation has only in the recent past led to a tremendous rise of both fundamental research as well as investigation of possible fields of application for THz radiation. The most prominent reason has long been the scarce accessibility of the THz region of the electromagnetic spectrum - commonly loosely located between 0.1 and 30 THz - to broad research, and it was mostly limited to astronomy and high energy physics facilities. Over the recent years, numerous novel concepts on both the source and detector side have been proposed and successfully implemented to overcome this so-called THz gap. New technology has become available and paved the way for wide-spread experimental laboratory work and accompanying theoretical investigations. First application studies have emerged and in some cases even commercial development of the field of THz physics is on the rise. Despite these enormous progresses, a continuing demand for more efficient THz detectors still impels current technological research. Relatively low source powers are often a major limiting factor and the request for new detection concepts, their understanding and implementation, as well as the optimization on a device basis has been and still remains in place. One of these concepts is the use of field-effect transistors (FETs) high above their conventional cut-off frequencies as electronic THz detectors. The concept has been proposed in a number of theoretical publications by M. Dyakonov and M. Shur in the early 1990's, who pioneered to show that under certain boundary conditions, non-linear collective excitations of the charge carrier system of a two-dimensional electron gas (2DEG) by incident THz radiation can exhibit rectifying behaviour - a detection principle, which has become known as plasma wave or plasmonic mixing. Up until this day, the concept has been successfully implemented in many device realizations - most advanced in established silicon CMOS technology - and stands on the edge of becoming commercially available on a large scale. The main direction of the work presented in this thesis was the modeling and experimental characterization of antenna-coupled FETs for THz detection - termed TeraFETs in this and the author's previous works - which have been implemented in different material systems. The materials presented in this thesis are AlGaN/GaN HEMTs and graphene FETs. In a number of scientific collaborations, TeraFETs were designed based on a hydrodynamic transport model, fabricated in the respective materials, and characterized mainly in the lower THz frequency region from 0.2 to 1.2 THz. The theoretical description of the plasma wave mixing mechanism in TeraFETs, as initiated by Dyakonov and Shur, was based on a fluid-dynamic transport model for charge carriers in the transistor channel. The THz radiation induces propagating charge density oscillations (plasma waves) in the 2DEG, which via non-linear self-mixing cause rectification of the incident THz signals. Over the course of this work, it became evident in the on-going detector characterization experiments that this original theoretical model of the detection process widely applied in the respective literature does not suffice to describe some of the experimental findings in TeraFET detection signals. Thorough measurements showed signal contributions, which are identified in this work to be of thermoelectric origin arising from an inherent asymmetric local heating of charge carriers in the devices. Depending on the material, these contributions constituted a mere side effect to plasmonic detection (AlGaN/GaN) or even reached a comparable magnitude (graphene FETs). To include these effects in the detector model, the original reduced fluid-dynamic description was extended to a hydrodynamic transport model. The model yields at the current stage a reasonable qualitative agreement to the measured THz detection signals. This thesis presents the formulation of a hydrodynamic charge carrier transport model and its specific implementation in a circuit simulation tool. A second modeling aspect is that the transport equations cover only the intrinsic plasmonic detection process in the active gated part of the TeraFET's transistor channel. In order to model and simulate the behavior of real devices, extrinsic detector parts such as ungated channel regions, parasitic resistances and capacitances, integrated antenna impedance, and others must be considered. The implemented detector model allows to simulate THz detection in real devices with the above influences included. Besides presentation of the detector model, experimental THz characterization of the fabricated TeraFETs is presented in this work. Careful device design yielded record detection performance for detectors in both investigated materials. The respective results are shown and the experimental observations of the thermoelectric effect in TeraFETs are compared to modeling results. It is the goal of this work to provide a framework for further theoretical and experimental studies of the plasmonic and thermoelectric effect in TeraFETs, which could eventually lead to a new type of THz detectors particularly exploiting the thermoelectric effect to enhance the sensitivity of today's plasmonic TeraFETs.
Zur Unterstützung von Lehrkräften bei der Auswahl eines Sachunterrichtsschulbuchs im Hinblick auf die didaktische Aufbereitung physikalischer Themen wurde ein bereits bestehendes und in der Schweiz eingesetztes Schulbuchraster weiterentwickelt. Die ergänzenden Bewertungskriterien berücksichtigen, inwieweit die Schulbücher physikalische Inhalte in einer Weise präsentieren, dass a) häufige Präkonzepte der Schülerinnen und Schüler aufgegriffen, b) Inhalte strukturiert dargestellt werden, c) multiple externe Repräsentationen zum Einsatz kommen, d) Selbsterklärungen angeregt wie auch e) offene Schülerexperimente angeboten werden. Zudem sollten f) für die Lehrkräfte Zusatzmaterialen mit fachwissenschaftlichen und fachdidaktischen Erläuterungen zur Verfügungen stehen. Ergänzende Erläuterungen der Rasterkriterien sollen eine möglichst objektive Beurteilung unterstützen. Anhand dieses weiterentwickelten Rasters wurden exemplarisch die 2017 in Hessen zugelassenen Sachunterrichtsschulbücher analysiert.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
Gabor lenses were invented for focusing hadron beams by the electric field of a confined electron column. A homogenous magnetic field created by a solenoid confines electrons in transverse direction while a potential well created by a cylindrical electrode system confines them longitudinally.
In this thesis the investigation and characterization of a nonneutral electron plasma (NNP) in a Gabor lens with a toroidal magnetic confinement and a 30 degree-bent anode is presented. Motivated by fundamental research on NNPs in this special environment, diagnostic methods were investigated to characterize the plasma. As a non-invasive method a PCO camera is placed in front of the experimental setup. A ring of 31 photodiodes is used inside the plasma for light intensity and distribution measurements. The experimental data is evaluated and the following results will be presented.
The theory of strong interactions — Quantum Chromodynamics (QCD) — is well-defined mathematically. However, direct applications of this theory to experiment are rather limited due to significant technical obstacles. Even some general features of QCD remain unclear to date.
Hence, phenomenological input is important and needed for practical applications, e.g. for theoretical analysis of the heavy-ion collision experiments. In this thesis the role of hadronic interactions is studied in the hadron resonance gas (HRG) model — a popular model for the confined phase of QCD. The description of hadronic interactions is based on the famous van der Waals (VDW) equation and its quantum statistical generalization. While this is not the conventional choice for nuclear/hadronic physicspplications, the simplicity of the VDW approach makes it extremely useful.
In particular, this framework allows to include the two most basic ingredients of hadron-hadron interaction: the short-range repulsion, modeled by excluded-volume (EV) corrections, and the intermediate range attraction. The first part of the thesis considers just the repulsive EV interactions between hadrons. A hitherto unknown, but surprisingly strong sensitivity of the long known thermal fits to heavy-ion hadron yield data to the choice of hadron eigenvolumes is uncovered. It challenges the robustness of the chemical freeze-out temperature and baryochemical potential determination from the thermal fits. However, at the same time, the extracted value of the entropy per baryon is found to be a robust observable which depends weakly on this systematic uncertainty of the HRG model.
A Monte Carlo procedure to treat EV interactions in HRG is also introduced in this thesis. It allows to study simultaneous effects of EV and of exact charge conservation in HRG for the first time. Generalizations of the classical VDW equation are required for its applications in hadronic physics. he grand canonical ensemble (GCE) formulation of the classical VDW equation is presented. Remarkably, this important aspect of the VDW equation was not discovered before. The GCE formulation yields the analytic structure of the critical fluctuations, both in the vicinity of and far off the critical point. These critical fluctuations are presently actively being used as probes for the QCD critical point. Another extension is the hitherto undiscovered generalization of the VDW equation to include quantum Bose-Einstein and Fermi-Dirac statistics. It is performed for both single-component and multi-component fluids. The Fermi-Dirac VDW equation is applied for the first time. It is used to describe nucleons and basic properties of nuclear matter. The quantum statistical generalization of the VDW equation developed in this work is quite general, and can be applied for any fluid. Thus, its applications are not restricted to QCD physics, but may also find themselves in chemistry and/or industry. The quantum statistical VDW equation is used to describe baryonic interactions in full HRG. The VDW parameters $a$ and $b$ are fixed to the nuclear ground state and the predictions of the model are confronted with lattice QCD calculations. The inclusion of baryonic interactions leads to a qualitatively different behavior of the fluctuations of conserved charges in the crossover region. In many cases it resembles the lattice data. These results suggest that hadrons do not melt quickly with increasing temperature, as one could conclude on the basis of the common simple ideal HRG model. Calculations at finite chemical potentials show that the nuclear liquid-gas transition manifests itself by non-trivial fluctuations of the net baryon number in heavy ion collisions. In the final part of the thesis the pure glue initial scenario for high-energy hadron and heavy-ion collisions is explored. This scenario is shown not to spoil the existing agreement of the hadronic and electromagnetic observables description in Pb+Pb collisions at energies available at the CERN Large Hadron Collider. Hydrodynamic calculations suggest that collisions of small-sized nuclei at lower collision energies available at the BNL Relativistic Heavy Ion Collider are promising in the search for the traces of the chemically non-equilibrium gluon-dominated phase transition.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Die Arbeit beschäftigt sich mit der Herstellung sowie der strukturellen und magnetischen Charakterisierung von zwei Materialklassen von kupferbasierten zweidimensionalen Quanten-Spin-Systemen: Quadratische Gitter von Dimeren sowie geometrisch frustrierte Kagomé Gitter. In beiden Systemen werden Substitutionen vorgestellt die zu verbesserten Eigenschaften führen.
Im Rahmen dieser Arbeit wird darauf eingegangen, welche Anpassungen erforderlich sind, um Protonendichten vergleichbar zu bereits erzeugten Elektronendichten in Gabor-Linsen zu erhalten. Zur Vorbereitung zukünftiger Experimente werden vergleichende Simulationen zum Einschluss der Ladungsträgerdichten durchgeführt und die Strahldynamik bei der Wechselwirkung eines positiven Ionenstrahls mit einem in einer Gabor-Linse eingeschlossenen Protonenplasma untersucht. Die Ergebnisse der Strahldynamiksimulationen werden mit theoretischen Berechnungen vertieft, in dem die Brennweite einer Gabor-Linse, die mit einer beliebigen Teilchensorte gefüllt ist, berechnet und die Drift-Masse eingeführt wird.
Eine weitere analytische Betrachtung ist die Erweiterung der Teilchendynamik in der Gabor-Linse auf beliebige Anfangsbedingungen, in dem die dazugehörige Differentialgleichung entkoppelt und ganz allgemein gelöst wird. Die daraus berechneten Trajektorien der Teilchen führen zu einem besseren Verständnis, das weitere Anwendungen erschließen könnte.
The topic of this thesis is the investigation of scalar tetraquark candidates from lattice QCD. It is motivated by a previous study originating in the twisted mass collaboration. The initial tetraquark candidate of choice is the $a_0(980)$, an isovector in the nonet of light scalars ($J^P=0^+$). This channel is still poorly understood. It displays an inverted mass hierarchy to what is expected from the conventional quark model and the $a_0(980)$ and $f_0(980)$ feature a surprising mass degeneracy. For this reasons the $a_0(980)$ is a long assumed tetraquark candidate in the literature.
We follow a methodological approach by studying the sensitivity of the scalar spectrum with fully dynamical quarks to a large basis of two-quark and four-quark creation operators. Ultimately, the candidate has to be identified in the direct vicinity of two two-particles states, which is understandably inevitable for a tetraquark candidate. To succeed in this difficult task two-meson creation operators are essential to employ in this channel. By localized four-quark operators we intend to probe the Hamiltonian on eigenstates with a closely bound four-quark structure.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.
Diese Doktorarbeit widmet sich der Untersuchung von Systemen von Quarks und der Wechselwirkung zwischen ihnen mit Hilfe von Lattice QCD. Aus Quarks zusammengesetzte Objekte heißen Hadronen. Ein bestimmter Typ von Hadronen ist das sogenannten Tetraquark. In Teilchendetektoren wie dem LHCb in der Schweiz oder Belle in Japan wurden in jüngerer Zeit Zustände gefunden, die als Kandidaten für Tetraquarks gelten. Diese Arbeit befasst sich mit der Beschreibung und Untersuchung solcher Tetraquark-Zustände. Die Systeme, um die es in dieser Arbeit hauptsächlich geht, enthalten vier Quarks unterschiedlicher Masse. Zwei Quarks wird im Großteil der Arbeit eine unendlich große Masse zugeordnet. Zwei Quarks haben eine endliche Masse. In dieser statisch-leichten Näherung ist es möglich, das Potential der schweren Quarks in Anwesenheit der leichten Quarks zu bestimmen und zu überprüfen, ob es attraktiv genug dazu ist, einen gebundenen Zustand der vier Quarks zu bilden. Dieses Vorgehen ist als Born-Oppenheimer-Approximation bekannt. Die Observable, die berechnet werden muss, ist also das Vier-Quark-Potential.
Im ersten Teil der Arbeit werden verschiedene Vier-Quark-Potentiale aufgeführt und die zugehörigen Quantenzahlen genannt. Jeder der geeigneten Kanäle wird auf seine Fähigkeit untersucht, einen gebundenen Zustand zu bilden. Eine ausführliche systematische und statistische Analyse liefert den eindeutigen Befund, dass Bindung nur für Isospin I = 0 und nichtstatistsche u- und d-Quarks möglich ist. Im Falle von I = 1 oder nichtstatistschen s- und c-Quarks ist kein gebundener Zustand zu erwarten. Schließlich wird für den Fall der u- und d-Quarks eine Extrapolation zu physikalischen Quarkmassen durchgeführt. Die Bindung wird mit abnehmender Quarkmasse stärker. Am physikalischen Punkt wird eine Bindungsenergie von −90(+43−36) MeV festgestellt. Somit wird für Quantenzahlen I(J^P) = 0(1^+) ein gebundener b̄b̄ud-Zustand postuliert. Im zweiten Teil der Arbeit wird die statisch-leichte Näherung aufgehoben. So kann der Spin der schweren Quarks einbezogen werden. Dies führt unter anderem dazu, dass B- und B* -Mesonen unterscheidbar werden. Ein Nachteil dessen, dass vier Quarks endlicher Masse verwendet werden, ist der, dass es nun nicht mehr möglich ist, das Potential der schweren Quarks in Gegenwart der leichten zu bestimmen. Stattdessen wird aus der Korrelationsfunktion des Vier-Quark-Zustands direkt die Masse bestimmt. Zur Beschreibung der schweren Quarks wird der Ansatz der Nichtrelativistischen QCD (NRQCD) gewählt. Es wird der aus dem ersten Teil bekannte gebundene b̄b̄ud-Zustand mit Quantenzahlen I(J^P) = 0(1^+) weiter untersucht. Wir nehmen an, dass die Quantenzahlen durch ein BB*-Molekül realisiert werden. Wir bestimmen mithilfe des generalisierten Eigenwertproblems (GEP) den Grundzustand. Die Masse des Grundzustands ist ein Hinweis auf die Existenz eines gebundenen Zustands. Insgesamt bekräftigt der Befund das im ersten Teil der Arbeit gefundene Resultat, die Vorhersage eines bisher nicht gemessenen Tetraquark-Zustandes, qualitativ. Im dritten Teil der Arbeit geht es um Vier-Quark-Systeme, die ein schweres Quark und ein schweres Antiquark sowie ein leichteres Quark und ein leichteres Antiquark enthalten. Neben einem gebundenen Vier-Quark-Zustand ist u.a. die Bildung eines Bottomonium-und-Pion-Zustands möglich. Dies macht die theoretische Beschreibung dieses Systems ungleich schwieriger als die Beschreibung des im ersten und zweiten Teil der Arbeit untersuchten Systems. Seine experimentelle Untersuchung hingegen ist weniger aufwändig. So wurden bereits Kandidaten für einen solchen Zustand gemessen: Z_b(10610) und Z_b(10650). Zunächst wird ein Szenario beschrieben, in welcher Reihenfolge die zu den verschiedenen Strukturen gehörenden Potentiale vorliegen. So handelt es sich bei dem Grundzustandspotential des Systems um das Potential eines unangeregten Bottomonium-Zustands mit einem Pion in Ruhe. Darüber liegen zahlreiche Bottomonium-Zustände mit Pionen mit endlichem Impuls. Inmitten dieser Potentiale liegt gegebenenfalls das gesuchte Tetraquark-Potential. Ziel ist, einen Weg zu finden, die Bottomonium-und-Pion-Potentiale und das Tetraquark-Potential voneinander zu unterscheiden. Im ersten Schritt wird der Bottomonium-und-Pion-Grundzustand mithilfe des GEP aus dem System entfernt. Der erste angeregte Zustand ist im Anschluss daran weitgehend frei von Einflüssen des Grundzustands. Man findet, dass das Potential des ersten angeregten Zustandes attraktiv ist, sodass die Bildung eines Tetraquark-Zustandes nicht ausgeschlossen ist. Um den ersten angeregten Zustand weiter zu untersuchen, wird ein quantenmechanisches Modell verwendet, das die Volumenabhängigkeit des Überlapp eines Testzustands mit den verschiedenen Strukturen beschreibt. Es damit prinzipiell möglich, unter Zuhilfenahme mehrerer Gittervolumina eine Aussage über die Struktur des ersten angeregten Zustands zu treffen.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
QCD matter is expected to exist in different phases, when heated to high temperatures and getting highly compressed. Each phase could be characterized by distinct properties. A way to access extreme phases of matter in the laboratory are heavy-ion collisions at (ultra-)relativistic energies. During the collision, the temperature and density is evolving and reaches a maximum temperature and density far beyond the ground state of matter. The matter properties depend on the incident collision energy. Typically, a collision is separated into three collisions stages, namely first chance collisions (I), hot and dense stage (II) and freeze-out stage (III). Out of those, the second one is of major interest, since the extreme states of matter are generated within. For this reason, the most prominent change of the hadrons is expected to appear there in. Those changes are caused by i.e. modification of the hadronic spectral function. However, to retrieve such information is complicated. Hadrons are strongly interacting particles and therefore, carry little information about the hot and dense stage. For that purpose, decays of hadrons (low-mass vector mesons) to e+e- pairs via a virtual photon, so-called dielectrons, are an ideal probe. Electrons and positrons do not interact strongly and transport the information about the hot and dense stage nearly undisturbed to the detector. Unfortunately, the production of dielectrons is suppressed by a branching ratio of ≈ 10^(-5) and requires a precise lepton identification. Nonetheless, previous experiments have extracted a dilepton signal and observed in the low-mass range an excess over the hadronic cocktail. Latter one is expected to be caused by thermal radiation induced by the medium. Up to now, experiments conducted dilepton measurements with a focus on larger collision energies and large collision systems. Measurements of dielectrons at collision energies of around 1-2A GeV were only conducted for small and medium size collision systems. HADES continued the systematic studies by a measurement of Au+Au collisions at 1.23A GeV.
The detection of dielectrons requires detectors that handle high data rates and specific detectors for a high purity lepton identification. In HADES, the strongest separation of electrons or positrons from the hadronic background is provided by a ring imaging Cherenkov detector (RICH). Its electron identification is based on Cherenkov photons, that are emitted in ring like patterns. In this work a new approach, using the time-of-flight information to preselect electrons and the reconstructed particle trajectory to estimate ring positions, is utilized to improve the lepton identification. The concept of the so-called backtracking algorithm will be explained and applied to e+e- identification in Au+Au collisions. The whole analysis chain comprises single lepton identification, pair reconstruction and correction for efficiency and acceptance losses. The final pair spectra will be presented in form of their invariant mass, pt, mt and helicity distributions. Subsequently, transport model calculations as well as results from the recently developed coarse-grained transport approach will be compared to the dielectron spectra. Moreover, the centrality dependence of the excess yield and true (not "blue-shifted") temperature of the fireball will be presented. The results will be put in context to measurements of lighter collisions systems and at higher energies.
In this thesis, we study some features of the quantum chromodynamics (QCD) phase diagram at purely imaginary chemical potential using lattice techniques. This is one of the possible methodologies to get insights about the situation at finite density, where the sign problem prevents direct investigations from first principles.
We focus, in particular, on the Roberge-Weiss plane, where the phase structure with two degenerate flavours is studied both in the light and in the heavy quark mass limit. On the lattice, any result is affected by cut-off effects and so are the positions of the two tricritical points m_{tric}^{1,2} separating the second-order intermediate mass region from the first-order triple light and heavy mass regions. Therefore, changing the lattice spacing 'a', the values of m_{tric}^1 and m_{tric}^2 will change. In order to find their position in the continuum limit – i.e. for 'a' going to 0 – they have to be located on finer and finer lattices. Typically, in lattice QCD (LQCD) simulations, the temperature T is tuned through the bare coupling β, on which 'a' depends, while keeping Nt fixed. Hence, it is common to implicitly refer to how fine the lattice is just mentioning its temporal extent.
Using both Wilson and staggered fermions, we simulate Nf=2 QCD on Nt=6 lattices, varying the quark bare mass from the chiral (m_{u,d} going to 0) to the quenched (m_{u,d} going to infinity) limit. For each quark mass, a thorough finite scaling analysis is carried out, taking advantage of two different but consistent methods. In this way we identify the order of the phase transition locating, then, the position of the tricritical points. In order to convert our measurements to physical units we fix the scale measuring the lattice spacing as well as the pion mass corresponding to the quark bare mass used. This allows a comparison between different discretisation, getting a first idea of how serious are cut-off effects.
To be able to make a comparison between two different discretisations, we added an RHMC algorithm with staggered fermions to the CL2QCD software, a GPU code based on OpenCL, which we released in 2014. A considerable part of our work has been invested in ameliorating and optimising CL2QCD, as well as in developing new analysis tools regularly used next to it. Just to mention one, the multiple histogram method has been implemented in a completely general way and we took advantage of it in order to obtain more precise results. Finally, in order to efficiently handle and monitor the hundreds of simulations that are typically concurrently run in finite temperature LQCD, a completely new Bash library of tools has been developed. We plan to release it as a byproduct of CL2QCD in the near future.
Cleaning an ion beam from unwanted fractions is crucial for intense ion beams. This thesis will explore separation methods using a collimation channel, electric and magnetic dipoles and a velocity selector for low intensity beams on an experimental basis. In addition, statistical data of degassing events during the commissioning of a pentode extraction system for beam energies from 20 - 120keV will be presented.
The aim of this thesis is finding a geometric configuration that allows electron insertion into a Gabor plasma lens in order to increase the density of the confined electrons and provide ignition conditions at parameters where ignition is not possible. First, simulations using CST and bender were conducted to investigate several geometric configurations in terms of their performance of inserting electrons manually. One particular design has been chosen as a basis for an experiment. In order to prepare the experiment, further simulations using the code bender have been conducted to investigate the density distribution that is formed inside the Gabor lens when inserting electrons transversally in compliance with the chosen design. Additionally, bender was used to investigate the impact of the initial electron energy on the distribution inside the lens. Simulations with and without space charge effects have shown a significant impact of the space charge effects on the resulting density dstribution. Therefore, space charge effects have proven to be the major electron redistribution process. A given electron source was characterised in order to find the performance under the conditions inside a Gabor lens. In particular, a transversal magnetic field that will be present in the experiment has to be compensated by shielding the inner regions of the source by a μ-metal layer. Using a μ-metal shield, transversal magnetic fields are sufficiently tolerable to perform measurements in a Gabor lens. Additionally, operating close to 100 eV electron energy yields a maximum in the emitted current. Adding a Wehnelt cylinder to the electron source furthermore improves the extracted current to roughly 1 mA. A test stand consisting of a newly designed anode for the Gabor lens, as well as a terminal for the electron source, was constructed. The electron source was thoroughly characterised in the environment of the Gabor lens and the ignition properties of the new system were evaluated. In further experiments, electron beam assisted ignition by increasing the residual gas pressure was observed and the impact of the position of the electron source on the ignition properties was investigated. In addition, ignition of a sub-critical state, that is a state consisting of potential, magnetic field and pressure that did not yet perform ignition by itself, was performed by increasing the extracted current from the electron source. Finally, the electron source was used to influence a pre-ignited plasma. The density was measured, which was increased by the use of the electron source in most cases. This project is part of the EDEN collaboration (Electron DENsity boosting) of the NNP Group at IAP Frankfurt with INFN institutes in Bologna and Catania.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
Bei der Ionenstrahltherapie bestimmt die Energie der Ionen die Eindringtiefe in das Gewebe und damit die Lage des Braggpeaks, in dem der größte Teil der Ionisationsenergie deponiert wird.
Um die gewünschte Dosis möglichst genau im Tumor zu lokalisieren, müssen in den aufeinanderfolgenden Extraktionen die gewünschten unterschiedlichen Energien möglichst genau sein.
In der Beschleunigungsphase werden die Magnetfelder der Magnete im Synchrotron bis zum vorgegebenen Exktraktionswert hochgefahren. Dieser bestimmt zusammen mit der Synchrotronfrequenz die Strahlenergie. Während und insbesondere am Ende dieser Phase, Rampe genannt, sollte das Magnetfeld daher sehr genau dem berechneten Sollwert folgen, um Strahlverluste zu minimieren und die geforderte Strahlqualität zu erreichen.
In der zeitlichen Steuerung der Magnetströme müssen magnetische Effekte, die hauptsächlich im Eisen der Magnete auftreten, wie Wirbelströme und die Hysterese berücksichtigt werden, da sie das Feld verfälschen und damit den Strahl in unerwünschter Weise beeinflussen. Die während der Rampe entstehenden Wirbelströme stören das Magnetfeld, so dass bisher vor der Extraktion des Strahls eine Wartezeit eingeführt wurde, bis die Wirbelströme abgeklungen waren.
Bei beliebig wählbaren Abfolgen der vordefinierten Zyklen kommt es durch die Hysterese des Eisens zu unterschiedlichen Remanenzfeldern, die das Magnetfeld verändern. Um dem vorzubeugen, durchliefen die Magnete eine vordefinierte Hystereseschleife. Ist die geforderte Energie des Strahls erreicht, wird das Magnetfeld konstant gehalten und die Teilchen aus dem Synchrotron extrahiert. Der Rest der Hystereseschleife wurde am Ende des Zyklus durchlaufen.
Die im Rahmen dieser Dissertation entwickelte dynamische Magnetfeldregelung misst das integrale Magnetfeld sehr genau und korrigiert die Feldfehler. Das integrale Magnetfeld folgt damit jederzeit seiner Vorgabe, unabhängig von den dynamischen Störeffekten. Die Wirbelströme und die Hysterese sind zwar immer noch vorhanden, die dadurch verursachten Feldfehler können aber durch eine Rückkopplung auf den Strom des Magneten korrigiert werden.
Es werden verschiedene Verfahren zur Messung der Magnetfelder untersucht. Am besten eignet sich für die dynamische Magnetfeldregelung die Kombination aus einer Hallsonden- und einer Induktionsspulenmessung. Die Messung muss das integrale Magnetfeld des Magneten BL, also das gesamte Feld entlang des Strahlwegs, bestimmen. Die Induktionsspule, oder Pickupspule, liegt deshalb entlang des Strahlrohrs im Magneten und liefert eine Spannung in Abhängigkeit von der Änderung des magnetischen Flusses. Durch die Integration dieser Spannung erhält man das integrale Feld des Magneten. Die Messung wird mit einer Hallsondenmessung zu Beginn des Beschleunigerzyklus auf einen absoluten Messwert geeicht.
Der Hauptteil dieser Arbeit beschäftigt sich mit der Entwicklung des sogenannten HIT Integrators, der die Integration der Pickupspulenspannung übernimmt. Bisher verfügbare Integratoren konnten die notwendigen Anforderungen an Genauigkeit, Echtzeitfähigkeit, automatische Kalibrierung, ständige Messbereitschaft, Temperaturunabhängigkeit und hohe Verfügbarkeit nicht erfüllen. Der neu entwickelte HIT Integrator wurde diesen Anforderungen entsprechend entwickelt. Der Integrator mit dem neuartigen Konzept der gleichzeitigen Messung und Kalibrierung in Echtzeit ist als Patent angemeldet worden. Neben der Entwicklung und Verwirklichung des Gesamtkonzepts war die numerische Integration des stark verrauschten Pickupspulensignals und die sofortige Umsetzung des integralen Werts in ein Steuersignal für die Dipolmagnetstromgeräte eine besondere technische Herausforderung.
Die elektronischen Schaltungen für die dynamische Magnetfeldregelung sind in der Baugruppe des HIT Integrators zusammengefasst. Die Ansteuerung der Hallsonde mit einer temperaturkompensierten Stromquelle, der Signalaufbereitung und Analog-Digital-Wandlung, sowie der Integrator und der Regler bilden eine technische Einheit.
Der HIT Integrator ist speziell für den Einsatz im bestehenden Beschleunigerkontrollsystem und den Magnetnetzgeräten entwickelt worden.
Die Regler der Magnetnetzgeräte wurden so verändert, dass sie einen Zusatzsollwert verarbeiten können, der auf den berechneten Sollwert der Datenversorgung addiert wird.
Die Magnetfeldregelung wurde in den Therapiebeschleuniger integriert, dazu wurde die Datenversorgung und das Kontrollsystem angepasst. Die Magnetfeldregelung stellt ein neues Gerät im Beschleuniger dar, das in die Netzgeräte der Synchrotronmagnete eingebaut worden ist. Die Datenversorgung dieser Geräte beinhaltet u.a. eine neue Methode der Kalibrierung.
Es konnte durch Messungen gezeigt werden, dass die Magnetfeldregelung mit hoher Genauigkeit funktioniert. Es wird eine Genauigkeit von besser als 10^{-4} des maximalen Feldes von 1.5 T erreicht, also weniger als 150uT, der dreifachen Stärke des Erdmagnetfelds. Vor allem die Bestrahlungszeit mit Protonen und die Bestrahlung bei niedrigen Energien profitiert von der Magnetfeldregelung, da hier das Extraktionsniveau der Magnete relativ gering ist und das Durchlaufen der vordefinierten Hystereseschleife prozentual mehr Zeit im Zyklus in Anspruch nimmt. Durch den Wegfall dieser Phase wird daher pro Zyklus mehr Zeit eingespart. Die Messungen zeigen, dass im Beschleunigerzyklus trotz der fehlenden Wartezeiten, die bis zu 24% betragen, eine gleichbleibend gute Strahlqualität erreicht wird. Dies wurde mit Vergleichsmessungen gezeigt, bei denen der Strahl mit und ohne Feldregelung vermessen wurde. Untersucht wurde eine große Stichprobenmenge aus dem Parameterraum, gegeben durch zwei Ionensorten mit jeweils 255 Strahlenergien, 10 verschiedenen Teilchenraten und 4 Strahlbreiten. Außerdem wurde die Energie des Strahls nachgemessen.
Für die Einführung in den Therapiebetrieb musste eine Impactanalyse gemacht werden, die mögliche Auswirkungen des neuen Verfahrens behandelt. Das Risiko für Patienten, Mitarbeiter und Dritte darf durch die Magnetfeldregelung nicht erhöht werden. Daraus entstand auch die Forderung nach einem redundanten System, das Fehler erkennt und die Bestrahlung abbricht.
Die mittlere Leistungsaufnahme des Beschleunigers des Heidelberger Ionenstrahltherapiezentrums liegt bei etwa 1 MW, bei einem Jahresenergieverbrauch von 8 GWh mit Kosten von etwa 1 Million Euro. Dies entspricht einer deutschen Kleinstadt mit 10000 Einwohnern. Die Verkürzung der Zykluszeiten wirkt sich direkt auf die Bestrahlungszeit und auf die Energiekosten aus. Würde man die Anlage durch die Zeiteinsparungen kürzer betreiben, würde man etwa 2 GWh pro Jahr sparen, was die Stromkosten um etwa 250000 Euro reduziert.
Zusätzlich zu den eingesparten Kosten wird auch die Bestrahlungszeit kürzer und damit auch die Zeit, die der Patient bei der Behandlung fixiert wird. Die Behandlung für die Patienten wird angenehmer. Man kann aber auch durch die eingesparte Bestrahlungszeit pro Patient entsprechend mehr Patienten behandeln. Das heißt man kann an Stelle von 700 Patienten im Jahr 910 Patienten mit einem Tumor behandeln. Dieser für die Patienten willkommene Effekt bedeutet auf der anderen Seite für HIT aber auch Mehreinnahmen von 4.2 Millionen Euro im Jahr.
Das Konzept der Magnetfeldregelung kann auch an anderen Beschleunigeranlagen zum Einsatz kommen. Dazu müssen die Magnete mit den Sonden bestückt werden und die Magnetnetzgeräte einen Eingang für einen Zusatzsollwert bekommen. Das Beschleunigerkontrollsystem kann erweitert werden, damit es einen Sollwert mit allen notwendigen Kalibrierungen berechnen kann. Der HIT Integrator wird dann als eigenständiges Gerät in das Kontrollsystem eingebunden.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
The PANDA experiment will be one of the flagship experiments at the future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany. It is a versatile detector dedicated to topics in hadron physics such as charmonium spectroscopy and nucleon structure. A DIRC counter will deliver hadronic particle identification in the barrel part of the PANDA target spectrometer and will cleanly separate kaons with momenta up to 3.5 GeV/c from a large pion background. An alternative DIRC design option, using wide Cherenkov radiator plates instead of narrow bars, would significantly reduce the cost of the system. Compact fused silica photon prisms have many advantages over the traditional stand-off boxes filled with liquid. This work describes the study of these design options, which are important advancements of the DIRC technology in terms of cost and performance. Several new reconstruction methods were developed and will be presented. Prototypes of the DIRC components have been built and tested in particle beam, and the new concepts and approaches were applied. An evaluation of the performance of the designs, feasibility studies with simulations, and a comparison of simulation and prototype tests will be presented.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
In this work, the complex structure of ionization and dissociation pathways on the potential energy curves in small molecules were investigated that are initiated by the absorption of a sequence of multi-color pulses in the XUV, VUV, and IR spectrum. Femtosecond pump-probe spectroscopy was used to track the evolution of nuclear dynamics in neutral hydrogen molecules. Previously unpublished excitation and ionization pathways leading to the dissociative ionization of hydrogen molecules were investigated by employing 3D momentum imaging spectroscopy. These studies were extended to oxygen molecules where an XUV attosecond pulse train coherently ionized several electronic states of O2+ followed by the dissociation of the molecule via multiple pathways. The infrared electric field of the driving laser was then used to couple the electronic and nuclear wave-packets, thus, manipulating the dissociation dynamics of the molecule on an attosecond time scale.
In order to perform the experiments presented here, a novel experimental setup was developed and constructed. It combines an existing high-flux High Harmonic Generation light source that delivers attosecond pulse trains in the VUV and XUV spectrum with a state-of-the-art 3D momentum imaging apparatus (COLTRIMS), as well as a beamline consisting of several experimental tools enabling the selection, characterization, and propagation of the photon spectrum.
The phenomenon of magnetism has been known to humankind for at least over 2500 years and many useful applications of magnetism have been developed since then, starting from the compass to modern information storage and processing devices. While technological applications are an important part of the continuing interest in magnetic materials, their fundamental properties are still being studied, leading to new physical insights at the forefront of physics. The magnetism of magnetic materials is a pure quantum effect due to the electrons that carry an intrinsic spin of 1/2. The physics of interacting quantum spins in magnetic insulators is the main subject of this thesis.We focus here on a theoretical description of the antiferromagnetic insulator Cs2CuCl4. This material is highly interesting because it is a nearly ideal realization of the two-dimensional antiferromagnetic spin-1/2 Heisenberg model on an anisotropic triangular lattice, where the Cu(2+) ions carry a spin of 1/2 and the spins interact via exchange couplings. Due to the geometric frustration of the triangular lattice, there exists a spin-liquid phase with fractional excitations (spinons) at finite temperatures in Cs2CuCl4. This spin-liquid phase is characterized by strong short-range spin correlations without long-range order. From an experimental point of view, Cs2CuCl4 is also very interesting because the exchange couplings are relatively weak leading to a saturation field of only B_c=8.5 T. All relevant parts of the phase diagram are therefore experimentally accessible. A recurring theme in this thesis will be the use of bosonic or fermionic representations of the spin operators which each offer in different situations suitable starting points for an approximate treatment of the spin interactions. The methods which we develop in this thesis are not restricted to Cs2CuCl4 but can also be applied to other materials that can be described by the spin-1/2 Heisenberg model on a triangular lattice; one important example is the material class Cs2Cu(Cl{4-x}Br{x}) where chlorine is partially substituted by bromine which changes the strength of the exchange couplings and the degree of frustration.
Our first topic is the finite-temperature spin-liquid phase in Cs2CuCl4. We study this regime by using a Majorana fermion representation of the spin-1/2 operators motivated by theoretical and experimental evidence for fermionic excitations in this spin-liquid phase. Within a mean-field theory for the Majorana fermions, we determine the magnetic field dependence of the critical temperature for the crossover from spin-liquid to paramagnetic behavior and we calculate the specific heat and magnetic susceptibility in zero magnetic field. We find that the Majorana fermions can only propagate in one dimension along the direction of the strongest exchange coupling; this reduction of the effective dimensionality of excitations is known as dimensional reduction.
The second topic is the behavior of ultrasound propagation and attenuation in the spin-liquid phase of Cs2CuCl4, where we consider longitudinal sound waves along the direction of the strongest exchange coupling. Due to the dimensional reduction of the excitations in the spin-liquid phase, we expect that we can describe the ultrasound physics by a one-dimensional Heisenberg model coupled to the lattice degrees of freedom via the exchange-striction mechanism. For this one-dimensional problem we use the Jordan-Wigner transformation to map the spin-1/2 operators to spinless fermions. We treat the fermions within the self-consistent Hartree-Fock approximation and we calculate the change of the sound velocity and attenuation as a function of magnetic field using a perturbative expansion in the spin-phonon couplings. We compare our theoretical results with experimental data from ultrasound experiments, where we find good agreement between theory and experiment.
Our final topic is the behavior of Cs2CuCl4 in high magnetic fields larger than the saturation field B_c=8.5 T. At zero temperature, Cs2CuCl4 is then fully magnetized and the ground state is therefore a ferromagnet where the excitations have an energy gap. The elementary excitations of this ferromagnetic state are spin-flips (magnons) which behave as hard-core bosons. At finite temperatures there will be thermally excited magnons that interact via the hard-core interaction and via additional exchange interactions. We describe the thermodynamic properties of Cs2CuCl4 at finite temperatures and calculate experimentally observable quantities, e.g., magnetic susceptibility and specific heat. Our approach is based on a mapping of the spin-1/2 operators to hard-core bosons, where we treat the hard-core interaction by the self-consistent ladder approximation and the exchange interactions by the self-consistent Hartree-Fock approximation. We find that our theoretical results for the specific heat are in good agreement with the available experimental data.
Within this thesis, the mechanical integration of the Micro Vertex Detector (MVD) of the Compressed Baryonic Matter (CBM) experiment is developed. The CBM experiment, which is being set up at the future FAIR facility, aims to investigate the phase diagram of strongly interacting matter in the regime of high net-baryon densities and moderate temperatures. Heavy-ion collisions at beam energies in the range of 2 to 45 AGeV, complemented by results from elementary reactions, will allow access to these conditions. The experiments conducted at LHC (CERN, Switzerland) and at RHIC (BNL, USA = does not apply within the Beam Energy Scan program) so far focus on the investigation of the phase diagram in the regime of high temperatures and vanishing net-baryon densities. The high beam intensities provided by FAIR will enable CBM to focus its experimental program on systematical studies of rare particles. Among other particle species, open charm-carrying particles are one of the most promising observables to investigate the medium created in heavy-ion collisions since their charm quarks are exposed to the medium and traverse its whole evolution. The fact that the decay particles of these rare observables are also produced abundantly in direct processes in heavy-ion collisions results in a huge combinatorial background which attributes specific requirements to the detector systems. The call for a high interaction rate leads to a cutting-edge detector system which provides an excellent spatial resolution, thin detector stations and the capability to cope with the induced radiation as well as the high rate of traversing particles and the resulting track density. The required demands are to be implemented by the MVD which will be equipped with four planar stations positioned at 50, 100, 150 and 200 mm downstream the target. The geometrical acceptance, which has to be covered with charge-sensitive material, is defined according to the requirements of CBM in the polar angle range of [2.5°; 25°]. The MVD stations have to contribute as little as possible to the overall material budget. The expected beam intensity and the vicinity close to the target require silicon detectors that provide a hardness against non-ionizing radiation of more than 10^13 n_eq/cm² and against ionizing radiation of more than 1 Mrad. In addition, the read-out time of the sensors has to be as short as possible to avoid potential ambiguities in the particle tracking caused by the pile-up of hits having emerged from different collisions. For the time being, Monolithic Active Pixel Sensors (MAPS) offer the optimal choice of technology required to address the physics program of CBM with respect to the spectroscopy of open charm and di-electrons. The geometrical properties of these sensors define the layout of the detector. To limit the multiple scattering of the produced particles inside the geometrical acceptance, the sensors and the MVD have to operate in a moderate vacuum. The sensors are thinned down to a thickness of 50 µm and, to achieve a maximum polar angle coverage, they are glued onto both sides of dedicated thin carriers. These carriers, which are made of highly thermally conductive materials such as CVD diamond or encapsulated TPG, allow efficient extraction of the power produced in the sensors. This enables their operation at temperatures well below 0 °C as suggested by corresponding radiation hardness studies. Dedicated actively cooled aluminum-based heat sinks are positioned outside of the acceptance to dissipate the heat produced by the sensors and the front-end electronics. The design of the MVD, including the realistic thicknesses of the integrated materials, has been developed and refined in the context of this thesis. It has been transformed into a unique software model which is used to simulate and further optimize the mechanical and thermal properties of the MVD, as well as in sophisticated physics simulations. The model allowed evaluation of the material budget of each individual MVD station in its geometrical acceptance. The calculated averaged material budget values stay well below the material budget target values demanded by the physics cases. The thermal management of the MVD has been simulated on the level of a quadrant of each MVD station – four identically constructed quadrants are forming an MVD station – taking into account material properties of the sensors, the glue and the sensor carrier. The temperature gradients across the pixels of a given sensor area in the direction of the rows and columns were found to be in an acceptable range of below 5 K. A temperature difference between the thermal interface area and the maximum sensor temperature of dT = 5 K on the first and a value of dT = 40 K on the fourth MVD station has been thermally simulated assuming a sensor power dissipation of 0.35 W/cm², highlighting the need to optimize the thermal interface between the involved materials as well as the power dissipation of the sensors. The feasibility of several key aspects required for the construction phase of the MVD has been investigated within the MVD Prototype project. The construction of the MVD Prototype allowed evaluation, testing and validation of the handling and the double-sided integration of ultra-thin sensors – the required working steps for their integration have been specified, evaluated and successfully established – as well as their operation in the laboratory and during a concluding in-beam test using high-energetic pions provided by the CERN-SPS. The thermal characterization of the MVD Prototype during its operation – in a temperature range from [5 °C; 25 °C], not in vacuum – confirmed the corresponding thermal simulations conducted during its design phase and substantiated the results of the thermal simulations for the design of the MVD. The aim of a material budget value of only x/X_0 ~ 0.3% for the MVD Prototype has been accomplished. Analyzing the in-beam data, the nominal sensor performance parameters were successfully reproduced, demonstrating that the proposed integration process does not impair the sensors’ performance. Moreover, no evidence of potential impact on the sensors’ performance arising from mechanical weaknesses of the MVD Prototype mechanics has been found within the analyzed data. Based on the MVD Prototype and the simulations of the material budget as well as the thermal management, this thesis evaluated the work packages, procedures and quality assurance parameters needed to set up the starting version of the MVD and addressed open questions as well as critical procedures to be studied prior to the production phase of the detector, emphasizing the evaluation of the cooling concept in vacuum and the integration of sensors in ladder structures on both sides of the quadrants of the MVD stations.
Am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, wird für die Erweiterung der Forschungsmöglichkeiten am Bau des FAIR Projektes gearbeitet. Hierfür wird unter anderem ein Ringbeschleuniger gebaut (SIS100), der mit 100Tm den bestehenden Ring (SIS18) in magnetischer Steifigkeit ergänzen wird. Um SIS100 an SIS18 anzubinden, wird eine Transferstrecke benötigt, welche den Transfer von Ionen zwischen den Ringen übernimmt. In solchen Transferstrecken werden Quadrupollinsen mit hohen Gradienten benötigt. Ebenso werden für die finale Fokussierung von hochintensiven Strahlpulsen aus Synchrotronen auf Targets Linsen mit hohen Feldgradienten benötigt. Allerdings sind die Pulse nur sehr kurz und das Tastverhältnis bei Synchrotronen sehr klein. Daher sollte ein gepulster Fokussiermagnet entwickelt werden, der den hohen Gradientenanforderungen gerecht wird und sowohl platz- als auch energiesparend ist. Die vorliegende Arbeit befasst sich mit der Auslegung des elektrischen Schaltkreises, der Simulation des Magnetfeldes und der konstruktiven Umsetzung eines solchen gepulsten Quadrupols. Der elektrische Schaltkreis ist so ausgelegt, dass eine hohe Repetitionsrate zur Fokussierung für Teilchenpakete möglich ist. Die Linse wurde aus einer Luftspule ohne Eisenjoch aufgebaut. Die cos(2θ)-Verteilung des Stroms durch die Leiter wurde durch ein Design gesichert, welches den Skin-Effekt berücksichtigt und entsprechend ausgelegte Litzenkabel verwendet. Um die Magnetfeldverteilung des Fokussiermagneten zu untersuchen, wurden statische und transiente Simulationen mit dem Programm CST Mircowave Studio Suite vorgenommen. Zentraler Punkt bei der Neuentwicklung waren die Luftspulen. Um einen linearen Magnetfeldanstieg von der Strahlachse zum Aperturrand zu gewährleisten, muss die Stromverteilung in der Leiterspule so homogen wie möglich sein. Um bei Pulslängen von 170 µsec den Skineffekt zu berücksichtigen, wurde die Leiterspule aus HF-Litzen von je mehreren hundert Einzelleitern zusammengestellt, die jeweils gegeneinander isoliert und in Bündeln miteinander verdrillt sind. Außerdem wurde die Linse mit einer lamellierten Schirmung versehen, um das Magnetfeld effektiv nutzen zu können. Ziel der Auslegung war es, zusammen mit einem zweiten Quadrupol im Duplett einen Strahl mit einer magnetischen Steifigkeit von 11 Tm und einer Bunchlänge von 2µsec auf einen Punkt von 0,5 mm Radius zu fokussieren. Bei dem hierfür angestrebten Gradienten von 76 T/m wird eine maximale Stromamplitude von 400 kA benötigt. Im Rahmen dieser Arbeit wurde die Linse ausgelegt, konstruiert und gebaut. Die Funktionalität wurde untersucht und die Feldqualität wurde vermessen und zeigten die erwarteten Parameter. Bei 26 kA Messstrom wurden im Zentrum des Magneten ein maximaler Gradient von 4,5 T/m und Feldwerte von 0,11 T ermittelt. Somit liegt die Abweichung des gemessenen Gradienten bei ca. 5 %. Die durchgängige Umsetzung der homogenen Verteilung der Leiterbündel in der Luftspule und eine vollständige Kompensation des Skineffekts konnten nicht nachgewiesen werden. Jedoch konnte der Einfluss der Kabelzuleitung des Quadrupols auf den Magnetfeldverlauf in den Simulationen und Messungen nachgewiesen werden. Weiterhin wurde für den energieeffizienten Einsatz im Transferkanal zwischen SIS18 und SIS100 ein Energierückgewinnungsschaltkreis entwickelt, der eine Ersparnis von 84 % der Betriebsleistung ermöglicht.
Die vorliegende Arbeit handelt von der Entwicklung, dem Bau, den Zwischenmessungen sowie den abschließenden Tests unter kryogenen Bedingungen einer neuartigen, supraleitenden CH-Struktur für Strahlbetrieb mit hoher Strahllast. Diese Struktur setzt das Konzept des erfolgreich getesteten 19-zelligen 360 MHz CH-Prototypen fort, der einen weltweiten Spitzenwert in Bezug auf Beschleunigungsspannung im Niederenergiesegment erreichte, jedoch wurden einige Aspekte weiterentwickelt bzw. den neuen Rahmenbedingungen angepasst. Bei dem neuen Resonator wurde der Schwerpunkt auf ein kompaktes Design, effektives Tuning, leichte Präparationsmöglichkeiten und auf den Einsatz eines Leistungskopplers für Strahlbetrieb gelegt. Die Resonatorgeometrie besteht aus sieben Beschleunigungszellen, wird bei 325 MHz betrieben und das Geschwindigkeitsprofil ist auf eine Teilcheneingangsenergie von 11.4 MeV/u ausgelegt. Veränderungen liegen in der um 90° gedrehten Stützengeometrie vor, um Platz für Tuner und Kopplerflansche zu gewährleisten, und in der Verwendung von schrägen Stützen am Resonatorein- und ausgang zur Verkürzung der Tanklänge und Erzielung eines flachen Feldverlaufs. Weiterhin wurden pro Tankdeckel zwei zusätzliche Spülflansche für die chemische Präparation sowie für die Hochdruckspüle mit hochreinem Wasser hinzugefügt. Das Tuning der Kavität erfolgt über einen neuartigen Ansatz, indem zwei bewegliche Balgtuner in das Resonatorvolumen eingebracht werden und extern über eine Tunerstange ausgelenkt werden können. Der Antrieb der Stange soll im späteren Betrieb wahlweise über einen Schrittmotor oder einen Piezoaktor stattfinden. Für ein langsames/ statisches Tuning kann der Schrittmotor den Tuner im Bereich +/- 1 mm auslenken, um größeren Frequenzabweichungen in der Größenordnung 100 kHz nach dem Abkühlen entgegenzuwirken. Das schnelle Tuning im niedrigen kHz-Bereich wird von einem Piezoaktor übernommen, welcher den Balg um einige µm bewegen kann, um Microphonics oder Lorentz-Force-Detuning zu kompensieren. Der Resonator wird von einem aus Titan bestehendem Heliummantel umgeben, wodurch ein geschlossener Heliumkreislauf gebildet wird.
Derzeit befinden sich mehrere Projekte in der Planung bzw. im Bau, welche auf eine derartige Resonatorgeometrie zurückgreifen könnten. An der GSI basiert der Hauptteil des zukünftigen cw LINAC auf supraleitenden CH-Strukturen, um einen Strahl für die Synthese neuer, superschwerer Elemente zu liefern. Weiterhin könnte ein Upgrade des vorhandenen GSI UNILAC durch den Einsatz von supraleitenden CH-Resonatoren gestaltet werden. Zudem besteht die Möglichkeit, die bisherige Alvarez-Sektion des UNILAC alternativ durch eine kompakte, supraleitende CH-Sektion zu realisieren. Ebenfalls sollen die beiden parallelbetriebenen Injektorsektionen des MYRRHA-Projektes durch den Einsatz von supraleitenden CH-Strukturen erfolgen.
The chiral phase transition of Quantum Chromo Dynamics (QCD) is investigated with the help of the linear-sigma model and a numerical transport simulation. The scope are non-equilibrium and critical effects of the different type of orders of the transition. Additionally, a mathematical and numerical method is developed which allows to simulate a particle-wave duality and non-continuous interactions, even for classical systems.
Experiments for p-process nucleosynthesis with special focus on the most abundant p nucleus 92Mo
(2014)
This thesis describes experimental investigations and astrophysical network calculations relevant for the nucleosynthesis of the p nuclei. These 35 proton-rich isotopes cannot be produced by neutron-capture reactions which is the general production mechanism for elements heavier than iron in the r and s processes. Therefore, other mechanisms like photo-disintegration reactions on heavy seed nuclei (γ process) or proton-capture reactions are taken into account.
The modelling of these processes relies on a hugh amount of reactions which mostly occur for unstable isotopes. This demands, in combination with the contribution of excited states to the stellar rate, the prediction of the rates by a suited theoretical approach: the Hauser-Feshbach statistical model. To improve the reliability of the predictions, systematic experimental investigations are performed within this work for the nuclear input to the calculations. The study of charged-particle optical model potentials using the activation approach for the investigation of (α,n) and (p,n) reactions is described as well as the investigation of (γ,n) reactions in a broad mass range of 140 ≤ A ≤ 210.
However, there are also key reactions which are of special interest for the nucleosynthesis of individual p nuclei. An impressive example is the puzzle about the production of the most abundant p nucleus 92Mo. Within this work, the results of an experiment using high-resolution in-beam γ-spectroscopy for the study of the 90Zr(p,γ) reaction are summarized. In addition, the efforts to investigate the 91Nb(p,γ) reaction in standard kinematics by the production of target of the unstable isotope 91Nb to be used with the high-intensity proton-beam provided by the accelerator of FRANZ, Frankfurt, are discussed.
Finally, the influence of experimental results in astrophysical network calculations is discussed using post-processing nucleosynthesis methods for the γ process in type II supernovae.