Institutes
Refine
Year of publication
Document Type
- Article (401)
- Doctoral Thesis (222)
- Preprint (43)
- Conference Proceeding (17)
- Master's Thesis (12)
- Bachelor Thesis (9)
- Contribution to a Periodical (9)
- Book (5)
- Habilitation (3)
- Other (1)
Has Fulltext
- yes (724)
Is part of the Bibliography
- no (724) (remove)
Keywords
- Relativistic heavy-ion collisions (6)
- ALICE (5)
- Black holes (5)
- Heavy-ion collisions (5)
- LHC (5)
- Toroidales Magnetfeld (5)
- Equation of state (4)
- Fluctuations (4)
- HADES (4)
- QCD (4)
Institute
High-energetic heavy-ion collisions offer the unique opportunity to produce and to study dense nuclear matter in the laboratory. The future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany, will provide beams of heavy nuclei up to kinetic energies of 11 GeV/nucleon. At these energies, the nuclear matter in the collision zone of two nuclei will be compressed to densities of up to 5 − 10 times the saturation density of atomic nuclei, similar to matter densities existing in the core of massive neutron stars. Under those conditions, nucleons are expected to melt and form a new state of matter, which consists of quarks and gluons, the so called Quark-Gluon Plasma (QGP). The search for such a phase transition from hadronic to partonic matter, and the exploration of the nuclear matter equation-of-state at high densities are the major goals of heavy ion experiments worldwide.
The observables, which are proposed to probe the properties of dense nuclear matter and possible phase transitions, include multi-strange hyperons, antibaryons, lepton pairs, collective flow of identified particles, fluctuations and correlations of various particles, particles containing charm quarks, and hypernuclei. These observables have to be measured in multi-dimensions, i.e. as function of collision centrality, rapidity, transverse momentum, energy, emission angle, etc., which requires extremely high statistics. Moreover, some of these particles are produced very rarely.
Therefore, the Compressed Baryonic Matter (CBM) experiment at FAIR is designed to run at collision rates of up to 10 MHz, in order to perform measurements with unprecedented precision. Due to the complicated decay topology of many observables, no hardware trigger can be applied, and the data have to be analysed online in order to filter out the interesting events.
This strategy requires free-streaming read-out electronics, which provides time stamps to all detector signals, a high performance computer center, and high-speed reconstruction algorithms, which provide an online track and event reconstruction based on time and position information of the detector hits (”4-D“ reconstruction).
The core detector of the CBM experiment is the Silicon Tracking System (STS). The main task of the STS is to provide track reconstruction and momentum de- termination of charged particles originating from beam-target interactions. To fulfil the whole tasks the STS is located in the large gap of a superconducting dipole magnet with a bending power of 1 Tm providing momentum measurements for charged particles. The STS comprises 8 detector stations, which are positioned from 30 cm to 100 cm downstream the target. The corresponding active area of the stations grows up from 40×50 cm 2 up to 100×100 cm 2 with a totalarea of 4 m2. The silicon double-sided sensors exhibit 1024 strips on each side with a stereo angle at p-side of 7.5 ◦ and a strip pitch of 58 μm. The strip length ranges from 2 cm for sensors located in a close vicinity to the beam axis, up to 12 cm for other sensors where the flux of the reaction products drops down substantially. In total, the STS consist of 896 sensors mounted on 106 detector ladders. The detector readout electronics dissipates 40 kW and will be equipped with a CO 2 bi-phase cooling system. The detector including electronics will be mounted in a thermal enclosure to allow for sensor operation at below −5 ◦ C which minimizes radiation induced leakage currents.
The task of the STS is to measure the trajectories of up to 800 charged particles per collision with an efficiency of more than 95% and a momentum resolution of 1 − 2%. In order to guarantee the required performance over the full lifetime of the CBM experiment, the detector system has to have a low material budget, a high granularity, a high signal-to-noise (SNR) ratio, and a high radiation tolerance. As a result of optimisation studies, the STS consists of double-sided silicon microstrip sensors, about 300 μm thick, which have to provide a SNR ratio of more than 10, even after radiation with the expected equivalent lifetime fluence of 10 14 1 MeV n eq cm −2.
This thesis is devoted to the characterization of double-sided silicon microstrip sensors with an emphasis on investigation of their radiation hardness. Different prototypes of double sided silicon sensors produced by two vendors have been irradiated by 23 MeV protons up to the double life time fluence for the CBM experiment (2 × 10 14 1 MeV n eq cm −2 ).
The sensor properties have been characterised before and after irradiation. It was found, that after irradiation with a double lifetime fluence the leakage current increased 1000 times, which results in an increased shot noise. Moreover, the relative charge collection efficiency of irradiated with respect to non-irradiated sensors drops down to 85% for the lifetime equivalent fluence, and down to 73% for the double lifetime fluence, both for the p-side and n-side. For non-irradiated sensors the SNR was found to be in the range of 20 − 25, whereas for irradiated sensors it dropped down to 12 − 17.
In addition to the sensor characterization, a part of this thesis was devoted to the optimisation of the sensor readout scheme. In order to investigate the possible increase of SNR, and to reduce the number of readout channels in the outer aperture of STS, three versions of routing lines have been realized for the p-side readout of the sensor prototype, and have been tested in the laboratory and under beam conditions.
The tests have been performed with different inclination angles between beam direction and sensor surface, corresponding to the polar angle acceptance of the CBM experiment, which is from 2.5 ◦ to 25 ◦.
As a result of the studies carried out in this thesis work, the radiation hardness of the double-sided silicon microstrip sensors developed for the CBM STS detector was confirmed. Also the advantage of individual read-out of sensor channels in the lateral regions of the detector was verified. This allowed to start the tendering process for sensor series production in industry, an important step towards the construction of the detector in the coming years.
The Compressed Baryonic Matter experiment (CBM) at FAIR and the NA61/SHINE experiment at CERN SPS aim to study the area of the QCD phase diagram at high net baryon densities and moderate temperatures using heavy-ion collisions. The FAIR and SPS accelerators cover energy ranges 2-11 and 13-150 GeV per nucleon respectively in laboratory frame for heavy ions up to Au and Pb. One of the key observables to study the properties of a matter created in such collisions is an anisotropic transverse flow of particles.
In this work, the performance of the CBM experiment for anisotropic flow measurements is studied with Monte-Carlo simulations using gold ions at SIS-100 energies employing different heavy-ion event generators. Also, procedures for centrality estimation and charged hadron identification are described and corresponding frameworks are developed.
The measurement of the reaction plane angle is performed with Projectile Spectator Detector (PSD), which is a hadron calorimeter located at a very forward angle. To prevent radiation damage by the high-intensity ion beam, the PSD has a hole in the center to let the beam pass through. Various combinations of CBM detector subsystems are used to investigate the possible systematic biases in flow and centrality measurements. Effects of detector azimuthal non uniformity and the PSD beam hole size on physics performance are studied. The resulting performance of CBM for flow measurements is demonstrated for identified charged hadron anisotropic flow as a function of rapidity and transverse momentum in different centrality classes.
The measurement techniques developed for CBM were also validated with the experimental data recently collected by the NA61/SHINE experiment at CERN SPS for Pb+Pb collisions at the beam momenta 30A GeV/c. Compared to the existing data from the NA49 experiment at the CERN SPS, the new data allows for a more precise measurement of anisotropic flow harmonics. The fixed target setup of NA61/SHINE also allows extending flow measurements available from the STAR at the RHIC beam energy scan (BES) program to a wide rapidity range up to the forward region where the projectile nucleon spectators appear. In this thesis, an analysis of the anisotropic flow harmonics in Pb+Pb collisions at beam momenta 30A GeV/c collected by the NA61/SHINE experiment in the year 2016 is presented. Flow coefficients are measured relative to the spectator plane estimated with the Projectile Spectators Detector (PSD). The flow coefficients are obtained as a function of rapidity and transverse momentum in different classes of collision centrality. The results are compared with the corresponding NA49 data and the measurements from the RHIC BES program.
The brain is a large complex system which is remarkably good at maintaining stability under a wide range of input patterns and intensities. In addition, such a stable dynamical state is able to sustain essential functions, including the encoding of information about the external environment and storing memories. In order to succeed in these challenging tasks, neural circuits rely on a variety of plasticity mechanisms that act as self-organizational rules and regulate their dynamics. Based on toy models of self-organized criticality, this stable state has been proposed to be a phase transition point, poised between distinct types of unhealthy dynamics, in what has become known as the critical brain hypothesis. It is not yet known, however, if and how self-organization could drive biological neural networks towards a critical state while maintaining or improving their learning and memory functions.
Here, we investigate the emergence of criticality signatures in the form of neuronal avalanches due to self-organizational plasticity rules in a recurrent neural network. We show that power-law distributions of events, widely observed in experiments, arise from a combination of biologically inspired synaptic and homeostatic plasticity but are highly dependent on the external drive. Additionally, we describe how learning abilities and fading memory emerge and are improved by the same self-organizational processes. We finally propose an application of these enhanced functions, focusing on sequence and simple language learning tasks.
Taken together, our results suggest that the same self-organizational processes can be responsible for improving the brain’s spatio-temporal learning abilities and memory capacity while also giving rise to criticality signatures under particular input conditions, thus proposing a novel link between such abilities and neuronal avalanches. Although criticality was not verified, the detailed study of self-organization towards critical dynamics further elucidates its potential emergence and functions in the brain.
Die vorliegende Dissertation untersucht die Nichtgleichgewichtsdynamik von relativistischen Schwerionenkollisionen ausgehend von der anfänglichen Produktion von Teilchen durch den Zerfall von Strings, der Bildung eines Quark-Gluon-Plasmas (QGP), dessen kinetische und chemische Äquilibrierung als Funktion der Zeit sowie seine Transporteigenschaften im Gleichgewicht bei endlicher Temperatur und endlichem chemischen Potential. Ein Verständnis der frühen Phase der Schwerionenkollisionen ist insbesondere von großen Interesse, da letztere eine Verbindung zwischen den ersten Nukleon-Nukleon Kollisionen und der Quark-Gluon-Plasma Phase herstellen, die zu einem späteren Zeitpunkt ein gewisses Maß an Thermalisierung zeigt. Allerdings können nur Nichtgleichgewichts-Theorien eine Verbindung zwischen dem anfänglichen QGP und seiner - zumindest partiellen - Thermalisierung herstellen. Um die Dynamik eines stark wechselwirkenden Mediums wie des Quark-Gluon-Plasmas zu beschreiben, reichen übliche Transportgleichungen (basierend auf der Boltzmann-Gleichung) nicht aus und es müssen komplexere Theorien, die auch für stark korrelierte Medien geeignet sind, angewendet werden. Hier kommen hydrodynamische Simulationen oder Transportrechnungen - basierend auf verallgemeinerten Transportgleichungen - zum Einsatz. Solche verallgemeinerte Transportgleichungen, wie die Kadanoff-Baym-Gleichungen, ergeben sich aus der quantenmechanischen Nichtgleichgewichts-Vielteilchentheorie, in der Green’s- Funktionen in Minkowski Raum-Zeit die interessierenden Größen sind, um die Dynamik des betrachteten Mediums zu beschreiben. Mit geeigneten Näherungen kann man so kinetische Transportgleichungen erhalten, die eine einheitliche Behandlung von stabilen und instabilen Teilchen auch außerhalb des Gleichgewichts ermöglichen. Diese Bestandteile bilden die Basis des Transportmodells Parton-Hadron-String Dynamics (PHSD), welches daher ein geeignetes ’Instrument’ ist um die verschiedenen Phasen einer Schwerionenkollision zu analysieren, egal ob die verschiedenen Formen der Materie im Gleichgewicht sind oder nicht.
In dieser Arbeit wird zunächst die Quantenchromodynamik (QCD) vorgestellt und erklärt, wie diese Theorie im Laufe der Jahre entwickelt wurde um ein wichtiger Bestandteil des Standardmodells der Teilchenphysik zu werden. Wir werden weiterhin die verbleibenden Herausforderungen in unserem Verständnis der QCD vorstellen, die sich primär auf das Phasendiagramm der stark wechselwirkenden Materie konzentrieren.
Im zweiten Kapitel untersuchen wir die Nichtgleichgewichts-Feldtheorie und die damit verbundenen Techniken - wie die Keldysh-Kontur - zur Beschreibung der Green’schen Funktionen als wesentlichen Freiheitsgrade. Wir leiten die Evolutionsgleichung für die Green’schen Funktionen her, d. h. die Kadanoff Baym-Gleichungen am Beispiel einer skalaren Feldtheorie.
Im nächsten Kapitel wird das Transportmodell Parton-Hadron-String Dynamics (PHSD), welches die Anwendung der verallgemeinerten Transportgleichungen zur Beschreibung relativistischer Schwerionenkollisionen darstellt, vorgestellt.
Wir beginnen im Kapitel 4 mit der Untersuchung der Nichtgleichgewichtseigenschaften des Quark-Gluon-Plasmas, welches bei relativistischen Schwerionenkollisionen erzeugt wird. Zu diesem Zweck vergleichen wir die Quark-Gluon-Plasmaentwicklung aus dem PHSD mit einem viskosen hydrodynamischen Modell, bei dem ein lokales kinetisches und chemisches Gleichgewicht angenommen wird.
Im Kapitel 5 konzentrieren wir uns auf das frühe Vorgleichgewichtsstadium ultra-relativistischer Schwerionenkollisionen und insbesondere auf die Freiheitsgrade der QGP-Phase in diesem Stadium. Wir untersuchen die Auswirkungen eines QGP, welches anfänglich entweder aus einem System aus massiven Gluonen (Szenario I) oder alternativ aus Quarks und Antiquarks (Szenario II) besteht. Das nächste Kapitel wird ebenfalls die Produktion von Teilchen im Frühstadium von Schwerionenkollisionen behandeln, jedoch bei niedrigeren Kollisionsenergien. Hier wird eine mikroskopische Beschreibung des K+/pi+-Verhältnisses im Vordergrund stehen, d. h. die Erklärung des Maximums in diesem Verhältnis bei etwa 30 A GeV ("Horn") in zentralen Au+Au (oder Pb+Pb) Kollisionen. Insbesonders werden wir die Modifikation des String-Fragmentierungsprozesses (über den Schwinger-Mechanismus) in einer Umgebung mit hoher hadronischer Dichte aufgrund der teilweisen Wiederherstellung der chiralen Symmetrie untersuchen.
In Kapitel 7 erweitern wir das Parton-Hadron-String Dynamics (PHSD)-Transportmodell im partonischen Sektor, indem wir explizit die totalen und differentiellen partonischen Streuungsquerschnitte als Funktion der Temperatur T und des baryochemischen Potentials μB berechnen auf der Basis der effektiven Propagatoren und Kopplungen des Dynamical QuasiParticle Models (DQPM), welches auch die generelle Zeitentwicklung der partonischen Freiheitsgrade beschreibt. Wir finden nur eine sehr bescheidene Änderung von n/s mit dem baryonchemischen Potential μB in Abhängigkeit von der skalierten Temperatur T/Tc(μB). Dies gilt auch für eine Vielzahl von hadronischen Observablen aus zentralen A+A Kollisionen im Energiebereich von 5 GeV < vsNN < 200 GeV bei der Implementierung der differentiellen Querschnitte in das PHSD-Modell. Da wir in Schwerionen-Observablen nur kleine Spuren einer μB-Abhängigkeit finden - obwohl die effektiven Partonenmassen und Kollisionsbreiten sowie deren Partonenquerschnitte eindeutig von μB abhängen - impliziert dies, dass man eine beträchtliche Partonendichte und ein großes Raum-Zeit-QGP-Volumen zur Untersuchung der Dynamik in der partonischen Phase benötigt. Diese Bedingungen sind nur bei hohen Kollisionsenergien erfüllt, bei denen μB jedoch eher niedrig ist. Wenn andererseits die Kollisionsenergie verringert und somit μB erhöht wird, wird die hadronische Phase dominant und dementsprechend wird es zunehmend schwieriger, Signale aus der Partonendynamik auf der Basis von "Bulk"-Observablen zu extrahieren.
HADES (High Acceptance DiElectron Spectrometer), located at GSI, is a versatile detector for precise spectroscopy of e+ e- pairs and charged hadrons produced on a fixed target in a 1 to 3.5 AGeV kinetic beam energy region. The main experimental goal is to investigate properties of dense nuclear matter created in heavy ion collisions and learn about in-medium hadron properties.
In the HADES set-up 24 Mini Drift Chambers (MDC) allow for track reconstruction and determining the particle momentum by exploiting charged particle deflection in a magnetic field. In addition, the drift chambers contribute to particle identification by measuring the energy loss. The read-out concept foresees each sensing wire to be equipped with a preamplifier, analog pulse shaper and discriminator. In the current front-end electronics, the ASD-8 ASIC comprises the above modules. Due to limitations of the current on-board time to digital converters (TDC), especially regarding higher reaction rates expected at the future FAIR facility (HADES at SIS-100), the electronics need to be replaced by new board featuring multi-hit TDCs. Whereas ASD-8 chips cannot be procured anymore, a promising replacement candidate is the PASTTREC ASIC, developed by JU Krakow, which was tested w.r.t. suitability for MDC read-out in a variety of set-ups and, where possible, in direct comparison to ASD-8.
The timing precision, being the most crucial performance parameter of the joint system of detector and read-out electronics, was assessed in two different set-ups, i.e. a cosmic muon tracking set-up and a beam test at the COSY accelerator at Juelich using a minimum ionizing proton beam.
The beam test results were reproduced and can thus be quantitatively explained in a three dimensional GARFIELD simulation of a HADES MDC drift cell. In particular, the simulation is able to describe the characteristic dependence of the time precision on the track position within the cell.
A circuit simulation (SPICE) was used to closely model the time development of a raw drift chamber pulse, measured as a response to X-rays from a 55 Fe source. The insights gained from this model were used for attributing realistic charge values to the time over threshold values measured with the read-out ASICs in a charge calibration set-up. Furthermore, a high-level circuit simulation of the PASTTREC shaper is implemented to serve as a demonstration of the effect of the individual shaping and tail cancellation stages which are present in both ASICs.
The production cross section and the transverse momentum distribution of charged particles is measured in pp collisions at √s = 2.76 TeV, 5.02 TeV, 7 TeV and 13 TeV, as well as for Pb-Pb collision at √s_NN = 5.02 TeV and Xe-Xe at √s_NN = 5.44 TeV in ALICE at the LHC. The measurement is performed in the transverse momentum region of 0.15 < p_T < 50 GeV/c and in the pseudorapidity range of |η| < 0.8. The precision of the measurement has been substantially enhanced as a result of the improved corrections, by taking into account a more realistic particle composition in the MC simulations. As a result, the systematic uncertainties have been reduced by more than a factor two in all systems and energies.
The average transverse momentum <p_T> results show a faster-than-linear increase with the center-of-mass energy and follow a similar trend with respect to previous measurements. The analysis of the p_T spectra in multiplicity intervals show a weak center-of-mass energy dependence when they are compared to their respective inelastic (INEL) pp measurement. The average multiplicity as a function of the collision energy shows a quadratic trend, and the comparison with other ALICE multiplicity measurements exhibits a remarkable agreement, within uncertainties.
The transverse momentum spectra in pp collisions are compared to state-of-the-art MC simulations, EPOS LHC and PYTHIA 8 event generators; none of them is able to reproduce the distributions over the full p_T range.
The differential cross section in pp collisions is an essential observable for the study of the Quark Gluon Plasma (QGP) created in ultra-relativistic heavy-ion collisions. The absence of a medium formation in pp collisions serves as an essential baseline for studies of particle production and suppression due to parton energy-loss in the QGP. Since pp collisions at √s = 5.44 TeV were not measured by ALICE, the pp reference at this energy was constructed by using a power law interpolation between the s = 5.02 TeV and 7 TeV data. The pp results are compared to the particle production in Pb-Pb collisions at √s_NN = 5.02 TeV and Xe-Xe collisions at √s_NN = 5.44 TeV.
The nuclear modification factor R_AA for Pb-Pb and Xe-Xe collisions was calculated and a strong suppression of high-p_T particles is observed in central collisions. The R AA in different systems allows for a differential study of the parton energy loss in the QGP. The comparison of the R AA in multiplicity intervals between the two systems provide insights into the path length dependence of a parton that propagates in the medium.
Die Bestrahlung atmungsbewegter Tumoren stellt eine Herausforderung für die moderne Strahlentherapie dar. In der vorliegenden Arbeit werden zu Beginn die physikalischen, technischen und medizinischen Grundlagen vorgestellt, um dem Leser den Einstieg in die komplexe Thematik zu erleichtern. Des Weiteren werden verschiedene Techniken zur Bestrahlung atmungsbewegter Zielvolumina vorgestellt. Auch wird auf die Sicherheitssäume eingegangen, die notwendig sind, um Fehler in der Bestrahlungskette beim Festlegen des Planungszielvolumens für die Bestrahlung auszugleichen.
Im Rahmen dieser Arbeit wurde ein Konzept entwickelt, wodurch sich der Sicherheitssaum von bewegten Tumoren in der Radiochirurgie mit dem Tumor-Tracking-System des Cyberknifes noch weiter verkleinern lässt. Somit kann die sogenannte therapeutische Breite der Behandlung weiter vergrößert werden kann. Dafür wurden ein 4D-CT und ein Gating-System in den klinischen Betrieb aufgenommen. Die entwickelte Technik basiert auf den zehn individuellen Atemphasen des 4D-CTs und lässt eine Berücksichtigung bewegter Risikostrukturen bereits während der Bestrahlungsplanung zu. Diese Methode wurde mit aktuellen Bestrahlungstechniken mittels eines Vergleichs der Bestrahlungspläne anhand von zehn Patientenfällen verglichen. Zur Erstellung der Bestrahlungspläne kamen die Bestrahlungsplanungssysteme von Varian (Eclipse 13.5) und Accuray (Multiplan 4.6) zum Einsatz. Es wurden insbesondere die Bestrahlungsdosen an den Risikoorganen und die Volumina ausgewählter Isodosen betrachtet. Hier zeigte sich eine klare Abhängigkeit von der Belastung des gesunden Gewebes von der verwendeten Bestrahlungstechnik. Dies lässt die Schlussfolgerung zu, dass mit einer Reduzierung des Sicherheitssaums, welcher abhängig von der verwendeten Planungs- und Bestrahlungstechnik ist, eine Vergrößerung der therapeutischen Breite einhergeht. Zusätzlich bleibt bei einer geringen Belastung des umliegenden gesunden Gewebes die Möglichkeit für eine weitere Bestrahlung offen.
Anschließend wurden anhand von berechneten Testplänen Messungen an einem für diese Arbeit modifizierten Messphantom am Varian Clinac DHX und am Cyberknife VSI durchgeführt. Hier wurden die beim Planvergleich verwendeten Bestrahlungstechniken verwendet, um einen Abgleich von berechneter und tatsächlich applizierter Dosis zu erhalten. Das verwendete Messphantom simuliert die Atmung des Patienten und lässt gleichzeitig eine Verifikation der Dosisverteilung mit EBT3-Filmen sowie Messungen mit Ionisationskammern zu. Es zeigte sich, dass für die Techniken, welche aktiv die Atmung berücksichtigen (Synchrony am Cyberknife und Gating am Varian Clinac), selbst im Niedrigdosisbereich eine gute Übereinstimmung zwischen Messung und Berechnung der Dosisverteilung vorliegt. Sobald die Bewegung des Zielvolumens bereits bei der Bestrahlungsplanung berücksichtigt wird, steigt die Übereinstimmung weiter an. Für Techniken, welche die Atmung lediglich bei der Zielvolumen-Definition einbeziehen (ITV-Konzept), liegen sowohl die mit Ionisationskammern gemessenen Werte als auch die Übereinstimmung von berechneter und gemessener Dosisverteilung außerhalb des Toleranzbereichs.
Eine weitere Frage dieser Arbeit befasst sich mit der Treffsicherheit des Tumor-Tracking-Systems des Cyberknifes (Synchrony). Hier wurden Messungen mit dem XSightLung-Phantom und unterschiedlichen Sicherheitssäumen, welche die Bewegung des Tumors ausgleichen sollen, durchgeführt. Dies geschah sowohl mit dem für das Phantom vorgesehenen Würfel mit Einschüben für EBT3-Filme als auch mit einem Film-Sanchwich aus Flab-Material zur Untersuchung einer dreidimensionalen Dosisverteilung. Die Analyse der Filme ergab, dass es zumindest an einem Phantom mit einer einfachen kraniokaudalen Bewegung nicht nötig ist, die Bewegung des Zielvolumens durch einen asymmetrischen Sicherheitssaum in Bewegungsrichtung zu kompensieren um die Abdeckung des Zielvolumens mit der gewünschten Dosis zu gewährleisten.
Durch diese Arbeit konnten zusätzlich weitere wertvolle Erkenntnisse für den klinischen Alltag gewonnen werden: bei der Untersuchung der Bewegung von Tumoren in freier Atmung sowie bei maximaler Inspiration und Exspiration zeigte sich, dass zum Teil die Tumorbewegung in maximalen Atemlagen (3-Phasen-CT) deutlich von der freien Atmung abweicht. Dies lässt den Schluss zu, dass für eine Bestrahlung in freier Atmung ein 4D-CT die Tumorbewegung deutlich realistischer widerspiegelt als ein 3-Phasen-CT, zumal letzteres eine größere Dosisbelastung für den Patienten bedeutet.
Ebenfalls konnte anhand einer retrospektiven Untersuchung von Lungentumoren gezeigt werden, dass für die Berechnung von Bestrahlungsplänen für Tumoren in inhomogenem Gewebe der Ray-Tracing-Algorithmus die Dosis im Zielvolumen teilweise sehr stark überschätzt. Um eine realistische Dosisverteilung zu erhalten, sollte deshalb insbesondere bei Tumoren in der Lunge auf den Monte-Carlo-Algorithmus zurückgegriffen werden.
Mit immer komplexeren Experimenten erhöhen sich die Anforderungen an die Detektoren und diese Arbeit ist ein neuer Beitrag für eine weiterentwickelte technologische Lösung. In der vorliegenden Dissertation wurde eine nichtinvasive optische Strahldiagnose für intensive Ionenstrahlen in starken Magnetfeldern entwickelt. Das optische System besteht aus miniaturisierten Einplatinen CMOS-Kameras. Sowohl die hardwareseitige Entwicklung als auch die softwareseitige Implementierung der Algorithmen zur Kamerakalibrierung, Netzwerksteuerung und Strahlrekonstruktion wurden in dieser Arbeit entwickelt. Die Leistungsstärke dieses neuartigen Diagnosesystems wurde dann experimentell an einem Teststand demonstriert. Dabei wurde das optische System ins Vakuumstrahlrohr eingebettet. Ein Wasserstoffionenstrahl mit einer Energie von 7keV bis 10keV und einem Strahlstrom bis 1mA wurde in einer Stickstoffatmosphäre bis 1E-5 mbar untersucht. Dabei wurde der Ionenstrahl entlang des Strahlrohres des Toroidsegmentmagnetes mit einer Bogenlänge von 680mm mit einem xy-Kamerasystem beobachtet.
Der Strahlschwerpunkt und die Breite des Strahlprofils wurden im Ortsraum rekonstruiert. Die analytisch berechnete und in anderen Arbeiten simulierte Gyrationsbewegung sowie der RxB-Drift des Strahlschwerpunktes konnte experimentell bestätigt werden.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
In thesis I investigate the possibility that at the smallest length scale (Planck scale) the very notion of "dimension" needs to be revisited. Due to "quantum effects" spacetime might become very turbulent at these scales and properties like those of "fractals" emerge, including a "scale dependent dimension". It seems that this "spontaneous dimensional reduction" and the appearance of a minimal physical length are very general effects that most approaches to quantum gravity share. Main emphasis is given to the"spectral dimension" and its calculation for strings and p-branes.
Die vorliegende Dissertation befasst sich mit der Entwicklung und Erforschung eines konzeptionell neuartigen Injektionssystems zum Transport von Ionenstrahlen in toroidale Magnetfeldstrukturen. Die Forschungsarbeit ist dabei Teil des Figure-8 Speicherringprojekts (F8SR) des IAP, bei welchem es um die Erforschung der Physik und die Entwicklung eines niederenergetischen, supraleitenden, magnetostatischen Figure-8 Hochstromspeicherrings geht. Dieser neuartige Speicherring ermöglicht aufgrund des Einsatzes von fokussierenden solenoidalen und toroidalen Magnetfeldern das Speichern von Strahlströmen von bis zu einigen Ampere. Diese Arbeit baut auf früheren Forschungsarbeiten zu diesem Themenfeld auf, in welchen die Grundlagen und Ausgangsparameter für die experimentelle Untersuchung der Injektion gelegt und mit dem Aufbau des Injektionsexperiments begonnen wurde.
In dieser Dissertation wird den Fragen nachgegangen, ob ein magnetisches Konzept des Injektionssystems mittels eines „Scaled-Down“-Experiments experimentell umsetzbar ist und ob mit diesem die Injektion von Ionenstrahlen in toroidale Magnetfeldstrukturen realisiert werden kann. Ziel ist es dabei, ein Injektionssystem aufzubauen, durch welches sowohl ein seitlich injizierter Injektionsstrahl, welcher den in den Speicherring zu injizierenden Strahl darstellt, als auch ein gleichzeitig durch die toroidalen Magnetfelder driftender Ringstrahl, welcher den im Speicherring zirkulierenden Strahl darstellt, ohne Verluste transportiert werden können. Das Injektionssystem besteht dabei aus drei normalleitenden Magneten, wobei es sich um zwei baugleiche 30 Grad Toroide sowie einen Solenoid handelt. Die Toroide bilden den Transportkanal für den Ringstrahl, während der Injektionssolenoid senkrecht zwischen den beiden Toroiden endet und den Injektionskanal für den Injektionsstrahl darstellt.
Zunächst wurde das Injektionssystem mittels Strahltransportsimulationen untersucht und aufbauend auf den Ergebnissen die benötigen Vakuumkomponenten sowie der Injektionsmagnet ausgelegt, entwickelt und umgesetzt. Anschließend wurde mit dem fertigstellten Injektionsexperiment der Transport von zwei Ionenstrahlen durch das Injektionssystem experimentell erforscht. Dabei wurden die Strahlpfade mit einem in Entwicklung befindlichen Kameradetektorsystem aus verschiedenen Perspektiven aufgenommen und das Strahlverhalten in Abhängigkeit von unterschiedlichen Parametern phänomenologisch analysiert und diskutiert, mit den Ergebnissen der Simulationen verglichen sowie theoretisch bzgl. der RxB Drift und eines Gedankenmodells eingeordnet. Die technische Umsetzung, Inbetriebnahme und Durchführung verschiedener Vorabexperimente bzgl. weiterer Komponenten des Injektionsexperiments (bspw. Ionenquellen und Filterkanäle) ist ebenfalls Bestandteil dieser Arbeit.
Bei den experimentellen Untersuchungen mit Wasserstoff- und Heliumionenstrahlen konnte beobachtet werden, wie der Injektionsstrahl in den zweiten Toroid driftet und somit erfolgreich injiziert wird. Des Weiteren wurde eine Heliummessung durchgeführt, bei der sowohl der Injektionsstrahl als auch der Ringstrahl erfolgreich durch das Injektionssystem transportiert werden konnten. Auch die Auswirkungen des Injektionsmagneten auf den Ringstrahl konnten experimentell untersucht werden. Die verschiedenen Messungen wurden mittels des Gedankenmodells diskutiert und mit den Ergebnissen der Simulationen sowie untereinander verglichen.
Das abschließende Ergebnis dieser Arbeit ist, dass durch den Einsatz von solenoidalen und toroidalen Magnetfeldern der Injektionsstrahl vom Injektionsmagneten in den zweiten Toroid transportiert und dieser somit in die gekoppelte magnetische Konfiguration der Toroide eingelenkt werden kann. Der gleichzeitige verlustfreie Transport eines Ringstahls durch das Injektionssystem konnte dabei ebenfalls realisiert werden. Des Weiteren stimmen die Ergebnisse der Simulationen und Experimente sowie die theoretischen Überlegungen überein.
Das neuartige Injektionskonzept, welches als Schlüsselkomponente für die Umsetzung des Figure-8 Hochstromspeicherrings benötigt wird, wurde somit mittels Theorie, Simulation und Experiment überprüft und die Funktionalität bestätigt.
Zukünftige Forschungsfragen für welche der Figure-8 Hochstromspeicherring verwendet werden könnte, bspw. aus den Bereichen der experimentellen Astrophysik oder Fusionsforschung, wurden abschließend diskutiert.
Defossiliation of the energy system is crucial in the face of the impending risks of climate change. Electricity generation by burning fossil fuels is being displaced by renewable energy sources like hydro, wind and solar, driven by support schemes and falling costs from technological advances as well as manufacturing scale effects. The unavoidable shift from flexibly dispatchable generation to weather-dependent spatio-temporally varying generators transforms the generation and distribution of electricity into highly interdependent complex systems in multiple dimensions and disciplines:
In time, different scales, stretching from intra-day, diurnal, synoptic to seasonal oscillations of the weather interact with years and decades of planning and construction of capacity. In space, long-range correlations and local variations of weather systems as well as local bottlenecks in transmission networks affect solutions. The investment decisions about technological mix and spatial distribution of capacity follow economic principles, within restrictions which adapt in social feedback loops to public opinion and lobbyist influences.
In this work, a family of self-consistent models is developed which map physical steady-state operation, capacity investments and exogeneous restrictions of a European electricity system, in higher simultaneous spatial and temporal detail as well as scope than has previously been computationally tractable. Increasing the spatial detail of the renewable resources and co-optimizing the expansion of only a few transmission lines, reveals solutions to serve the European electricity demand at about today’s electricity cost with only 5% of its carbon-dioxide emissions; and importantly their electricity mix differs from the findings at low spatial resolution.
As important intermediate steps,
• new algorithms for the convex optimization of electricity system infrastructure are derived from graph-theoretic decompositions of network flows. Only these enable the investigation of model detail beyond previous computational limitations.
• a comprehensive European electricity network model down to individual substations at the transmission voltage levels is built by combining and completing data from freely available sources.
• a network reduction technique is developed to approximate the detailed model at a sequence of spatial resolutions to investigate the role of spatial scale, and identify a level of spatial resolution which captures all relevant detail, but is still computationally tractable.
• a method to trace the flow of power through the network, which is related to a vector diffusion process on a directed flow graph embedded in a network, is used to analyse the resulting technology mix and its interactions with the power network
The open-source nature of the model and restriction to freely available data encourages an accessible and transparent discussion about the future European electricity system, primarily based on renewable wind and solar resources.
In the course of this thesis we discuss a certain kind of supersolid, the lattice-supersolid, which can be realized using quantum gases in an optical lattice trap. The lattice-supersolid, which simultaneously possesses off-diagonal and diagonal long-range order in its density matrix and also breaks the discrete translational symmetry of an underlying lattice, is induced by self-ordering of the gas due to strong long-range van der Waals interactions. In the considered scenario, the interactions are facilitated by the excitation of atomic Rydberg states, which exhibit enhanced van der Waals forces.
In the first part of this thesis (chapters 1-3), we review the relevant basics of quantum gases, Rydberg physics and introduce the extended Bose-Hubbard model. We start with the relevant methods and devices of the vast toolbox available in common quantum gas experiments, as well as consider the main concepts behind superfluidity and supersolidity. This is followed by an introduction of some basic concepts of Rydberg atoms in quantum many-body systems, with a focus on the facilitation of long-range interactions and the implementation in a theoretical model. Thereafter a brief introduction is given, on the realization of the Bose-Hubbard model in optical lattice systems and its extension to include Rydberg states, which concludes the introductory part of this thesis.
In the following part (chapters 4-6), we introduce the theoretical tools used to derive the results presented in the final part. First, an introduction to a real-space extension of bosonic dynamical mean-field theory (RB-DMFT) for bosonic systems with long-range interactions in the Hartree approximation is given. This method is based on the non-perturbative self-consistent evaluation of the lattice Green’s function, which also incorporates the effect of nearest neighbor correlations due to the non-condensed particles. Then we focus on a quasiparticle expansion of the Bose-Hubbard model, which has its foundation in linearized fluctuations of a static mean-field ground-state, allowing for the prediction of a vast range of experimentally relevant observables. Lastly, we introduce an efficient truncation scheme for the local bosonic Fock-basis, which allows for the simulation of phases with high condensate density at a vastly reduced computational effort.
In the final part (chapters 7 and 8), we discuss the application of both methods to itinerant bosonic gases in two-dimensional optical lattices, in order to predict the equilibrium ground-state phases, as well as the signatures of supersolidity and its formation in spectral functions and the dynamic and static structure factor. Specifically, we focus on two limiting cases. Firstly, we consider a two-component gas, as realized by two hyperfine ground states, for example, of rubidium-87, where one component is off-resonantly excited to a Rydberg state, which generates a soft-core shaped interaction potential. Secondly, we discuss the opposing limit, using near-resonant excitations
of Rydberg states, where the interacting component now directly corresponds to the Rydberg state, which interacts via a van der Waals potential. In both cases we discuss the rich variety of supersolid phases, which are found for a wide range of parameters. We also discuss how some of these phases can be realized in experiment.
In the subsequent appendices (A to D) we discuss some methodological details. Most notably, we consider the possible Fock-extension of the Hartree approximation (appendix A), introduced in the RB-DMFT treatment of the extended Bose-Hubbard model.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
In this thesis we work on the theoretical description of relativistic heavy-ion collisions, focussing on electromagnetic probes. We present mainly four topics: electric conductivity and diffusion properties of the hot plasma and hadronic matter, response of the quark-gluon plasma to external magnetic fields, direct photon production in the quark-gluon plasma and a study about initial and final state effects in small systems. The latter topic aims, i.a., at a better understanding of the initial state, which is crucial for electromagnetic probes. In all research areas we make use of the Boltzmann transport equation, whereby the presented methods provide analytical and numerical solutions. We pay particular attention to the construction of complete leading order photon production processes in numerical transport simulations of the quark-gluon plasma.
To begin with, our findings are the complete conserved charge diffusion matrix and electric conductivity. Those properties are important ingredients, e.g., for future simulations of baryon rich collisions. Next, we find that the influence of external magnetic fields to the QGP dynamics is not quantifiable in observables.
We present results for a variety of direct photon observables and we can partly explain experimental data. We emphasize the importance of the chemical composition and non-equilibrium nature of the medium to the direct photon puzzle. Lastly, we observe the interesting dynamic behavior of azimuthal correlations in small systems and identify signatures of the initial state in final observables. This will also be of interest for more precise simulations of electromagnetic probes and allows for various future studies.
The Generalized Uncertainty Principle (GUP) arises from Quantum Gravity thought experiments and contains a minimal lenght. In this thesis I calculate Schwarzschild Black Holes that are modified by the GUP. These Black Holes have the property, that their temperature does not diverge for small masses, although they still posses a curvature singularity. I calculate analytically that in more than 3+1 dimensions the temperature diverges again.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Terahertz (THz) physics are an emerging field of research dealing with electromagnetic radiation in the far-infrared to microwave region. The development of innovative technologies for the generation and detection of THz radiation has only in the recent past led to a tremendous rise of both fundamental research as well as investigation of possible fields of application for THz radiation. The most prominent reason has long been the scarce accessibility of the THz region of the electromagnetic spectrum - commonly loosely located between 0.1 and 30 THz - to broad research, and it was mostly limited to astronomy and high energy physics facilities. Over the recent years, numerous novel concepts on both the source and detector side have been proposed and successfully implemented to overcome this so-called THz gap. New technology has become available and paved the way for wide-spread experimental laboratory work and accompanying theoretical investigations. First application studies have emerged and in some cases even commercial development of the field of THz physics is on the rise. Despite these enormous progresses, a continuing demand for more efficient THz detectors still impels current technological research. Relatively low source powers are often a major limiting factor and the request for new detection concepts, their understanding and implementation, as well as the optimization on a device basis has been and still remains in place. One of these concepts is the use of field-effect transistors (FETs) high above their conventional cut-off frequencies as electronic THz detectors. The concept has been proposed in a number of theoretical publications by M. Dyakonov and M. Shur in the early 1990's, who pioneered to show that under certain boundary conditions, non-linear collective excitations of the charge carrier system of a two-dimensional electron gas (2DEG) by incident THz radiation can exhibit rectifying behaviour - a detection principle, which has become known as plasma wave or plasmonic mixing. Up until this day, the concept has been successfully implemented in many device realizations - most advanced in established silicon CMOS technology - and stands on the edge of becoming commercially available on a large scale. The main direction of the work presented in this thesis was the modeling and experimental characterization of antenna-coupled FETs for THz detection - termed TeraFETs in this and the author's previous works - which have been implemented in different material systems. The materials presented in this thesis are AlGaN/GaN HEMTs and graphene FETs. In a number of scientific collaborations, TeraFETs were designed based on a hydrodynamic transport model, fabricated in the respective materials, and characterized mainly in the lower THz frequency region from 0.2 to 1.2 THz. The theoretical description of the plasma wave mixing mechanism in TeraFETs, as initiated by Dyakonov and Shur, was based on a fluid-dynamic transport model for charge carriers in the transistor channel. The THz radiation induces propagating charge density oscillations (plasma waves) in the 2DEG, which via non-linear self-mixing cause rectification of the incident THz signals. Over the course of this work, it became evident in the on-going detector characterization experiments that this original theoretical model of the detection process widely applied in the respective literature does not suffice to describe some of the experimental findings in TeraFET detection signals. Thorough measurements showed signal contributions, which are identified in this work to be of thermoelectric origin arising from an inherent asymmetric local heating of charge carriers in the devices. Depending on the material, these contributions constituted a mere side effect to plasmonic detection (AlGaN/GaN) or even reached a comparable magnitude (graphene FETs). To include these effects in the detector model, the original reduced fluid-dynamic description was extended to a hydrodynamic transport model. The model yields at the current stage a reasonable qualitative agreement to the measured THz detection signals. This thesis presents the formulation of a hydrodynamic charge carrier transport model and its specific implementation in a circuit simulation tool. A second modeling aspect is that the transport equations cover only the intrinsic plasmonic detection process in the active gated part of the TeraFET's transistor channel. In order to model and simulate the behavior of real devices, extrinsic detector parts such as ungated channel regions, parasitic resistances and capacitances, integrated antenna impedance, and others must be considered. The implemented detector model allows to simulate THz detection in real devices with the above influences included. Besides presentation of the detector model, experimental THz characterization of the fabricated TeraFETs is presented in this work. Careful device design yielded record detection performance for detectors in both investigated materials. The respective results are shown and the experimental observations of the thermoelectric effect in TeraFETs are compared to modeling results. It is the goal of this work to provide a framework for further theoretical and experimental studies of the plasmonic and thermoelectric effect in TeraFETs, which could eventually lead to a new type of THz detectors particularly exploiting the thermoelectric effect to enhance the sensitivity of today's plasmonic TeraFETs.
Zur Unterstützung von Lehrkräften bei der Auswahl eines Sachunterrichtsschulbuchs im Hinblick auf die didaktische Aufbereitung physikalischer Themen wurde ein bereits bestehendes und in der Schweiz eingesetztes Schulbuchraster weiterentwickelt. Die ergänzenden Bewertungskriterien berücksichtigen, inwieweit die Schulbücher physikalische Inhalte in einer Weise präsentieren, dass a) häufige Präkonzepte der Schülerinnen und Schüler aufgegriffen, b) Inhalte strukturiert dargestellt werden, c) multiple externe Repräsentationen zum Einsatz kommen, d) Selbsterklärungen angeregt wie auch e) offene Schülerexperimente angeboten werden. Zudem sollten f) für die Lehrkräfte Zusatzmaterialen mit fachwissenschaftlichen und fachdidaktischen Erläuterungen zur Verfügungen stehen. Ergänzende Erläuterungen der Rasterkriterien sollen eine möglichst objektive Beurteilung unterstützen. Anhand dieses weiterentwickelten Rasters wurden exemplarisch die 2017 in Hessen zugelassenen Sachunterrichtsschulbücher analysiert.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
Gabor lenses were invented for focusing hadron beams by the electric field of a confined electron column. A homogenous magnetic field created by a solenoid confines electrons in transverse direction while a potential well created by a cylindrical electrode system confines them longitudinally.
In this thesis the investigation and characterization of a nonneutral electron plasma (NNP) in a Gabor lens with a toroidal magnetic confinement and a 30 degree-bent anode is presented. Motivated by fundamental research on NNPs in this special environment, diagnostic methods were investigated to characterize the plasma. As a non-invasive method a PCO camera is placed in front of the experimental setup. A ring of 31 photodiodes is used inside the plasma for light intensity and distribution measurements. The experimental data is evaluated and the following results will be presented.
The theory of strong interactions — Quantum Chromodynamics (QCD) — is well-defined mathematically. However, direct applications of this theory to experiment are rather limited due to significant technical obstacles. Even some general features of QCD remain unclear to date.
Hence, phenomenological input is important and needed for practical applications, e.g. for theoretical analysis of the heavy-ion collision experiments. In this thesis the role of hadronic interactions is studied in the hadron resonance gas (HRG) model — a popular model for the confined phase of QCD. The description of hadronic interactions is based on the famous van der Waals (VDW) equation and its quantum statistical generalization. While this is not the conventional choice for nuclear/hadronic physicspplications, the simplicity of the VDW approach makes it extremely useful.
In particular, this framework allows to include the two most basic ingredients of hadron-hadron interaction: the short-range repulsion, modeled by excluded-volume (EV) corrections, and the intermediate range attraction. The first part of the thesis considers just the repulsive EV interactions between hadrons. A hitherto unknown, but surprisingly strong sensitivity of the long known thermal fits to heavy-ion hadron yield data to the choice of hadron eigenvolumes is uncovered. It challenges the robustness of the chemical freeze-out temperature and baryochemical potential determination from the thermal fits. However, at the same time, the extracted value of the entropy per baryon is found to be a robust observable which depends weakly on this systematic uncertainty of the HRG model.
A Monte Carlo procedure to treat EV interactions in HRG is also introduced in this thesis. It allows to study simultaneous effects of EV and of exact charge conservation in HRG for the first time. Generalizations of the classical VDW equation are required for its applications in hadronic physics. he grand canonical ensemble (GCE) formulation of the classical VDW equation is presented. Remarkably, this important aspect of the VDW equation was not discovered before. The GCE formulation yields the analytic structure of the critical fluctuations, both in the vicinity of and far off the critical point. These critical fluctuations are presently actively being used as probes for the QCD critical point. Another extension is the hitherto undiscovered generalization of the VDW equation to include quantum Bose-Einstein and Fermi-Dirac statistics. It is performed for both single-component and multi-component fluids. The Fermi-Dirac VDW equation is applied for the first time. It is used to describe nucleons and basic properties of nuclear matter. The quantum statistical generalization of the VDW equation developed in this work is quite general, and can be applied for any fluid. Thus, its applications are not restricted to QCD physics, but may also find themselves in chemistry and/or industry. The quantum statistical VDW equation is used to describe baryonic interactions in full HRG. The VDW parameters $a$ and $b$ are fixed to the nuclear ground state and the predictions of the model are confronted with lattice QCD calculations. The inclusion of baryonic interactions leads to a qualitatively different behavior of the fluctuations of conserved charges in the crossover region. In many cases it resembles the lattice data. These results suggest that hadrons do not melt quickly with increasing temperature, as one could conclude on the basis of the common simple ideal HRG model. Calculations at finite chemical potentials show that the nuclear liquid-gas transition manifests itself by non-trivial fluctuations of the net baryon number in heavy ion collisions. In the final part of the thesis the pure glue initial scenario for high-energy hadron and heavy-ion collisions is explored. This scenario is shown not to spoil the existing agreement of the hadronic and electromagnetic observables description in Pb+Pb collisions at energies available at the CERN Large Hadron Collider. Hydrodynamic calculations suggest that collisions of small-sized nuclei at lower collision energies available at the BNL Relativistic Heavy Ion Collider are promising in the search for the traces of the chemically non-equilibrium gluon-dominated phase transition.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Die Arbeit beschäftigt sich mit der Herstellung sowie der strukturellen und magnetischen Charakterisierung von zwei Materialklassen von kupferbasierten zweidimensionalen Quanten-Spin-Systemen: Quadratische Gitter von Dimeren sowie geometrisch frustrierte Kagomé Gitter. In beiden Systemen werden Substitutionen vorgestellt die zu verbesserten Eigenschaften führen.
Im Rahmen dieser Arbeit wird darauf eingegangen, welche Anpassungen erforderlich sind, um Protonendichten vergleichbar zu bereits erzeugten Elektronendichten in Gabor-Linsen zu erhalten. Zur Vorbereitung zukünftiger Experimente werden vergleichende Simulationen zum Einschluss der Ladungsträgerdichten durchgeführt und die Strahldynamik bei der Wechselwirkung eines positiven Ionenstrahls mit einem in einer Gabor-Linse eingeschlossenen Protonenplasma untersucht. Die Ergebnisse der Strahldynamiksimulationen werden mit theoretischen Berechnungen vertieft, in dem die Brennweite einer Gabor-Linse, die mit einer beliebigen Teilchensorte gefüllt ist, berechnet und die Drift-Masse eingeführt wird.
Eine weitere analytische Betrachtung ist die Erweiterung der Teilchendynamik in der Gabor-Linse auf beliebige Anfangsbedingungen, in dem die dazugehörige Differentialgleichung entkoppelt und ganz allgemein gelöst wird. Die daraus berechneten Trajektorien der Teilchen führen zu einem besseren Verständnis, das weitere Anwendungen erschließen könnte.
The topic of this thesis is the investigation of scalar tetraquark candidates from lattice QCD. It is motivated by a previous study originating in the twisted mass collaboration. The initial tetraquark candidate of choice is the $a_0(980)$, an isovector in the nonet of light scalars ($J^P=0^+$). This channel is still poorly understood. It displays an inverted mass hierarchy to what is expected from the conventional quark model and the $a_0(980)$ and $f_0(980)$ feature a surprising mass degeneracy. For this reasons the $a_0(980)$ is a long assumed tetraquark candidate in the literature.
We follow a methodological approach by studying the sensitivity of the scalar spectrum with fully dynamical quarks to a large basis of two-quark and four-quark creation operators. Ultimately, the candidate has to be identified in the direct vicinity of two two-particles states, which is understandably inevitable for a tetraquark candidate. To succeed in this difficult task two-meson creation operators are essential to employ in this channel. By localized four-quark operators we intend to probe the Hamiltonian on eigenstates with a closely bound four-quark structure.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.
Diese Doktorarbeit widmet sich der Untersuchung von Systemen von Quarks und der Wechselwirkung zwischen ihnen mit Hilfe von Lattice QCD. Aus Quarks zusammengesetzte Objekte heißen Hadronen. Ein bestimmter Typ von Hadronen ist das sogenannten Tetraquark. In Teilchendetektoren wie dem LHCb in der Schweiz oder Belle in Japan wurden in jüngerer Zeit Zustände gefunden, die als Kandidaten für Tetraquarks gelten. Diese Arbeit befasst sich mit der Beschreibung und Untersuchung solcher Tetraquark-Zustände. Die Systeme, um die es in dieser Arbeit hauptsächlich geht, enthalten vier Quarks unterschiedlicher Masse. Zwei Quarks wird im Großteil der Arbeit eine unendlich große Masse zugeordnet. Zwei Quarks haben eine endliche Masse. In dieser statisch-leichten Näherung ist es möglich, das Potential der schweren Quarks in Anwesenheit der leichten Quarks zu bestimmen und zu überprüfen, ob es attraktiv genug dazu ist, einen gebundenen Zustand der vier Quarks zu bilden. Dieses Vorgehen ist als Born-Oppenheimer-Approximation bekannt. Die Observable, die berechnet werden muss, ist also das Vier-Quark-Potential.
Im ersten Teil der Arbeit werden verschiedene Vier-Quark-Potentiale aufgeführt und die zugehörigen Quantenzahlen genannt. Jeder der geeigneten Kanäle wird auf seine Fähigkeit untersucht, einen gebundenen Zustand zu bilden. Eine ausführliche systematische und statistische Analyse liefert den eindeutigen Befund, dass Bindung nur für Isospin I = 0 und nichtstatistsche u- und d-Quarks möglich ist. Im Falle von I = 1 oder nichtstatistschen s- und c-Quarks ist kein gebundener Zustand zu erwarten. Schließlich wird für den Fall der u- und d-Quarks eine Extrapolation zu physikalischen Quarkmassen durchgeführt. Die Bindung wird mit abnehmender Quarkmasse stärker. Am physikalischen Punkt wird eine Bindungsenergie von −90(+43−36) MeV festgestellt. Somit wird für Quantenzahlen I(J^P) = 0(1^+) ein gebundener b̄b̄ud-Zustand postuliert. Im zweiten Teil der Arbeit wird die statisch-leichte Näherung aufgehoben. So kann der Spin der schweren Quarks einbezogen werden. Dies führt unter anderem dazu, dass B- und B* -Mesonen unterscheidbar werden. Ein Nachteil dessen, dass vier Quarks endlicher Masse verwendet werden, ist der, dass es nun nicht mehr möglich ist, das Potential der schweren Quarks in Gegenwart der leichten zu bestimmen. Stattdessen wird aus der Korrelationsfunktion des Vier-Quark-Zustands direkt die Masse bestimmt. Zur Beschreibung der schweren Quarks wird der Ansatz der Nichtrelativistischen QCD (NRQCD) gewählt. Es wird der aus dem ersten Teil bekannte gebundene b̄b̄ud-Zustand mit Quantenzahlen I(J^P) = 0(1^+) weiter untersucht. Wir nehmen an, dass die Quantenzahlen durch ein BB*-Molekül realisiert werden. Wir bestimmen mithilfe des generalisierten Eigenwertproblems (GEP) den Grundzustand. Die Masse des Grundzustands ist ein Hinweis auf die Existenz eines gebundenen Zustands. Insgesamt bekräftigt der Befund das im ersten Teil der Arbeit gefundene Resultat, die Vorhersage eines bisher nicht gemessenen Tetraquark-Zustandes, qualitativ. Im dritten Teil der Arbeit geht es um Vier-Quark-Systeme, die ein schweres Quark und ein schweres Antiquark sowie ein leichteres Quark und ein leichteres Antiquark enthalten. Neben einem gebundenen Vier-Quark-Zustand ist u.a. die Bildung eines Bottomonium-und-Pion-Zustands möglich. Dies macht die theoretische Beschreibung dieses Systems ungleich schwieriger als die Beschreibung des im ersten und zweiten Teil der Arbeit untersuchten Systems. Seine experimentelle Untersuchung hingegen ist weniger aufwändig. So wurden bereits Kandidaten für einen solchen Zustand gemessen: Z_b(10610) und Z_b(10650). Zunächst wird ein Szenario beschrieben, in welcher Reihenfolge die zu den verschiedenen Strukturen gehörenden Potentiale vorliegen. So handelt es sich bei dem Grundzustandspotential des Systems um das Potential eines unangeregten Bottomonium-Zustands mit einem Pion in Ruhe. Darüber liegen zahlreiche Bottomonium-Zustände mit Pionen mit endlichem Impuls. Inmitten dieser Potentiale liegt gegebenenfalls das gesuchte Tetraquark-Potential. Ziel ist, einen Weg zu finden, die Bottomonium-und-Pion-Potentiale und das Tetraquark-Potential voneinander zu unterscheiden. Im ersten Schritt wird der Bottomonium-und-Pion-Grundzustand mithilfe des GEP aus dem System entfernt. Der erste angeregte Zustand ist im Anschluss daran weitgehend frei von Einflüssen des Grundzustands. Man findet, dass das Potential des ersten angeregten Zustandes attraktiv ist, sodass die Bildung eines Tetraquark-Zustandes nicht ausgeschlossen ist. Um den ersten angeregten Zustand weiter zu untersuchen, wird ein quantenmechanisches Modell verwendet, das die Volumenabhängigkeit des Überlapp eines Testzustands mit den verschiedenen Strukturen beschreibt. Es damit prinzipiell möglich, unter Zuhilfenahme mehrerer Gittervolumina eine Aussage über die Struktur des ersten angeregten Zustands zu treffen.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
QCD matter is expected to exist in different phases, when heated to high temperatures and getting highly compressed. Each phase could be characterized by distinct properties. A way to access extreme phases of matter in the laboratory are heavy-ion collisions at (ultra-)relativistic energies. During the collision, the temperature and density is evolving and reaches a maximum temperature and density far beyond the ground state of matter. The matter properties depend on the incident collision energy. Typically, a collision is separated into three collisions stages, namely first chance collisions (I), hot and dense stage (II) and freeze-out stage (III). Out of those, the second one is of major interest, since the extreme states of matter are generated within. For this reason, the most prominent change of the hadrons is expected to appear there in. Those changes are caused by i.e. modification of the hadronic spectral function. However, to retrieve such information is complicated. Hadrons are strongly interacting particles and therefore, carry little information about the hot and dense stage. For that purpose, decays of hadrons (low-mass vector mesons) to e+e- pairs via a virtual photon, so-called dielectrons, are an ideal probe. Electrons and positrons do not interact strongly and transport the information about the hot and dense stage nearly undisturbed to the detector. Unfortunately, the production of dielectrons is suppressed by a branching ratio of ≈ 10^(-5) and requires a precise lepton identification. Nonetheless, previous experiments have extracted a dilepton signal and observed in the low-mass range an excess over the hadronic cocktail. Latter one is expected to be caused by thermal radiation induced by the medium. Up to now, experiments conducted dilepton measurements with a focus on larger collision energies and large collision systems. Measurements of dielectrons at collision energies of around 1-2A GeV were only conducted for small and medium size collision systems. HADES continued the systematic studies by a measurement of Au+Au collisions at 1.23A GeV.
The detection of dielectrons requires detectors that handle high data rates and specific detectors for a high purity lepton identification. In HADES, the strongest separation of electrons or positrons from the hadronic background is provided by a ring imaging Cherenkov detector (RICH). Its electron identification is based on Cherenkov photons, that are emitted in ring like patterns. In this work a new approach, using the time-of-flight information to preselect electrons and the reconstructed particle trajectory to estimate ring positions, is utilized to improve the lepton identification. The concept of the so-called backtracking algorithm will be explained and applied to e+e- identification in Au+Au collisions. The whole analysis chain comprises single lepton identification, pair reconstruction and correction for efficiency and acceptance losses. The final pair spectra will be presented in form of their invariant mass, pt, mt and helicity distributions. Subsequently, transport model calculations as well as results from the recently developed coarse-grained transport approach will be compared to the dielectron spectra. Moreover, the centrality dependence of the excess yield and true (not "blue-shifted") temperature of the fireball will be presented. The results will be put in context to measurements of lighter collisions systems and at higher energies.
In this thesis, we study some features of the quantum chromodynamics (QCD) phase diagram at purely imaginary chemical potential using lattice techniques. This is one of the possible methodologies to get insights about the situation at finite density, where the sign problem prevents direct investigations from first principles.
We focus, in particular, on the Roberge-Weiss plane, where the phase structure with two degenerate flavours is studied both in the light and in the heavy quark mass limit. On the lattice, any result is affected by cut-off effects and so are the positions of the two tricritical points m_{tric}^{1,2} separating the second-order intermediate mass region from the first-order triple light and heavy mass regions. Therefore, changing the lattice spacing 'a', the values of m_{tric}^1 and m_{tric}^2 will change. In order to find their position in the continuum limit – i.e. for 'a' going to 0 – they have to be located on finer and finer lattices. Typically, in lattice QCD (LQCD) simulations, the temperature T is tuned through the bare coupling β, on which 'a' depends, while keeping Nt fixed. Hence, it is common to implicitly refer to how fine the lattice is just mentioning its temporal extent.
Using both Wilson and staggered fermions, we simulate Nf=2 QCD on Nt=6 lattices, varying the quark bare mass from the chiral (m_{u,d} going to 0) to the quenched (m_{u,d} going to infinity) limit. For each quark mass, a thorough finite scaling analysis is carried out, taking advantage of two different but consistent methods. In this way we identify the order of the phase transition locating, then, the position of the tricritical points. In order to convert our measurements to physical units we fix the scale measuring the lattice spacing as well as the pion mass corresponding to the quark bare mass used. This allows a comparison between different discretisation, getting a first idea of how serious are cut-off effects.
To be able to make a comparison between two different discretisations, we added an RHMC algorithm with staggered fermions to the CL2QCD software, a GPU code based on OpenCL, which we released in 2014. A considerable part of our work has been invested in ameliorating and optimising CL2QCD, as well as in developing new analysis tools regularly used next to it. Just to mention one, the multiple histogram method has been implemented in a completely general way and we took advantage of it in order to obtain more precise results. Finally, in order to efficiently handle and monitor the hundreds of simulations that are typically concurrently run in finite temperature LQCD, a completely new Bash library of tools has been developed. We plan to release it as a byproduct of CL2QCD in the near future.
Cleaning an ion beam from unwanted fractions is crucial for intense ion beams. This thesis will explore separation methods using a collimation channel, electric and magnetic dipoles and a velocity selector for low intensity beams on an experimental basis. In addition, statistical data of degassing events during the commissioning of a pentode extraction system for beam energies from 20 - 120keV will be presented.
The aim of this thesis is finding a geometric configuration that allows electron insertion into a Gabor plasma lens in order to increase the density of the confined electrons and provide ignition conditions at parameters where ignition is not possible. First, simulations using CST and bender were conducted to investigate several geometric configurations in terms of their performance of inserting electrons manually. One particular design has been chosen as a basis for an experiment. In order to prepare the experiment, further simulations using the code bender have been conducted to investigate the density distribution that is formed inside the Gabor lens when inserting electrons transversally in compliance with the chosen design. Additionally, bender was used to investigate the impact of the initial electron energy on the distribution inside the lens. Simulations with and without space charge effects have shown a significant impact of the space charge effects on the resulting density dstribution. Therefore, space charge effects have proven to be the major electron redistribution process. A given electron source was characterised in order to find the performance under the conditions inside a Gabor lens. In particular, a transversal magnetic field that will be present in the experiment has to be compensated by shielding the inner regions of the source by a μ-metal layer. Using a μ-metal shield, transversal magnetic fields are sufficiently tolerable to perform measurements in a Gabor lens. Additionally, operating close to 100 eV electron energy yields a maximum in the emitted current. Adding a Wehnelt cylinder to the electron source furthermore improves the extracted current to roughly 1 mA. A test stand consisting of a newly designed anode for the Gabor lens, as well as a terminal for the electron source, was constructed. The electron source was thoroughly characterised in the environment of the Gabor lens and the ignition properties of the new system were evaluated. In further experiments, electron beam assisted ignition by increasing the residual gas pressure was observed and the impact of the position of the electron source on the ignition properties was investigated. In addition, ignition of a sub-critical state, that is a state consisting of potential, magnetic field and pressure that did not yet perform ignition by itself, was performed by increasing the extracted current from the electron source. Finally, the electron source was used to influence a pre-ignited plasma. The density was measured, which was increased by the use of the electron source in most cases. This project is part of the EDEN collaboration (Electron DENsity boosting) of the NNP Group at IAP Frankfurt with INFN institutes in Bologna and Catania.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.