Institutes
Refine
Year of publication
Document Type
- Doctoral Thesis (223) (remove)
Has Fulltext
- yes (223)
Is part of the Bibliography
- no (223) (remove)
Keywords
- Beschleuniger (3)
- HADES (3)
- Heavy Ion Collisions (3)
- CBM (2)
- CBM Experiment (2)
- CBM experiment (2)
- Control System (2)
- Detector (2)
- Dissertation (2)
- EPICS (2)
- FAIR (2)
- Flow (2)
- Functional Renormalization Group (2)
- Neutron star (2)
- Numerical Relativity (2)
- Physics (2)
- QCD (2)
- Radio Frequenz Quadrupol (2)
- Teilchenbeschleuniger (2)
- Toroidales Magnetfeld (2)
- detector (2)
- energy system design (2)
- particle physics (2)
- power transmission (2)
- quantum chromodynamics (2)
- thin films (2)
- 2D materials (1)
- 325 MHz (1)
- ALICE (1)
- ALICE upgrade (1)
- Absolutkonfiguration (1)
- Accelerator (1)
- Activation (1)
- Activation experiment (1)
- Ageing (1)
- Akustik (1)
- Anisotropic flow (1)
- Artificial Intelligence (1)
- Astrophysics (1)
- Auditory cortex (1)
- Beschleunigung von Elektronen und Protonen (1)
- Betatronstrahlung (1)
- Binary (1)
- Biomoleküle (1)
- Black hole (1)
- Bohmian mechanics (1)
- Boltzmann equation (1)
- Bulk viscosity (1)
- CERN PSB (1)
- CH-Struktur (1)
- CO2 emission reduction targets (1)
- Chiralität (1)
- Chopper (1)
- Color Glass Condensate (1)
- Color superconductivity (1)
- Coltrims (1)
- Compressed Baryonic Matter (1)
- Compton scattering (1)
- Correlated systems (1)
- Correlations (1)
- Coulomb Explosion Imaging (1)
- Cross section (1)
- Czochralski method (1)
- DLA Elektronen (1)
- Deep Learning (1)
- Density functional theory (1)
- Detektor (1)
- Deuteronen (1)
- Dynamical mean field theory (1)
- Eingebettetes optisches System (1)
- Einplatinene Kamera (1)
- EuB6 (1)
- Exotic State (1)
- FEBID (1)
- FLASH Effekt (1)
- FRANZ-Projekt (1)
- Finite-Differenzen (1)
- Fluka (1)
- Fluktuationsspektroskopie (1)
- Fragmentierungsquerschnitte (1)
- Funktionale Renormierungsgruppe (1)
- GEANT (1)
- Gabor lens (1)
- Gammakalorimeter (1)
- Global polarization (1)
- Gravitational Waves (1)
- Gravitational wave (1)
- HBT (1)
- HLT (1)
- Hadron Spectroscopy (1)
- Heavy-ion Collisions (1)
- Heavy-ion collision (1)
- Heavy-ion collisions (1)
- Heavy-ions (1)
- High-Level Trigger (1)
- High-energy photoabsorption (1)
- Historie (1)
- Hochenergiephysik (1)
- Hochstrom-Ionenquelle (1)
- Homeostasis (1)
- Hydrodynamic (1)
- Inclusive Reconstruction (1)
- Injektionssystem (1)
- Interferometrie (1)
- Inverse Kinematics (1)
- Ion Beam (1)
- Iron pnictides (1)
- Kaons (1)
- Keldysh-Formalismus (1)
- Kinetic Theory (1)
- Kitaev model (1)
- Kupfer-63 (1)
- LHC (1)
- LINAC (1)
- Ladder-RFQ (1)
- Lambda Hyperon (1)
- Langsame Extraktion (1)
- Laute (1)
- Learning (1)
- Linac (1)
- MAPS (1)
- MYRRHA (1)
- Mach cones (1)
- Magnetic field (1)
- Magnons (1)
- Mars (1)
- Metasurfaces (1)
- Micro Vertex Detector (1)
- Molekülphysik (1)
- Multimessenger (1)
- NA61/SHINE (1)
- Network model (1)
- Neural Networks (1)
- Neutron Star (1)
- Nicht-linearer Transport (1)
- Nichtinvasiv (1)
- Nickel-63 (1)
- Non-dipole (1)
- Nuclear Astrophysics (1)
- Nukleosynthese (1)
- Numerical Renormalization Group (1)
- O(4) conjecture (1)
- Open Charm (1)
- Particle Accelerator (1)
- Phase diagram (1)
- Plasticity (1)
- Population activity (1)
- Protonen (1)
- Protonen Linac (1)
- Quantenphysik (1)
- Quantum Impurity System (1)
- Quantum chromodynamics (1)
- RFQ (1)
- Representational drift (1)
- Riccati equation (1)
- Rydberg (1)
- SYK model (1)
- Scattering-type Scanning Near-field Optical Microscopy (1)
- Schaum (1)
- Schottky (1)
- Scintillation (1)
- Self-triggered front-end electronics (1)
- Septum (1)
- Shield (1)
- Shock Waves (1)
- Silicon Tracking System (1)
- Silicon tracking system (1)
- Slavkovska (1)
- Solid state theory (1)
- Spectators (1)
- Speicherring (1)
- Spektroskopie (1)
- Spinwaves (1)
- Spinwellen (1)
- Stahlenschäden (1)
- Storage Ring (1)
- Strahltransport (1)
- Strange hadrons (1)
- Synaptic plasticity (1)
- Synchrotron (1)
- Szintillation (1)
- THz (1)
- THz imaging (1)
- TNSA (1)
- TPSC (1)
- TeraFET (1)
- Theoretical neuroscience (1)
- Theta-Pinch (1)
- Topologische Zustände (1)
- Transition Radiation Detector (1)
- Tumortherapie (1)
- Ultrakalte Quantengase (1)
- UrQMD (1)
- Vertex Detector (1)
- Weak Decays (1)
- Wigner function (1)
- YbNi4P2 (1)
- YbRh2Si2 (1)
- Yttrium-Eisengranat (1)
- accelerator physics (1)
- application (1)
- atomic cluster deposition (1)
- atomic cluster on a suface (1)
- beam dynamics (1)
- brightness (1)
- bunch-to-bucket (1)
- chiral effect (1)
- chromium (1)
- circadian rhythm (1)
- closed orbit feedback system (1)
- commissioning (1)
- correlated electrons (1)
- detectors (1)
- diagnostics (1)
- dynamical mean-field theory (1)
- electromagnetic fields (1)
- electron tunneling (1)
- equation of state (1)
- field-effect transistor (1)
- field-effect transistors (1)
- fluctuations (1)
- frequency beating (1)
- gasous detectors (1)
- granular metals (1)
- granulare Metalle (1)
- half-integer resonance (1)
- heavy fermions (1)
- heavy ions (1)
- heavy-ion physics (1)
- high-Tc superconductivity (1)
- high-energy physics (1)
- ionisierende Strahlung (1)
- ionizing radiation (1)
- large-scale integration of renewable power generation (1)
- large-scale integration of variable renewable generation (1)
- laser-ion acceleration (1)
- lattice (1)
- lattice QCD (1)
- lattice-supersolid (1)
- liver, pancreas (1)
- low-mass dilepton (1)
- many-body blockade (1)
- many-body method (1)
- nanofractal formation (1)
- nanofractal fragmentation (1)
- nnp (1)
- non-neutral plasma (1)
- nonneutral plasma (1)
- optimal wind/solar mix (1)
- organotypic slice culture (1)
- p-Linac (1)
- phase shift (1)
- piezoresistivity (1)
- plasmonics (1)
- pressure sensors (1)
- quantum criticality (1)
- quantum hydrodynamics (1)
- quantum mechanics (1)
- quark gluon plasma (1)
- quark-gluon plasma temperature (1)
- quasiparticle expansion (1)
- resonances (1)
- resonant (1)
- s-Prozess (1)
- sign problem (1)
- single crystal growth (1)
- space charge (1)
- stability analysis (1)
- stability matrix eigenvalues (1)
- storage ring (1)
- strong correlations (1)
- su(2) x u(2) (1)
- superconductivity (1)
- supraleitend (1)
- synchronization two rings (1)
- terahertz (1)
- tetraquarks (1)
- thermal transition (1)
- thermodynamics (1)
- thermoelectrics (1)
- topological states (1)
- transmission grid extensions (1)
- ultracold quantum gases (1)
- van der Waals (1)
Institute
- Physik (223)
- MPI für Biophysik (1)
The present thesis is primarily concerned with the application of the functional renormalization group (FRG) to spin systems. In the first part, we study the critical regime close to the Berezinskii-Kosterlitz-Thouless (BKT) transition in several systems. Our starting point is the dual-vortex representation of the two-dimensional XY model, which is obtained by applying a dual transformation to the Villain model. In order to deal with the integer-valued field corresponding to the dual vortices, we apply the lattice FRG formalism developed by Machado and Dupuis [Phys. Rev. E 82, 041128 (2010)]. Using a Litim regulator in momentum space with the initial condition of isolated lattice sites, we then recover the Kosterlitz-Thouless renormalization group equations for the rescaled vortex fugacity and the dimensionless temperature. In addition to our previously published approach based on the vertex expansion [Phys. Rev. E 96, 042107 (2017)], we also present an alternative derivation within the derivative expansion. We then generalize our approach to the O(2) model and to the strongly anisotropic XXZ model, which enables us to show that weak amplitude fluctuations as well as weak out-of-plane fluctuations do not change the universal properties of the BKT transition.
In the second part of this thesis, we develop a new FRG approach to quantum spin systems. In contrast to previous works, our spin functional renormalization group (SFRG) does not rely on a mapping to bosonic or fermionic fields, but instead deals directly with the spin operators. Most importantly, we show that the generating functional of the irreducible vertices obeys an exact renormalization group equation, which resembles the Wetterich equation of a bosonic system. As a consequence, the non-trivial structure of the su(2) algebra is fully taken into account by the initial condition of the renormalization group flow. Our method is motivated by the spin-diagrammatic approach to quantum spin system that was developed more than half a century ago in a seminal work by Vaks, Larkin, and Pikin (VLP) [Sov. Phys. JETP 26, 188 (1968)]. By embedding their ideas in the language of the modern renormalization group, we avoid the complicated diagrammatic rules while at the same time allowing for novel approximation schemes. As a demonstration, we explicitly show how VLP's results for the leading corrections to the free energy and to the longitudinal polarization function of a ferromagnetic Heisenberg model can be recovered within the SFRG. Furthermore, we apply our method to the spin-S Ising model as well as to the spin-S quantum Heisenberg model, which allows us to calculate the critical temperature for both a ferromagnetic and an antiferromagnetic exchange interaction. Finally, we present a new hybrid formulation of the SFRG, which combines features of both the pure and the Hubbard-Stratonovich SFRG that were published recently [Phys. Rev. B 99, 060403(R) (2019)].
High-energetic heavy-ion collisions offer the unique opportunity to produce and to study dense nuclear matter in the laboratory. The future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany, will provide beams of heavy nuclei up to kinetic energies of 11 GeV/nucleon. At these energies, the nuclear matter in the collision zone of two nuclei will be compressed to densities of up to 5 − 10 times the saturation density of atomic nuclei, similar to matter densities existing in the core of massive neutron stars. Under those conditions, nucleons are expected to melt and form a new state of matter, which consists of quarks and gluons, the so called Quark-Gluon Plasma (QGP). The search for such a phase transition from hadronic to partonic matter, and the exploration of the nuclear matter equation-of-state at high densities are the major goals of heavy ion experiments worldwide.
The observables, which are proposed to probe the properties of dense nuclear matter and possible phase transitions, include multi-strange hyperons, antibaryons, lepton pairs, collective flow of identified particles, fluctuations and correlations of various particles, particles containing charm quarks, and hypernuclei. These observables have to be measured in multi-dimensions, i.e. as function of collision centrality, rapidity, transverse momentum, energy, emission angle, etc., which requires extremely high statistics. Moreover, some of these particles are produced very rarely.
Therefore, the Compressed Baryonic Matter (CBM) experiment at FAIR is designed to run at collision rates of up to 10 MHz, in order to perform measurements with unprecedented precision. Due to the complicated decay topology of many observables, no hardware trigger can be applied, and the data have to be analysed online in order to filter out the interesting events.
This strategy requires free-streaming read-out electronics, which provides time stamps to all detector signals, a high performance computer center, and high-speed reconstruction algorithms, which provide an online track and event reconstruction based on time and position information of the detector hits (”4-D“ reconstruction).
The core detector of the CBM experiment is the Silicon Tracking System (STS). The main task of the STS is to provide track reconstruction and momentum de- termination of charged particles originating from beam-target interactions. To fulfil the whole tasks the STS is located in the large gap of a superconducting dipole magnet with a bending power of 1 Tm providing momentum measurements for charged particles. The STS comprises 8 detector stations, which are positioned from 30 cm to 100 cm downstream the target. The corresponding active area of the stations grows up from 40×50 cm 2 up to 100×100 cm 2 with a totalarea of 4 m2. The silicon double-sided sensors exhibit 1024 strips on each side with a stereo angle at p-side of 7.5 ◦ and a strip pitch of 58 μm. The strip length ranges from 2 cm for sensors located in a close vicinity to the beam axis, up to 12 cm for other sensors where the flux of the reaction products drops down substantially. In total, the STS consist of 896 sensors mounted on 106 detector ladders. The detector readout electronics dissipates 40 kW and will be equipped with a CO 2 bi-phase cooling system. The detector including electronics will be mounted in a thermal enclosure to allow for sensor operation at below −5 ◦ C which minimizes radiation induced leakage currents.
The task of the STS is to measure the trajectories of up to 800 charged particles per collision with an efficiency of more than 95% and a momentum resolution of 1 − 2%. In order to guarantee the required performance over the full lifetime of the CBM experiment, the detector system has to have a low material budget, a high granularity, a high signal-to-noise (SNR) ratio, and a high radiation tolerance. As a result of optimisation studies, the STS consists of double-sided silicon microstrip sensors, about 300 μm thick, which have to provide a SNR ratio of more than 10, even after radiation with the expected equivalent lifetime fluence of 10 14 1 MeV n eq cm −2.
This thesis is devoted to the characterization of double-sided silicon microstrip sensors with an emphasis on investigation of their radiation hardness. Different prototypes of double sided silicon sensors produced by two vendors have been irradiated by 23 MeV protons up to the double life time fluence for the CBM experiment (2 × 10 14 1 MeV n eq cm −2 ).
The sensor properties have been characterised before and after irradiation. It was found, that after irradiation with a double lifetime fluence the leakage current increased 1000 times, which results in an increased shot noise. Moreover, the relative charge collection efficiency of irradiated with respect to non-irradiated sensors drops down to 85% for the lifetime equivalent fluence, and down to 73% for the double lifetime fluence, both for the p-side and n-side. For non-irradiated sensors the SNR was found to be in the range of 20 − 25, whereas for irradiated sensors it dropped down to 12 − 17.
In addition to the sensor characterization, a part of this thesis was devoted to the optimisation of the sensor readout scheme. In order to investigate the possible increase of SNR, and to reduce the number of readout channels in the outer aperture of STS, three versions of routing lines have been realized for the p-side readout of the sensor prototype, and have been tested in the laboratory and under beam conditions.
The tests have been performed with different inclination angles between beam direction and sensor surface, corresponding to the polar angle acceptance of the CBM experiment, which is from 2.5 ◦ to 25 ◦.
As a result of the studies carried out in this thesis work, the radiation hardness of the double-sided silicon microstrip sensors developed for the CBM STS detector was confirmed. Also the advantage of individual read-out of sensor channels in the lateral regions of the detector was verified. This allowed to start the tendering process for sensor series production in industry, an important step towards the construction of the detector in the coming years.
The Compressed Baryonic Matter experiment (CBM) at FAIR and the NA61/SHINE experiment at CERN SPS aim to study the area of the QCD phase diagram at high net baryon densities and moderate temperatures using heavy-ion collisions. The FAIR and SPS accelerators cover energy ranges 2-11 and 13-150 GeV per nucleon respectively in laboratory frame for heavy ions up to Au and Pb. One of the key observables to study the properties of a matter created in such collisions is an anisotropic transverse flow of particles.
In this work, the performance of the CBM experiment for anisotropic flow measurements is studied with Monte-Carlo simulations using gold ions at SIS-100 energies employing different heavy-ion event generators. Also, procedures for centrality estimation and charged hadron identification are described and corresponding frameworks are developed.
The measurement of the reaction plane angle is performed with Projectile Spectator Detector (PSD), which is a hadron calorimeter located at a very forward angle. To prevent radiation damage by the high-intensity ion beam, the PSD has a hole in the center to let the beam pass through. Various combinations of CBM detector subsystems are used to investigate the possible systematic biases in flow and centrality measurements. Effects of detector azimuthal non uniformity and the PSD beam hole size on physics performance are studied. The resulting performance of CBM for flow measurements is demonstrated for identified charged hadron anisotropic flow as a function of rapidity and transverse momentum in different centrality classes.
The measurement techniques developed for CBM were also validated with the experimental data recently collected by the NA61/SHINE experiment at CERN SPS for Pb+Pb collisions at the beam momenta 30A GeV/c. Compared to the existing data from the NA49 experiment at the CERN SPS, the new data allows for a more precise measurement of anisotropic flow harmonics. The fixed target setup of NA61/SHINE also allows extending flow measurements available from the STAR at the RHIC beam energy scan (BES) program to a wide rapidity range up to the forward region where the projectile nucleon spectators appear. In this thesis, an analysis of the anisotropic flow harmonics in Pb+Pb collisions at beam momenta 30A GeV/c collected by the NA61/SHINE experiment in the year 2016 is presented. Flow coefficients are measured relative to the spectator plane estimated with the Projectile Spectators Detector (PSD). The flow coefficients are obtained as a function of rapidity and transverse momentum in different classes of collision centrality. The results are compared with the corresponding NA49 data and the measurements from the RHIC BES program.
The brain is a large complex system which is remarkably good at maintaining stability under a wide range of input patterns and intensities. In addition, such a stable dynamical state is able to sustain essential functions, including the encoding of information about the external environment and storing memories. In order to succeed in these challenging tasks, neural circuits rely on a variety of plasticity mechanisms that act as self-organizational rules and regulate their dynamics. Based on toy models of self-organized criticality, this stable state has been proposed to be a phase transition point, poised between distinct types of unhealthy dynamics, in what has become known as the critical brain hypothesis. It is not yet known, however, if and how self-organization could drive biological neural networks towards a critical state while maintaining or improving their learning and memory functions.
Here, we investigate the emergence of criticality signatures in the form of neuronal avalanches due to self-organizational plasticity rules in a recurrent neural network. We show that power-law distributions of events, widely observed in experiments, arise from a combination of biologically inspired synaptic and homeostatic plasticity but are highly dependent on the external drive. Additionally, we describe how learning abilities and fading memory emerge and are improved by the same self-organizational processes. We finally propose an application of these enhanced functions, focusing on sequence and simple language learning tasks.
Taken together, our results suggest that the same self-organizational processes can be responsible for improving the brain’s spatio-temporal learning abilities and memory capacity while also giving rise to criticality signatures under particular input conditions, thus proposing a novel link between such abilities and neuronal avalanches. Although criticality was not verified, the detailed study of self-organization towards critical dynamics further elucidates its potential emergence and functions in the brain.
Die vorliegende Dissertation untersucht die Nichtgleichgewichtsdynamik von relativistischen Schwerionenkollisionen ausgehend von der anfänglichen Produktion von Teilchen durch den Zerfall von Strings, der Bildung eines Quark-Gluon-Plasmas (QGP), dessen kinetische und chemische Äquilibrierung als Funktion der Zeit sowie seine Transporteigenschaften im Gleichgewicht bei endlicher Temperatur und endlichem chemischen Potential. Ein Verständnis der frühen Phase der Schwerionenkollisionen ist insbesondere von großen Interesse, da letztere eine Verbindung zwischen den ersten Nukleon-Nukleon Kollisionen und der Quark-Gluon-Plasma Phase herstellen, die zu einem späteren Zeitpunkt ein gewisses Maß an Thermalisierung zeigt. Allerdings können nur Nichtgleichgewichts-Theorien eine Verbindung zwischen dem anfänglichen QGP und seiner - zumindest partiellen - Thermalisierung herstellen. Um die Dynamik eines stark wechselwirkenden Mediums wie des Quark-Gluon-Plasmas zu beschreiben, reichen übliche Transportgleichungen (basierend auf der Boltzmann-Gleichung) nicht aus und es müssen komplexere Theorien, die auch für stark korrelierte Medien geeignet sind, angewendet werden. Hier kommen hydrodynamische Simulationen oder Transportrechnungen - basierend auf verallgemeinerten Transportgleichungen - zum Einsatz. Solche verallgemeinerte Transportgleichungen, wie die Kadanoff-Baym-Gleichungen, ergeben sich aus der quantenmechanischen Nichtgleichgewichts-Vielteilchentheorie, in der Green’s- Funktionen in Minkowski Raum-Zeit die interessierenden Größen sind, um die Dynamik des betrachteten Mediums zu beschreiben. Mit geeigneten Näherungen kann man so kinetische Transportgleichungen erhalten, die eine einheitliche Behandlung von stabilen und instabilen Teilchen auch außerhalb des Gleichgewichts ermöglichen. Diese Bestandteile bilden die Basis des Transportmodells Parton-Hadron-String Dynamics (PHSD), welches daher ein geeignetes ’Instrument’ ist um die verschiedenen Phasen einer Schwerionenkollision zu analysieren, egal ob die verschiedenen Formen der Materie im Gleichgewicht sind oder nicht.
In dieser Arbeit wird zunächst die Quantenchromodynamik (QCD) vorgestellt und erklärt, wie diese Theorie im Laufe der Jahre entwickelt wurde um ein wichtiger Bestandteil des Standardmodells der Teilchenphysik zu werden. Wir werden weiterhin die verbleibenden Herausforderungen in unserem Verständnis der QCD vorstellen, die sich primär auf das Phasendiagramm der stark wechselwirkenden Materie konzentrieren.
Im zweiten Kapitel untersuchen wir die Nichtgleichgewichts-Feldtheorie und die damit verbundenen Techniken - wie die Keldysh-Kontur - zur Beschreibung der Green’schen Funktionen als wesentlichen Freiheitsgrade. Wir leiten die Evolutionsgleichung für die Green’schen Funktionen her, d. h. die Kadanoff Baym-Gleichungen am Beispiel einer skalaren Feldtheorie.
Im nächsten Kapitel wird das Transportmodell Parton-Hadron-String Dynamics (PHSD), welches die Anwendung der verallgemeinerten Transportgleichungen zur Beschreibung relativistischer Schwerionenkollisionen darstellt, vorgestellt.
Wir beginnen im Kapitel 4 mit der Untersuchung der Nichtgleichgewichtseigenschaften des Quark-Gluon-Plasmas, welches bei relativistischen Schwerionenkollisionen erzeugt wird. Zu diesem Zweck vergleichen wir die Quark-Gluon-Plasmaentwicklung aus dem PHSD mit einem viskosen hydrodynamischen Modell, bei dem ein lokales kinetisches und chemisches Gleichgewicht angenommen wird.
Im Kapitel 5 konzentrieren wir uns auf das frühe Vorgleichgewichtsstadium ultra-relativistischer Schwerionenkollisionen und insbesondere auf die Freiheitsgrade der QGP-Phase in diesem Stadium. Wir untersuchen die Auswirkungen eines QGP, welches anfänglich entweder aus einem System aus massiven Gluonen (Szenario I) oder alternativ aus Quarks und Antiquarks (Szenario II) besteht. Das nächste Kapitel wird ebenfalls die Produktion von Teilchen im Frühstadium von Schwerionenkollisionen behandeln, jedoch bei niedrigeren Kollisionsenergien. Hier wird eine mikroskopische Beschreibung des K+/pi+-Verhältnisses im Vordergrund stehen, d. h. die Erklärung des Maximums in diesem Verhältnis bei etwa 30 A GeV ("Horn") in zentralen Au+Au (oder Pb+Pb) Kollisionen. Insbesonders werden wir die Modifikation des String-Fragmentierungsprozesses (über den Schwinger-Mechanismus) in einer Umgebung mit hoher hadronischer Dichte aufgrund der teilweisen Wiederherstellung der chiralen Symmetrie untersuchen.
In Kapitel 7 erweitern wir das Parton-Hadron-String Dynamics (PHSD)-Transportmodell im partonischen Sektor, indem wir explizit die totalen und differentiellen partonischen Streuungsquerschnitte als Funktion der Temperatur T und des baryochemischen Potentials μB berechnen auf der Basis der effektiven Propagatoren und Kopplungen des Dynamical QuasiParticle Models (DQPM), welches auch die generelle Zeitentwicklung der partonischen Freiheitsgrade beschreibt. Wir finden nur eine sehr bescheidene Änderung von n/s mit dem baryonchemischen Potential μB in Abhängigkeit von der skalierten Temperatur T/Tc(μB). Dies gilt auch für eine Vielzahl von hadronischen Observablen aus zentralen A+A Kollisionen im Energiebereich von 5 GeV < vsNN < 200 GeV bei der Implementierung der differentiellen Querschnitte in das PHSD-Modell. Da wir in Schwerionen-Observablen nur kleine Spuren einer μB-Abhängigkeit finden - obwohl die effektiven Partonenmassen und Kollisionsbreiten sowie deren Partonenquerschnitte eindeutig von μB abhängen - impliziert dies, dass man eine beträchtliche Partonendichte und ein großes Raum-Zeit-QGP-Volumen zur Untersuchung der Dynamik in der partonischen Phase benötigt. Diese Bedingungen sind nur bei hohen Kollisionsenergien erfüllt, bei denen μB jedoch eher niedrig ist. Wenn andererseits die Kollisionsenergie verringert und somit μB erhöht wird, wird die hadronische Phase dominant und dementsprechend wird es zunehmend schwieriger, Signale aus der Partonendynamik auf der Basis von "Bulk"-Observablen zu extrahieren.
HADES (High Acceptance DiElectron Spectrometer), located at GSI, is a versatile detector for precise spectroscopy of e+ e- pairs and charged hadrons produced on a fixed target in a 1 to 3.5 AGeV kinetic beam energy region. The main experimental goal is to investigate properties of dense nuclear matter created in heavy ion collisions and learn about in-medium hadron properties.
In the HADES set-up 24 Mini Drift Chambers (MDC) allow for track reconstruction and determining the particle momentum by exploiting charged particle deflection in a magnetic field. In addition, the drift chambers contribute to particle identification by measuring the energy loss. The read-out concept foresees each sensing wire to be equipped with a preamplifier, analog pulse shaper and discriminator. In the current front-end electronics, the ASD-8 ASIC comprises the above modules. Due to limitations of the current on-board time to digital converters (TDC), especially regarding higher reaction rates expected at the future FAIR facility (HADES at SIS-100), the electronics need to be replaced by new board featuring multi-hit TDCs. Whereas ASD-8 chips cannot be procured anymore, a promising replacement candidate is the PASTTREC ASIC, developed by JU Krakow, which was tested w.r.t. suitability for MDC read-out in a variety of set-ups and, where possible, in direct comparison to ASD-8.
The timing precision, being the most crucial performance parameter of the joint system of detector and read-out electronics, was assessed in two different set-ups, i.e. a cosmic muon tracking set-up and a beam test at the COSY accelerator at Juelich using a minimum ionizing proton beam.
The beam test results were reproduced and can thus be quantitatively explained in a three dimensional GARFIELD simulation of a HADES MDC drift cell. In particular, the simulation is able to describe the characteristic dependence of the time precision on the track position within the cell.
A circuit simulation (SPICE) was used to closely model the time development of a raw drift chamber pulse, measured as a response to X-rays from a 55 Fe source. The insights gained from this model were used for attributing realistic charge values to the time over threshold values measured with the read-out ASICs in a charge calibration set-up. Furthermore, a high-level circuit simulation of the PASTTREC shaper is implemented to serve as a demonstration of the effect of the individual shaping and tail cancellation stages which are present in both ASICs.
The production cross section and the transverse momentum distribution of charged particles is measured in pp collisions at √s = 2.76 TeV, 5.02 TeV, 7 TeV and 13 TeV, as well as for Pb-Pb collision at √s_NN = 5.02 TeV and Xe-Xe at √s_NN = 5.44 TeV in ALICE at the LHC. The measurement is performed in the transverse momentum region of 0.15 < p_T < 50 GeV/c and in the pseudorapidity range of |η| < 0.8. The precision of the measurement has been substantially enhanced as a result of the improved corrections, by taking into account a more realistic particle composition in the MC simulations. As a result, the systematic uncertainties have been reduced by more than a factor two in all systems and energies.
The average transverse momentum <p_T> results show a faster-than-linear increase with the center-of-mass energy and follow a similar trend with respect to previous measurements. The analysis of the p_T spectra in multiplicity intervals show a weak center-of-mass energy dependence when they are compared to their respective inelastic (INEL) pp measurement. The average multiplicity as a function of the collision energy shows a quadratic trend, and the comparison with other ALICE multiplicity measurements exhibits a remarkable agreement, within uncertainties.
The transverse momentum spectra in pp collisions are compared to state-of-the-art MC simulations, EPOS LHC and PYTHIA 8 event generators; none of them is able to reproduce the distributions over the full p_T range.
The differential cross section in pp collisions is an essential observable for the study of the Quark Gluon Plasma (QGP) created in ultra-relativistic heavy-ion collisions. The absence of a medium formation in pp collisions serves as an essential baseline for studies of particle production and suppression due to parton energy-loss in the QGP. Since pp collisions at √s = 5.44 TeV were not measured by ALICE, the pp reference at this energy was constructed by using a power law interpolation between the s = 5.02 TeV and 7 TeV data. The pp results are compared to the particle production in Pb-Pb collisions at √s_NN = 5.02 TeV and Xe-Xe collisions at √s_NN = 5.44 TeV.
The nuclear modification factor R_AA for Pb-Pb and Xe-Xe collisions was calculated and a strong suppression of high-p_T particles is observed in central collisions. The R AA in different systems allows for a differential study of the parton energy loss in the QGP. The comparison of the R AA in multiplicity intervals between the two systems provide insights into the path length dependence of a parton that propagates in the medium.
Die Bestrahlung atmungsbewegter Tumoren stellt eine Herausforderung für die moderne Strahlentherapie dar. In der vorliegenden Arbeit werden zu Beginn die physikalischen, technischen und medizinischen Grundlagen vorgestellt, um dem Leser den Einstieg in die komplexe Thematik zu erleichtern. Des Weiteren werden verschiedene Techniken zur Bestrahlung atmungsbewegter Zielvolumina vorgestellt. Auch wird auf die Sicherheitssäume eingegangen, die notwendig sind, um Fehler in der Bestrahlungskette beim Festlegen des Planungszielvolumens für die Bestrahlung auszugleichen.
Im Rahmen dieser Arbeit wurde ein Konzept entwickelt, wodurch sich der Sicherheitssaum von bewegten Tumoren in der Radiochirurgie mit dem Tumor-Tracking-System des Cyberknifes noch weiter verkleinern lässt. Somit kann die sogenannte therapeutische Breite der Behandlung weiter vergrößert werden kann. Dafür wurden ein 4D-CT und ein Gating-System in den klinischen Betrieb aufgenommen. Die entwickelte Technik basiert auf den zehn individuellen Atemphasen des 4D-CTs und lässt eine Berücksichtigung bewegter Risikostrukturen bereits während der Bestrahlungsplanung zu. Diese Methode wurde mit aktuellen Bestrahlungstechniken mittels eines Vergleichs der Bestrahlungspläne anhand von zehn Patientenfällen verglichen. Zur Erstellung der Bestrahlungspläne kamen die Bestrahlungsplanungssysteme von Varian (Eclipse 13.5) und Accuray (Multiplan 4.6) zum Einsatz. Es wurden insbesondere die Bestrahlungsdosen an den Risikoorganen und die Volumina ausgewählter Isodosen betrachtet. Hier zeigte sich eine klare Abhängigkeit von der Belastung des gesunden Gewebes von der verwendeten Bestrahlungstechnik. Dies lässt die Schlussfolgerung zu, dass mit einer Reduzierung des Sicherheitssaums, welcher abhängig von der verwendeten Planungs- und Bestrahlungstechnik ist, eine Vergrößerung der therapeutischen Breite einhergeht. Zusätzlich bleibt bei einer geringen Belastung des umliegenden gesunden Gewebes die Möglichkeit für eine weitere Bestrahlung offen.
Anschließend wurden anhand von berechneten Testplänen Messungen an einem für diese Arbeit modifizierten Messphantom am Varian Clinac DHX und am Cyberknife VSI durchgeführt. Hier wurden die beim Planvergleich verwendeten Bestrahlungstechniken verwendet, um einen Abgleich von berechneter und tatsächlich applizierter Dosis zu erhalten. Das verwendete Messphantom simuliert die Atmung des Patienten und lässt gleichzeitig eine Verifikation der Dosisverteilung mit EBT3-Filmen sowie Messungen mit Ionisationskammern zu. Es zeigte sich, dass für die Techniken, welche aktiv die Atmung berücksichtigen (Synchrony am Cyberknife und Gating am Varian Clinac), selbst im Niedrigdosisbereich eine gute Übereinstimmung zwischen Messung und Berechnung der Dosisverteilung vorliegt. Sobald die Bewegung des Zielvolumens bereits bei der Bestrahlungsplanung berücksichtigt wird, steigt die Übereinstimmung weiter an. Für Techniken, welche die Atmung lediglich bei der Zielvolumen-Definition einbeziehen (ITV-Konzept), liegen sowohl die mit Ionisationskammern gemessenen Werte als auch die Übereinstimmung von berechneter und gemessener Dosisverteilung außerhalb des Toleranzbereichs.
Eine weitere Frage dieser Arbeit befasst sich mit der Treffsicherheit des Tumor-Tracking-Systems des Cyberknifes (Synchrony). Hier wurden Messungen mit dem XSightLung-Phantom und unterschiedlichen Sicherheitssäumen, welche die Bewegung des Tumors ausgleichen sollen, durchgeführt. Dies geschah sowohl mit dem für das Phantom vorgesehenen Würfel mit Einschüben für EBT3-Filme als auch mit einem Film-Sanchwich aus Flab-Material zur Untersuchung einer dreidimensionalen Dosisverteilung. Die Analyse der Filme ergab, dass es zumindest an einem Phantom mit einer einfachen kraniokaudalen Bewegung nicht nötig ist, die Bewegung des Zielvolumens durch einen asymmetrischen Sicherheitssaum in Bewegungsrichtung zu kompensieren um die Abdeckung des Zielvolumens mit der gewünschten Dosis zu gewährleisten.
Durch diese Arbeit konnten zusätzlich weitere wertvolle Erkenntnisse für den klinischen Alltag gewonnen werden: bei der Untersuchung der Bewegung von Tumoren in freier Atmung sowie bei maximaler Inspiration und Exspiration zeigte sich, dass zum Teil die Tumorbewegung in maximalen Atemlagen (3-Phasen-CT) deutlich von der freien Atmung abweicht. Dies lässt den Schluss zu, dass für eine Bestrahlung in freier Atmung ein 4D-CT die Tumorbewegung deutlich realistischer widerspiegelt als ein 3-Phasen-CT, zumal letzteres eine größere Dosisbelastung für den Patienten bedeutet.
Ebenfalls konnte anhand einer retrospektiven Untersuchung von Lungentumoren gezeigt werden, dass für die Berechnung von Bestrahlungsplänen für Tumoren in inhomogenem Gewebe der Ray-Tracing-Algorithmus die Dosis im Zielvolumen teilweise sehr stark überschätzt. Um eine realistische Dosisverteilung zu erhalten, sollte deshalb insbesondere bei Tumoren in der Lunge auf den Monte-Carlo-Algorithmus zurückgegriffen werden.
Mit immer komplexeren Experimenten erhöhen sich die Anforderungen an die Detektoren und diese Arbeit ist ein neuer Beitrag für eine weiterentwickelte technologische Lösung. In der vorliegenden Dissertation wurde eine nichtinvasive optische Strahldiagnose für intensive Ionenstrahlen in starken Magnetfeldern entwickelt. Das optische System besteht aus miniaturisierten Einplatinen CMOS-Kameras. Sowohl die hardwareseitige Entwicklung als auch die softwareseitige Implementierung der Algorithmen zur Kamerakalibrierung, Netzwerksteuerung und Strahlrekonstruktion wurden in dieser Arbeit entwickelt. Die Leistungsstärke dieses neuartigen Diagnosesystems wurde dann experimentell an einem Teststand demonstriert. Dabei wurde das optische System ins Vakuumstrahlrohr eingebettet. Ein Wasserstoffionenstrahl mit einer Energie von 7keV bis 10keV und einem Strahlstrom bis 1mA wurde in einer Stickstoffatmosphäre bis 1E-5 mbar untersucht. Dabei wurde der Ionenstrahl entlang des Strahlrohres des Toroidsegmentmagnetes mit einer Bogenlänge von 680mm mit einem xy-Kamerasystem beobachtet.
Der Strahlschwerpunkt und die Breite des Strahlprofils wurden im Ortsraum rekonstruiert. Die analytisch berechnete und in anderen Arbeiten simulierte Gyrationsbewegung sowie der RxB-Drift des Strahlschwerpunktes konnte experimentell bestätigt werden.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
Die vorliegende Dissertation befasst sich mit der Entwicklung und Erforschung eines konzeptionell neuartigen Injektionssystems zum Transport von Ionenstrahlen in toroidale Magnetfeldstrukturen. Die Forschungsarbeit ist dabei Teil des Figure-8 Speicherringprojekts (F8SR) des IAP, bei welchem es um die Erforschung der Physik und die Entwicklung eines niederenergetischen, supraleitenden, magnetostatischen Figure-8 Hochstromspeicherrings geht. Dieser neuartige Speicherring ermöglicht aufgrund des Einsatzes von fokussierenden solenoidalen und toroidalen Magnetfeldern das Speichern von Strahlströmen von bis zu einigen Ampere. Diese Arbeit baut auf früheren Forschungsarbeiten zu diesem Themenfeld auf, in welchen die Grundlagen und Ausgangsparameter für die experimentelle Untersuchung der Injektion gelegt und mit dem Aufbau des Injektionsexperiments begonnen wurde.
In dieser Dissertation wird den Fragen nachgegangen, ob ein magnetisches Konzept des Injektionssystems mittels eines „Scaled-Down“-Experiments experimentell umsetzbar ist und ob mit diesem die Injektion von Ionenstrahlen in toroidale Magnetfeldstrukturen realisiert werden kann. Ziel ist es dabei, ein Injektionssystem aufzubauen, durch welches sowohl ein seitlich injizierter Injektionsstrahl, welcher den in den Speicherring zu injizierenden Strahl darstellt, als auch ein gleichzeitig durch die toroidalen Magnetfelder driftender Ringstrahl, welcher den im Speicherring zirkulierenden Strahl darstellt, ohne Verluste transportiert werden können. Das Injektionssystem besteht dabei aus drei normalleitenden Magneten, wobei es sich um zwei baugleiche 30 Grad Toroide sowie einen Solenoid handelt. Die Toroide bilden den Transportkanal für den Ringstrahl, während der Injektionssolenoid senkrecht zwischen den beiden Toroiden endet und den Injektionskanal für den Injektionsstrahl darstellt.
Zunächst wurde das Injektionssystem mittels Strahltransportsimulationen untersucht und aufbauend auf den Ergebnissen die benötigen Vakuumkomponenten sowie der Injektionsmagnet ausgelegt, entwickelt und umgesetzt. Anschließend wurde mit dem fertigstellten Injektionsexperiment der Transport von zwei Ionenstrahlen durch das Injektionssystem experimentell erforscht. Dabei wurden die Strahlpfade mit einem in Entwicklung befindlichen Kameradetektorsystem aus verschiedenen Perspektiven aufgenommen und das Strahlverhalten in Abhängigkeit von unterschiedlichen Parametern phänomenologisch analysiert und diskutiert, mit den Ergebnissen der Simulationen verglichen sowie theoretisch bzgl. der RxB Drift und eines Gedankenmodells eingeordnet. Die technische Umsetzung, Inbetriebnahme und Durchführung verschiedener Vorabexperimente bzgl. weiterer Komponenten des Injektionsexperiments (bspw. Ionenquellen und Filterkanäle) ist ebenfalls Bestandteil dieser Arbeit.
Bei den experimentellen Untersuchungen mit Wasserstoff- und Heliumionenstrahlen konnte beobachtet werden, wie der Injektionsstrahl in den zweiten Toroid driftet und somit erfolgreich injiziert wird. Des Weiteren wurde eine Heliummessung durchgeführt, bei der sowohl der Injektionsstrahl als auch der Ringstrahl erfolgreich durch das Injektionssystem transportiert werden konnten. Auch die Auswirkungen des Injektionsmagneten auf den Ringstrahl konnten experimentell untersucht werden. Die verschiedenen Messungen wurden mittels des Gedankenmodells diskutiert und mit den Ergebnissen der Simulationen sowie untereinander verglichen.
Das abschließende Ergebnis dieser Arbeit ist, dass durch den Einsatz von solenoidalen und toroidalen Magnetfeldern der Injektionsstrahl vom Injektionsmagneten in den zweiten Toroid transportiert und dieser somit in die gekoppelte magnetische Konfiguration der Toroide eingelenkt werden kann. Der gleichzeitige verlustfreie Transport eines Ringstahls durch das Injektionssystem konnte dabei ebenfalls realisiert werden. Des Weiteren stimmen die Ergebnisse der Simulationen und Experimente sowie die theoretischen Überlegungen überein.
Das neuartige Injektionskonzept, welches als Schlüsselkomponente für die Umsetzung des Figure-8 Hochstromspeicherrings benötigt wird, wurde somit mittels Theorie, Simulation und Experiment überprüft und die Funktionalität bestätigt.
Zukünftige Forschungsfragen für welche der Figure-8 Hochstromspeicherring verwendet werden könnte, bspw. aus den Bereichen der experimentellen Astrophysik oder Fusionsforschung, wurden abschließend diskutiert.
Defossiliation of the energy system is crucial in the face of the impending risks of climate change. Electricity generation by burning fossil fuels is being displaced by renewable energy sources like hydro, wind and solar, driven by support schemes and falling costs from technological advances as well as manufacturing scale effects. The unavoidable shift from flexibly dispatchable generation to weather-dependent spatio-temporally varying generators transforms the generation and distribution of electricity into highly interdependent complex systems in multiple dimensions and disciplines:
In time, different scales, stretching from intra-day, diurnal, synoptic to seasonal oscillations of the weather interact with years and decades of planning and construction of capacity. In space, long-range correlations and local variations of weather systems as well as local bottlenecks in transmission networks affect solutions. The investment decisions about technological mix and spatial distribution of capacity follow economic principles, within restrictions which adapt in social feedback loops to public opinion and lobbyist influences.
In this work, a family of self-consistent models is developed which map physical steady-state operation, capacity investments and exogeneous restrictions of a European electricity system, in higher simultaneous spatial and temporal detail as well as scope than has previously been computationally tractable. Increasing the spatial detail of the renewable resources and co-optimizing the expansion of only a few transmission lines, reveals solutions to serve the European electricity demand at about today’s electricity cost with only 5% of its carbon-dioxide emissions; and importantly their electricity mix differs from the findings at low spatial resolution.
As important intermediate steps,
• new algorithms for the convex optimization of electricity system infrastructure are derived from graph-theoretic decompositions of network flows. Only these enable the investigation of model detail beyond previous computational limitations.
• a comprehensive European electricity network model down to individual substations at the transmission voltage levels is built by combining and completing data from freely available sources.
• a network reduction technique is developed to approximate the detailed model at a sequence of spatial resolutions to investigate the role of spatial scale, and identify a level of spatial resolution which captures all relevant detail, but is still computationally tractable.
• a method to trace the flow of power through the network, which is related to a vector diffusion process on a directed flow graph embedded in a network, is used to analyse the resulting technology mix and its interactions with the power network
The open-source nature of the model and restriction to freely available data encourages an accessible and transparent discussion about the future European electricity system, primarily based on renewable wind and solar resources.
In the course of this thesis we discuss a certain kind of supersolid, the lattice-supersolid, which can be realized using quantum gases in an optical lattice trap. The lattice-supersolid, which simultaneously possesses off-diagonal and diagonal long-range order in its density matrix and also breaks the discrete translational symmetry of an underlying lattice, is induced by self-ordering of the gas due to strong long-range van der Waals interactions. In the considered scenario, the interactions are facilitated by the excitation of atomic Rydberg states, which exhibit enhanced van der Waals forces.
In the first part of this thesis (chapters 1-3), we review the relevant basics of quantum gases, Rydberg physics and introduce the extended Bose-Hubbard model. We start with the relevant methods and devices of the vast toolbox available in common quantum gas experiments, as well as consider the main concepts behind superfluidity and supersolidity. This is followed by an introduction of some basic concepts of Rydberg atoms in quantum many-body systems, with a focus on the facilitation of long-range interactions and the implementation in a theoretical model. Thereafter a brief introduction is given, on the realization of the Bose-Hubbard model in optical lattice systems and its extension to include Rydberg states, which concludes the introductory part of this thesis.
In the following part (chapters 4-6), we introduce the theoretical tools used to derive the results presented in the final part. First, an introduction to a real-space extension of bosonic dynamical mean-field theory (RB-DMFT) for bosonic systems with long-range interactions in the Hartree approximation is given. This method is based on the non-perturbative self-consistent evaluation of the lattice Green’s function, which also incorporates the effect of nearest neighbor correlations due to the non-condensed particles. Then we focus on a quasiparticle expansion of the Bose-Hubbard model, which has its foundation in linearized fluctuations of a static mean-field ground-state, allowing for the prediction of a vast range of experimentally relevant observables. Lastly, we introduce an efficient truncation scheme for the local bosonic Fock-basis, which allows for the simulation of phases with high condensate density at a vastly reduced computational effort.
In the final part (chapters 7 and 8), we discuss the application of both methods to itinerant bosonic gases in two-dimensional optical lattices, in order to predict the equilibrium ground-state phases, as well as the signatures of supersolidity and its formation in spectral functions and the dynamic and static structure factor. Specifically, we focus on two limiting cases. Firstly, we consider a two-component gas, as realized by two hyperfine ground states, for example, of rubidium-87, where one component is off-resonantly excited to a Rydberg state, which generates a soft-core shaped interaction potential. Secondly, we discuss the opposing limit, using near-resonant excitations
of Rydberg states, where the interacting component now directly corresponds to the Rydberg state, which interacts via a van der Waals potential. In both cases we discuss the rich variety of supersolid phases, which are found for a wide range of parameters. We also discuss how some of these phases can be realized in experiment.
In the subsequent appendices (A to D) we discuss some methodological details. Most notably, we consider the possible Fock-extension of the Hartree approximation (appendix A), introduced in the RB-DMFT treatment of the extended Bose-Hubbard model.
This thesis presents the first measurement of the proton capture reaction on the isotope 124Xe performed in inverse kinematics. The experiment was carried out in June 2016 at the Experimental Storage Ring (ESR) at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, Germany.
124Xe is one of about 35 p-nuclei that cannot be produced via neutron-induced nucleo- synthesis as the vast majority of heavy elements. Its production and destruction provide important information about the nucleosynthesis of the p-nuclei. Measuring the 124Xe(p,g)125Cs reaction also gives strong constraints for its reverse 125Cs(g,p)124Xe reaction.
Fully stripped 124Xe ions repeatedly passed a H2 gas jet target at five different energies between 5.5 MeV/u and 8 MeV/u. An electron cooler compensated for the energy loss in the target and reduced the beam momentum spread. The reaction product 125Cs55+ has a smaller magnetic rigidity than 124Xe54+. Therefore 125Cs55+ was deflected towards smaller radii in the first dipole after the target area and thereby separated from 124Xe54+. It was detected with a position-sensitive Double-Sided Silicon Strip Detector (DSSSD). The novelty of this experiment was the installation of the DSSSD inside the ultra-high vacuum of the storage ring using a newly designed manipulator.
Three High-Purity Germanium X-ray detectors were used to measure the X-rays following the Radiative Electron Capture (REC) events into 124Xe53+. The REC cross sections are well-known and were used to determine the luminosity.
The 124Xe(p,g)125Cs cross sections at ion beam energies between 5.5 MeV/u and 8 MeV/u were determined relatively to the K-REC cross sections and finally compared to the theoretically predicted cross sections. While theoretical predictions of the TENDL database are lower than the measured ones by a factor of up to seven, the NON-SMOKER data are higher by a factor of up to two, except of the cross section at 7 MeV/u, where NON-SMOKER data are slightly lower than the experimental value.
For the first time, a proton capture cross section could be measured in inverse kinematics close to the astrophysically relevant Gamow window. This allows the direct determination of the (p,g) cross section of isotopes with half-lives down to several minutes, which is not possible with any other technique.
In this thesis we work on the theoretical description of relativistic heavy-ion collisions, focussing on electromagnetic probes. We present mainly four topics: electric conductivity and diffusion properties of the hot plasma and hadronic matter, response of the quark-gluon plasma to external magnetic fields, direct photon production in the quark-gluon plasma and a study about initial and final state effects in small systems. The latter topic aims, i.a., at a better understanding of the initial state, which is crucial for electromagnetic probes. In all research areas we make use of the Boltzmann transport equation, whereby the presented methods provide analytical and numerical solutions. We pay particular attention to the construction of complete leading order photon production processes in numerical transport simulations of the quark-gluon plasma.
To begin with, our findings are the complete conserved charge diffusion matrix and electric conductivity. Those properties are important ingredients, e.g., for future simulations of baryon rich collisions. Next, we find that the influence of external magnetic fields to the QGP dynamics is not quantifiable in observables.
We present results for a variety of direct photon observables and we can partly explain experimental data. We emphasize the importance of the chemical composition and non-equilibrium nature of the medium to the direct photon puzzle. Lastly, we observe the interesting dynamic behavior of azimuthal correlations in small systems and identify signatures of the initial state in final observables. This will also be of interest for more precise simulations of electromagnetic probes and allows for various future studies.
Die vorliegende Arbeit präsentiert die wissenschaftlichen Erkenntnisse, welche im Rahmen dreier verschiedener Messreihen gewonnen wurden. Kernthema ist in allen Fällen die Ionisation von molekularem Wasserstoff mit Photonen.
Im Rahmen der Messung sollte eine 2014 veröffentlichte Vorhersage der theoretischen Physiker Vladislav V. Serov und Anatoli S. Kheifets im Experiment überprüft werden. Ihren Berechnungen zufolge kann ein sich langsam vom Wasserstoff Molekülion entfernendes Photoelektron durch sein elektrisches Feld das Mutterion polarisieren und dafür sorgen, dass beim anschließenden Aufbruch in ein Proton und ein Wasserstoffatom eine asymmetrische Emissionswinkelverteilung zu beobachten ist [SK14]. Diese Vorhersage konnte mit den Ergebnissen der hier vorgestellten Messung zweifelsfrei untermauert werden. Für drei verschiedene Photonenenergien, welche im relevanten Reaktionskanal Photoelektronenenergien von 1, 2 und 3 eV entsprechen, wurden die prognostizierten Symmetrien in den Messdaten herauspräpariert. Es zeigte sich, dass diese sowohl in qualitativer wie auch in quantitativer Hinsicht gut bis sehr gut mit den Vorhersagen übereinstimmen.
Im zweiten Teil dieser Arbeit wurde erneut die Dissoziationsreaktion, allerdings bei deutlich höheren Photonenenergien, untersucht. Ziel war es, den in Zusammenarbeit mit den Physikern um Fernando Martin gelungenen theoretischen Nachweis der Möglichkeit einer direkten Abbildung von elektronischen Wellenfunktionen auch im Experiment zu vollziehen. Der überwiegende Teil aller Veröffentlichungen im Vorfeld dieser Messung fokussierte sich bei den Untersuchungen der Wellenfunktion entweder auf die rein elektronischen Korrelationen - so zum Beispiel in Experimenten zur Ein-Photon-Doppelionisation, wo Korrelationen zwischen beiden beteiligten Elektronen den Prozess überhaupt erst möglich machen - oder aber auf den Einfluss, welchen das Molekülpotential auf das emittierte Elektron ausübt. Die wenigen Arbeiten, die sich bis heute an einer unmittelbaren Abbildung elektronischer Wellenfunktionen versuchten, gingen meist den im Vergleich zu dieser Arbeit umgekehrten Weg: Man untersuchte hier das Licht höherer Harmonischer, wie sie bei der lasergetriebenen Ionisation und anschließenden Rekombination eines Photoelektrons mit seinem Mutterion entstehen.
In dieser Arbeit wurde ein Ansatz präsentiert, der zwei überaus gängige und verbreitete Messtechniken geschickt kombiniert - Während das Photoelektron direkt nachgewiesen und seine wesentlichen Eigenschaften abgefragt werden, kann der quantenmechanische Zustand des zweiten, gebunden verbleibenden Elektrons über einen koinzident dazu geführten Nachweis des ionischen Reaktionsfragments bestimmt werden. Dieser Vorgang stützt sich wesentlich auf Berechnungen der Gruppe um Fernando Martín, welche eine Quantifizierung der Beiträge einzelner Zustande zum gesamten Wechselwirkungsquerschnitt dieser Reaktion erlauben. Diese unterscheiden sich je nach Energie der Fragmente signifikant, so dass über eine Selektion des untersuchten KER-Intervalls Kenntnis vom elektronischen Zustand des H2 +-Ions nach der Photoemission erlangt werden kann. Die experimentellen Daten unterstützen die Theorie von Martin et al. nicht nur mit verblüffend guter Übereinstimmung, die gemessenen Emissionswinkelverteilungen stehen darüber hinaus auch in sehr gutem Einklang mit ihren theoretisch berechneten Gegenstücken. Die Ergebnisse wurden zwischenzeitlich in der renommierten Fachzeitschrift Nature Communications veröffentlicht [WBM+17].
Die dritte Messreihe innerhalb dieser Arbeit beschäftigt sich mit der Photodoppelionisation von Wasserstoff. Im Rahmen des selben Experiments wie die weiter vorn beschriebene Dissoziationsmessung bei 400 eV Photonenenergie aufgenommen, belegen die Ergebnisse auf wunderbar anschauliche Art und Weise, dass die Natur in unserer Umgebung voller Prozesse ist, die ursprünglich als rein quantenmechanische Laborkonstrukte angesehen wurden. Es konnte zweifelsfrei gezeigt werden, dass die beiden Elektronen, die bei der Photodoppelionisation freigesetzt werden, als ein Quasiteilchen aufgefasst werden können. Sie befinden sich in einem verschränkten Zweiteilchenzustand, und nur eine koinzidente Messung beider Elektronen vermag es, Interferenzeffekte in ihren Impulsverteilungen sichtbar zu machen - betrachtet man beide hingegen individuell, so treten keinerlei derartige Phänomene auf. Es gelang dabei zudem, eine beispielhafte Übereinstimmung zwischen den gemessenen Daten und einer theoretischen Berechnung der Kollegen um Fernando Martín zu erreichen.
Terahertz (THz) physics are an emerging field of research dealing with electromagnetic radiation in the far-infrared to microwave region. The development of innovative technologies for the generation and detection of THz radiation has only in the recent past led to a tremendous rise of both fundamental research as well as investigation of possible fields of application for THz radiation. The most prominent reason has long been the scarce accessibility of the THz region of the electromagnetic spectrum - commonly loosely located between 0.1 and 30 THz - to broad research, and it was mostly limited to astronomy and high energy physics facilities. Over the recent years, numerous novel concepts on both the source and detector side have been proposed and successfully implemented to overcome this so-called THz gap. New technology has become available and paved the way for wide-spread experimental laboratory work and accompanying theoretical investigations. First application studies have emerged and in some cases even commercial development of the field of THz physics is on the rise. Despite these enormous progresses, a continuing demand for more efficient THz detectors still impels current technological research. Relatively low source powers are often a major limiting factor and the request for new detection concepts, their understanding and implementation, as well as the optimization on a device basis has been and still remains in place. One of these concepts is the use of field-effect transistors (FETs) high above their conventional cut-off frequencies as electronic THz detectors. The concept has been proposed in a number of theoretical publications by M. Dyakonov and M. Shur in the early 1990's, who pioneered to show that under certain boundary conditions, non-linear collective excitations of the charge carrier system of a two-dimensional electron gas (2DEG) by incident THz radiation can exhibit rectifying behaviour - a detection principle, which has become known as plasma wave or plasmonic mixing. Up until this day, the concept has been successfully implemented in many device realizations - most advanced in established silicon CMOS technology - and stands on the edge of becoming commercially available on a large scale. The main direction of the work presented in this thesis was the modeling and experimental characterization of antenna-coupled FETs for THz detection - termed TeraFETs in this and the author's previous works - which have been implemented in different material systems. The materials presented in this thesis are AlGaN/GaN HEMTs and graphene FETs. In a number of scientific collaborations, TeraFETs were designed based on a hydrodynamic transport model, fabricated in the respective materials, and characterized mainly in the lower THz frequency region from 0.2 to 1.2 THz. The theoretical description of the plasma wave mixing mechanism in TeraFETs, as initiated by Dyakonov and Shur, was based on a fluid-dynamic transport model for charge carriers in the transistor channel. The THz radiation induces propagating charge density oscillations (plasma waves) in the 2DEG, which via non-linear self-mixing cause rectification of the incident THz signals. Over the course of this work, it became evident in the on-going detector characterization experiments that this original theoretical model of the detection process widely applied in the respective literature does not suffice to describe some of the experimental findings in TeraFET detection signals. Thorough measurements showed signal contributions, which are identified in this work to be of thermoelectric origin arising from an inherent asymmetric local heating of charge carriers in the devices. Depending on the material, these contributions constituted a mere side effect to plasmonic detection (AlGaN/GaN) or even reached a comparable magnitude (graphene FETs). To include these effects in the detector model, the original reduced fluid-dynamic description was extended to a hydrodynamic transport model. The model yields at the current stage a reasonable qualitative agreement to the measured THz detection signals. This thesis presents the formulation of a hydrodynamic charge carrier transport model and its specific implementation in a circuit simulation tool. A second modeling aspect is that the transport equations cover only the intrinsic plasmonic detection process in the active gated part of the TeraFET's transistor channel. In order to model and simulate the behavior of real devices, extrinsic detector parts such as ungated channel regions, parasitic resistances and capacitances, integrated antenna impedance, and others must be considered. The implemented detector model allows to simulate THz detection in real devices with the above influences included. Besides presentation of the detector model, experimental THz characterization of the fabricated TeraFETs is presented in this work. Careful device design yielded record detection performance for detectors in both investigated materials. The respective results are shown and the experimental observations of the thermoelectric effect in TeraFETs are compared to modeling results. It is the goal of this work to provide a framework for further theoretical and experimental studies of the plasmonic and thermoelectric effect in TeraFETs, which could eventually lead to a new type of THz detectors particularly exploiting the thermoelectric effect to enhance the sensitivity of today's plasmonic TeraFETs.
Das Standardmodell der Elementarteilchenphysik beschreibt nach aktuellem Kenntnisstand die Entstehung, den Aufbau und das Verhalten der Materie in unserem Universum am erfolgreichsten. Dennoch gibt es einige Phänomene, die sich nicht in dessen Rahmen beschreiben lassen, wie z. B. die Existenz von dunkler Materie und Energie, nicht-verschwindende Neutrinomassen oder die Baryonenasymmetrie. Speziell im Hinblick auf die starke Wechselwirkung, welche im Standardmodell durch die Quantenchromodynamik (QCD) beschrieben wird, gibt es noch immer viele offene Fragen.
Eine Umgebung, in der man die QCD experimentell ergründen kann, bieten vor allem Schwerionenkollisionen, die insbesondere am Large Hadron Collider (LHC) oder am Relativistic Heavy Ion Collider (RHIC) durchgeführt werden.
In dieser Arbeit soll ein Beitrag von theoretischer Seite aus hinsichtlich eines besseren Verständnisses dieser Schwerionenkollisionen und der zugrundeliegenden QCD erbracht werden. Der Fokus liegt dabei auf dem Isotropisierungsprozess unmittelbar nach der Kollision der beiden Kerne.
Neben etlichen effektiven Theorien, die sehr gute Ergebnisse in den entsprechenden Grenzbereichen liefern, ist die Beschreibung der QCD im Rahmen der Gittereichtheorie (Gitter-QCD) die am meisten etablierte. Diese beinhaltet in den meisten Fällen einen Übergang zur euklidischen Raumzeit, da somit ein Auswerten der hochdimensionalen Pfadintegrale mithilfe von Monte-Carlo-Simulation basierend auf dem sogenannten Importance Sampling ermöglicht wird. Aufgrund der Komplexwertigkeit der euklidischen Zeitkomponente ist man jedoch an das Studieren von statischen Observablen gebunden. Da wir aber gerade an einer Zeitentwicklung des Systems interessiert sind, sehen wir von dem Übergang zur euklidischen Raumzeit ab, was den Namen “real-time” im Titel der Arbeit erklärt.
Wir folgen dem sogenannten Hamilton-Ansatz und leiten damit Feldgleichungen in Form von partiellen Differentialgleichungen her, die wir dann mit den Methoden der Gitter-QCD numerisch lösen. Dabei bedienen wir uns der effektive Theorie des Farb-Glas-Kondensats (CGC, aus dem Englischen: “Color Glass Condensate”), um geeignete Anfangsbedingungen zu erhalten. Genauer gesagt basieren unsere Gitter-Anfangsbedingungen auf dem McLerran-Venugopalan-Modell (MV-Modell), das eine klassische Approximation in niedrigster Ordnung darstellt und nur Beiträge rein gluonischer Felder berücksichtigt.
Die klassische Näherung sowie das Vernachlässigen der fermionischen Felder wird insbesondere mit den hohen Besetzungszahlen der Feldmoden begründet. Einerseits dominieren Infrarot-Effekte, welche klassischer Natur sind, und andererseits ist dadurch der Einfluss der Fermionen, die dem Pauli-Prinzip gehorchen, unterdrückt. Gerade bei letzterer Aussage fehlt es jedoch an numerischen Belegen. Wir erweitern daher die klassische MV-Beschreibung durch stochastische Gitter-Fermionen, um diesem Punkt nachzugehen. Da sich Fermionen nicht klassisch beschreiben lassen, spricht man hierbei oft von einem semi-klassischen Ansatz.
Eines der Hauptziele dieser Arbeit liegt darin, den Isotropisierungsprozess, der bislang noch viele Fragen aufwirft, aber unter anderem Voraussetzung für das Anwenden von hydrodynamischen Modellen ist, zu studieren. Wir legen dabei einen besonderen Fokus auf die systematische Untersuchung der verschiedenen Parameter, die durch die CGC-Anfangsbedingungen in unsere Beschreibung einfließen, und deren Auswirkungen auf etwa die Gesamtenergiedichte des Systems oder die zugehörigen Isotropisierungszeiten. Währenddessen überprüfen wir zudem den Einfluss von unphysikalischen Gitter-Artefakten und präsentieren eine eichinvariante Methode zur Analyse der Güte unserer klassischen Näherung. Die Zeitentwicklung des Systems betrachten wir dabei sowohl in einer statischen Box als auch in einem expandierenden Medium, wobei Letzteres durch sogenannte comoving Koordinaten beschrieben wird. Zudem liefern wir einen Vergleich von der realistischen SU(3)-Eichgruppe und der rechentechnisch ökonomischeren SU(2)-Eichgruppe.
Mit unseren numerischen Ergebnissen zeigen wir, dass das System hochempfindlich auf die verschiedenen Modellparameter reagiert, was das Treffen quantitativer Aussagen in dieser Formulierung deutlich erschwert, insbesondere da einige dieser Parameter rein technischer Natur sind und somit keine zugehörigen physikalisch motivierten Größen, die den Definitionsbereich einschränken könnten, vorhanden sind. Es ist jedoch möglich, die Anzahl der freien Parameter zu reduzieren, indem man ihren Einfluss auf die Gesamtenergie des Systems analysiert und sich diesen zunutze macht. Dadurch gelingt es uns mithilfe von Konturdiagrammen einige Abhängigkeiten zu definieren und somit die Unbestimmtheit des Systems einzuschränken. Des Weiteren finden wir dynamisch generierte Filamentierungen in der Ortsdarstellung der Energiedichte, die ein starkes Indiz für die Präsenz von sogenannten chromo-Weibel-Instabilitäten sind. Unsere Studie des fermionischen Einflusses auf den Isotropisierungsprozess des CGC-Systems weist auf, dass dieser bei kleiner Kopplung vernachlässigbar ist. Bei hinreichend großen Werten für die Kopplungskonstante sehen wir allerdings einen starken Effekt hinsichtlich der Isotropisierungszeiten, was ein bemerkenswertes Resultat ist.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Most of the elements heavier than iron are produced through neutron capture reactions in the s- and r -process. The overall path of the s-process is well understood and can be accurately reproduced in network simulations. However, there are still some neutron capture reactions of unstable nuclei involved in the s-process, which were not yet measured due to the difficulty in producing suitable targets. In those cases, theoretical models have to be used to estimate the missing cross section.
One example is the branching point nucleus 86Rb, whose neutron capture cross section cannot be directly measured due to its short half life of 18.86 days. It is, however, also possible to measure its inverse, the 87Rb(g,n) reaction in order to obtain the 86Rb(n,g) cross section through the principle of detailed balance.
Natural rubidium was irradiated with a quasi-monoenergetic photon beam in the energy range between 10.7 MeV and 16 MeV in order to investigate the photo-dissociation cross section of 87Rb. The results are presented in this thesis. Not only the total cross section of 87Rb(g,n), but also the partial production cross section of the ground and isomeric state of 84Rb through the 85Rb(g,n) reaction was measured.
Not all isotopes can be reached via neutron capture reaction, and are therefore bypassed by the s- and r -process. These 35 proton-rich isotopes are called p-nuclei and are produced in the γ-process by a chain of photo-disintegration reactions in Type II supernovae. Network calculations of Type II supernova show that the γ-process can explain the production of most p-nuclei, but some – especially 92/94Mo and 96/98Ru – are heavily underproduced. While this could be the result of deficiencies in the corresponding stellar models or insufficient knowledge of the involved reaction rates, it is also possible that the missing p-nuclei are synthesized in other production scenarios.
An alternative scenario for 92Mo is the production via a chain of proton capture reactions in Type Ia supernovae. One important reaction in this chain is the 90Zr(p,g) reaction. The reaction cross section was already measured several times, but the results were inconclusive. In the present work, the 90 Zr(p,g) reaction was measured using the in-beam gamma-ray spectroscopy technique and the discrepancies between the data sets could be largely explained.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
Compact objects - black holes and neutron stars - are fascinating objects, not only for the astrophysicists, but for a wide range of researchers, including astronomers, theoretical physicists, particle and nuclear physicists, condensed matter physicists and arguably for the layman as well.
First theorized in the first part of the twentieth century, for a long time these objects have been considered just exotic ideas or mathematical curiosities. Pulsar were however detected in the late 1960s and readily identified as rotating, radiating neutron stars, while the first candidate black hole, Cygnus X-1, was observed in 1972. Since then the interest in these objects has steadily grown.
The reasons behind this interest are easily understood considering that compact object dwell at the intersection of many different areas of physics, and are ideal laboratories to explore the interplay between these areas.
Black holes, which are purely gravitational objects, are perfectly suited to study the nature of gravity, its manifestations such as gravitational waves, and the differences between various theories of gravity in the regime where they are expected to be most relevant, i.e. the strong field regime. However, just like any massive astrophysical object, black holes are interested by accretion phenomena, which are thought to be the power source of some very bright astrophysical emitters of electromagnetic signals, such as active galactic nuclei or X-ray binaries.
At the same time, black holes exist in a variety of different mass scales, from stellar mass to supermassive black holes billions of times heavier. The latter play a very important and yet not fully understood role in the formation and evolution of galaxies, as well as in shaping the large scale structure of the universe, making them relevant to cosmology as well.
Neutron stars share with black holes the characteristic of being gravitationally dominated systems; but because they are composed of baryon matter, they display a much richer behaviour. It has been realized early on that the matter in neutron star cores reaches extreme densities, exceeding the one in atomic nuclei. This means that neutron stars could provide invaluable information on the behaviour of matter in such extreme conditions (which are impossible to achieve in laboratory experiments), such as details of the nucleonic interaction, the properties of hyperons or of quark-gluon plasmas.
...
Most of the elements in the universe are produced via charged-particle fusion reactions during the primordial nucleosynthesis and different stellar burning stages, as well as via neutron-capture reactions. Around 35 heavy, proton-rich isotopes are bypassed by those reaction paths, the p nuclei. A series of photo-disintegration reactions occurring in supernovae, called the γ process, was suggested as a mechanisms to produce the p nuclei. Numerical simulations of the γ process have been unable to reproduce the observed abundances of the light p isotopes. Recent models showed that a series of proton capture reactions could provide the observed abundances. Hence, the cross sections of the crucial capture reactions have to be measured in order to test those assumptions.
Radiative proton captures in addition to the γ-process could reproduce the observed abundance pattern. This thesis presents preparations of a proton capture measurement on the radioactive 91Nb in standard kinematics with a calorimetric 4π setup. The 91Nb(p,γ)92Mo reaction might be the key to explain the production of one of the most abundant p-nuclei, 92Mo. So far, no experimental data for this reaction is available.
We produced a sample of 91Nb, with a half-life of 680 yr, at the Physikalisch Technische Bundesanstalt in Braunschweig, Germany, by irradiating 92Mo with protons in the energy range of 12 – 20MeV. 91Nb was produced via the reaction 92Mo(p,2p)91Nb and via 92Mo(p,pn)91Mo, where 91Mo decays to 91Nb with a half-life of 15.5min. To predict the amount of produced 91Nb the cross section of 92Mo(p, 2p) was measured. It was found to be higher than the value given by theoretical calculations with TALYS. Finally, 91Nb was chemically separated from the molybdenum carried at Paul-Scherrer- Institut, Villigen, Switzerland.
In-beam total absorption cross-section measurement of the reaction 91Nb(p,γ)92Mo with 2 MeV protons at FRANZ is planed with the produced 91Nb. A 4π BaF2 detector consisting of 41 crystals will be used. During this experiment we will measure the sum energy and the multiplicity of each event. The freshly produced 91Nb constitutes only a minor component of the sample material. The sum energy and multiplicity are crucial to distinguish the desired 91Nb(p,γ) from all the other more dominant reactions. The expected multiplicity and the efficiency of the setup were carefully simulated with DICEBOX and GEANT4. It was possible to show that background reactions can be effectively suppressed. The most important background contributions could be identified and result from 92Mo(p,γ), 19F(p,γ), and 19F(p,α).
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
The theory of strong interactions — Quantum Chromodynamics (QCD) — is well-defined mathematically. However, direct applications of this theory to experiment are rather limited due to significant technical obstacles. Even some general features of QCD remain unclear to date.
Hence, phenomenological input is important and needed for practical applications, e.g. for theoretical analysis of the heavy-ion collision experiments. In this thesis the role of hadronic interactions is studied in the hadron resonance gas (HRG) model — a popular model for the confined phase of QCD. The description of hadronic interactions is based on the famous van der Waals (VDW) equation and its quantum statistical generalization. While this is not the conventional choice for nuclear/hadronic physicspplications, the simplicity of the VDW approach makes it extremely useful.
In particular, this framework allows to include the two most basic ingredients of hadron-hadron interaction: the short-range repulsion, modeled by excluded-volume (EV) corrections, and the intermediate range attraction. The first part of the thesis considers just the repulsive EV interactions between hadrons. A hitherto unknown, but surprisingly strong sensitivity of the long known thermal fits to heavy-ion hadron yield data to the choice of hadron eigenvolumes is uncovered. It challenges the robustness of the chemical freeze-out temperature and baryochemical potential determination from the thermal fits. However, at the same time, the extracted value of the entropy per baryon is found to be a robust observable which depends weakly on this systematic uncertainty of the HRG model.
A Monte Carlo procedure to treat EV interactions in HRG is also introduced in this thesis. It allows to study simultaneous effects of EV and of exact charge conservation in HRG for the first time. Generalizations of the classical VDW equation are required for its applications in hadronic physics. he grand canonical ensemble (GCE) formulation of the classical VDW equation is presented. Remarkably, this important aspect of the VDW equation was not discovered before. The GCE formulation yields the analytic structure of the critical fluctuations, both in the vicinity of and far off the critical point. These critical fluctuations are presently actively being used as probes for the QCD critical point. Another extension is the hitherto undiscovered generalization of the VDW equation to include quantum Bose-Einstein and Fermi-Dirac statistics. It is performed for both single-component and multi-component fluids. The Fermi-Dirac VDW equation is applied for the first time. It is used to describe nucleons and basic properties of nuclear matter. The quantum statistical generalization of the VDW equation developed in this work is quite general, and can be applied for any fluid. Thus, its applications are not restricted to QCD physics, but may also find themselves in chemistry and/or industry. The quantum statistical VDW equation is used to describe baryonic interactions in full HRG. The VDW parameters $a$ and $b$ are fixed to the nuclear ground state and the predictions of the model are confronted with lattice QCD calculations. The inclusion of baryonic interactions leads to a qualitatively different behavior of the fluctuations of conserved charges in the crossover region. In many cases it resembles the lattice data. These results suggest that hadrons do not melt quickly with increasing temperature, as one could conclude on the basis of the common simple ideal HRG model. Calculations at finite chemical potentials show that the nuclear liquid-gas transition manifests itself by non-trivial fluctuations of the net baryon number in heavy ion collisions. In the final part of the thesis the pure glue initial scenario for high-energy hadron and heavy-ion collisions is explored. This scenario is shown not to spoil the existing agreement of the hadronic and electromagnetic observables description in Pb+Pb collisions at energies available at the CERN Large Hadron Collider. Hydrodynamic calculations suggest that collisions of small-sized nuclei at lower collision energies available at the BNL Relativistic Heavy Ion Collider are promising in the search for the traces of the chemically non-equilibrium gluon-dominated phase transition.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Die Arbeit beschäftigt sich mit der Herstellung sowie der strukturellen und magnetischen Charakterisierung von zwei Materialklassen von kupferbasierten zweidimensionalen Quanten-Spin-Systemen: Quadratische Gitter von Dimeren sowie geometrisch frustrierte Kagomé Gitter. In beiden Systemen werden Substitutionen vorgestellt die zu verbesserten Eigenschaften führen.
The topic of this thesis is the investigation of scalar tetraquark candidates from lattice QCD. It is motivated by a previous study originating in the twisted mass collaboration. The initial tetraquark candidate of choice is the $a_0(980)$, an isovector in the nonet of light scalars ($J^P=0^+$). This channel is still poorly understood. It displays an inverted mass hierarchy to what is expected from the conventional quark model and the $a_0(980)$ and $f_0(980)$ feature a surprising mass degeneracy. For this reasons the $a_0(980)$ is a long assumed tetraquark candidate in the literature.
We follow a methodological approach by studying the sensitivity of the scalar spectrum with fully dynamical quarks to a large basis of two-quark and four-quark creation operators. Ultimately, the candidate has to be identified in the direct vicinity of two two-particles states, which is understandably inevitable for a tetraquark candidate. To succeed in this difficult task two-meson creation operators are essential to employ in this channel. By localized four-quark operators we intend to probe the Hamiltonian on eigenstates with a closely bound four-quark structure.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.
Diese Doktorarbeit widmet sich der Untersuchung von Systemen von Quarks und der Wechselwirkung zwischen ihnen mit Hilfe von Lattice QCD. Aus Quarks zusammengesetzte Objekte heißen Hadronen. Ein bestimmter Typ von Hadronen ist das sogenannten Tetraquark. In Teilchendetektoren wie dem LHCb in der Schweiz oder Belle in Japan wurden in jüngerer Zeit Zustände gefunden, die als Kandidaten für Tetraquarks gelten. Diese Arbeit befasst sich mit der Beschreibung und Untersuchung solcher Tetraquark-Zustände. Die Systeme, um die es in dieser Arbeit hauptsächlich geht, enthalten vier Quarks unterschiedlicher Masse. Zwei Quarks wird im Großteil der Arbeit eine unendlich große Masse zugeordnet. Zwei Quarks haben eine endliche Masse. In dieser statisch-leichten Näherung ist es möglich, das Potential der schweren Quarks in Anwesenheit der leichten Quarks zu bestimmen und zu überprüfen, ob es attraktiv genug dazu ist, einen gebundenen Zustand der vier Quarks zu bilden. Dieses Vorgehen ist als Born-Oppenheimer-Approximation bekannt. Die Observable, die berechnet werden muss, ist also das Vier-Quark-Potential.
Im ersten Teil der Arbeit werden verschiedene Vier-Quark-Potentiale aufgeführt und die zugehörigen Quantenzahlen genannt. Jeder der geeigneten Kanäle wird auf seine Fähigkeit untersucht, einen gebundenen Zustand zu bilden. Eine ausführliche systematische und statistische Analyse liefert den eindeutigen Befund, dass Bindung nur für Isospin I = 0 und nichtstatistsche u- und d-Quarks möglich ist. Im Falle von I = 1 oder nichtstatistschen s- und c-Quarks ist kein gebundener Zustand zu erwarten. Schließlich wird für den Fall der u- und d-Quarks eine Extrapolation zu physikalischen Quarkmassen durchgeführt. Die Bindung wird mit abnehmender Quarkmasse stärker. Am physikalischen Punkt wird eine Bindungsenergie von −90(+43−36) MeV festgestellt. Somit wird für Quantenzahlen I(J^P) = 0(1^+) ein gebundener b̄b̄ud-Zustand postuliert. Im zweiten Teil der Arbeit wird die statisch-leichte Näherung aufgehoben. So kann der Spin der schweren Quarks einbezogen werden. Dies führt unter anderem dazu, dass B- und B* -Mesonen unterscheidbar werden. Ein Nachteil dessen, dass vier Quarks endlicher Masse verwendet werden, ist der, dass es nun nicht mehr möglich ist, das Potential der schweren Quarks in Gegenwart der leichten zu bestimmen. Stattdessen wird aus der Korrelationsfunktion des Vier-Quark-Zustands direkt die Masse bestimmt. Zur Beschreibung der schweren Quarks wird der Ansatz der Nichtrelativistischen QCD (NRQCD) gewählt. Es wird der aus dem ersten Teil bekannte gebundene b̄b̄ud-Zustand mit Quantenzahlen I(J^P) = 0(1^+) weiter untersucht. Wir nehmen an, dass die Quantenzahlen durch ein BB*-Molekül realisiert werden. Wir bestimmen mithilfe des generalisierten Eigenwertproblems (GEP) den Grundzustand. Die Masse des Grundzustands ist ein Hinweis auf die Existenz eines gebundenen Zustands. Insgesamt bekräftigt der Befund das im ersten Teil der Arbeit gefundene Resultat, die Vorhersage eines bisher nicht gemessenen Tetraquark-Zustandes, qualitativ. Im dritten Teil der Arbeit geht es um Vier-Quark-Systeme, die ein schweres Quark und ein schweres Antiquark sowie ein leichteres Quark und ein leichteres Antiquark enthalten. Neben einem gebundenen Vier-Quark-Zustand ist u.a. die Bildung eines Bottomonium-und-Pion-Zustands möglich. Dies macht die theoretische Beschreibung dieses Systems ungleich schwieriger als die Beschreibung des im ersten und zweiten Teil der Arbeit untersuchten Systems. Seine experimentelle Untersuchung hingegen ist weniger aufwändig. So wurden bereits Kandidaten für einen solchen Zustand gemessen: Z_b(10610) und Z_b(10650). Zunächst wird ein Szenario beschrieben, in welcher Reihenfolge die zu den verschiedenen Strukturen gehörenden Potentiale vorliegen. So handelt es sich bei dem Grundzustandspotential des Systems um das Potential eines unangeregten Bottomonium-Zustands mit einem Pion in Ruhe. Darüber liegen zahlreiche Bottomonium-Zustände mit Pionen mit endlichem Impuls. Inmitten dieser Potentiale liegt gegebenenfalls das gesuchte Tetraquark-Potential. Ziel ist, einen Weg zu finden, die Bottomonium-und-Pion-Potentiale und das Tetraquark-Potential voneinander zu unterscheiden. Im ersten Schritt wird der Bottomonium-und-Pion-Grundzustand mithilfe des GEP aus dem System entfernt. Der erste angeregte Zustand ist im Anschluss daran weitgehend frei von Einflüssen des Grundzustands. Man findet, dass das Potential des ersten angeregten Zustandes attraktiv ist, sodass die Bildung eines Tetraquark-Zustandes nicht ausgeschlossen ist. Um den ersten angeregten Zustand weiter zu untersuchen, wird ein quantenmechanisches Modell verwendet, das die Volumenabhängigkeit des Überlapp eines Testzustands mit den verschiedenen Strukturen beschreibt. Es damit prinzipiell möglich, unter Zuhilfenahme mehrerer Gittervolumina eine Aussage über die Struktur des ersten angeregten Zustands zu treffen.
Im Rahmen dieser Arbeit wurden neue Ansätze zur Optimierung eines Alvarez Beschleunigers für Schwerionen untersucht. Dabei dient die Alvarez-Sektion des GSI UNILAC als Untersuchungsfeld, da für den Injektionsbetrieb für FAIR eine Erneuerung dieser Sektion erforderlich ist. Dies wird durch einen neuen und optimierten Alvarez-Beschleuniger gewährleistet, wobei Effizienz und Feldstabilität sowie hohe Verfügbarkeit eine wichtige Rolle spielen. Dazu wurden im Rahmen dieser Arbeit wichtige Simulationsrechnungen durchgeführt, ein Messaufbau zum experimentellen Test eines neuartigen Konzepts zur Feld-Stabilisierung ausgelegt, in Betrieb genommen und anhand von Messungen an einem speziell dafür entwickelten Resonatormodell verifiziert.
Ziel dieser Arbeit war es die experimentelle Demonstration des neuen Konzepts zur Feldstabilisierung eines Resonators. Es sollte geprüft werden, ob die zuvor durchgeführten Simulationen die realen Felder hinreichend zuverlässig vorhersagen. Diese experimentelle Prüfung ist angesichts der sehr hohen Baukosten eines realen Resonators von mehreren Millionen Euro unerlässlich. Vor Beginn dieser Arbeit war ein geeigneter Messaufbau, d.h. im Wesentlichen ein dediziertes Resonator-Modell, nicht verfügbar. Es galt ein Modell zu entwickeln, dessen Geometrie seht gut durch Simulationen modelliert werden kann, dessen Aufbau es aber trotzdem gestattet, eben diese Geometrie lokal zu variieren, um den angestrebten Effekt der Feld-Stabilisierung zu erreichen.
Aufgrund von Fertigungs- sowie Justage-Toleranzen gibt es Störungen der Feldhomogenität auf der Strahl- bzw. Resonatorachse. Die Feldhomogenität quantifiziert die Fluktuationen der tatsächlichen Feldstärke bezüglich des Idealwertes. Ein perfekt homogenes Feld weist keine Abweichungen auf. Bei einer lokalen Störung ist die Feldveränderung am Ort der Störung maximal und verringert sich mit dem Abstand von dieser. Es entsteht eine Verkippung des Feldes. Die Feldverkippung ist definiert als die durch die Störung verursachte Feldabweichung normiert auf die ungestörte Feldverteilung sowie auf die damit verbundene Änderung der Modenfrequenz. Letztere wird mit Tauchkolben kompensiert; die Feldhomogenität allerdings kann nicht wieder hergestellt werden. Die Feldhomogenität muss durch eine andere Maßnahme sichergestellt werden. Bei Alvarez-Kavitäten mit einem Tankradius R < 0,4m werden „post-coupler“ eingesetzt. Post-coupler sind dünne zylinderförmige Kupferstangen die seitlich an die Driftröhren herangefahren werden und an die Resonanzmode des Beschleunigers koppeln. Gleichzeitig wird die Sensibilität auf Störungen im Tank verringert, sodass die homogene Feldverteilung auch bei Störungen gut erhalten bleibt. Bei Beschleunigerstrukturen mit größeren Tankradien werden die post-coupler zu lang und erfordern einen zu großen Aufwand in der Konstruktion. In dieser Arbeit wurde eine alternative Methode für die Stabilisierung der Feldverteilung untersucht, welche die Winkelposition der Driftröhrenstützen nutzt.
Der in dieser Arbeit realisierte Resonator erlaubt die freie Einstellung der Winkel der Stützen sowie die exakte Justage der Driftröhren auf der Strahlachse. Es wurde ein Aluminium-Modell im Maßstab 1:3 zum realen Alvarez-Resonator gebaut. Dieser hatte zunächst eine Länge von ∼ 525mm und neun Driftröhren. Das Modell ist mit einem Profil der Geschwindigkeit der zu beschleunigenden Ionen ausgestattet, sodass die Driftröhren sowie die Spaltabstände entlang des Resonators länger werden. Mittels Simulationen wurden diverse Stützenkonfigurationen ausgewählt, die in den Messungen getestet wurden.
Mit dem Modell konnte gezeigt werden, dass bei bestimmten Stützenanordnungen die nächst höheren Moden weiter von der Betriebsmode entfernt werden können. Die besten Ergebnisse lieferte die Stützenkonfiguration mit fünf nach unten und vier nach oben orientierten Stützenpaaren (V-Stützen-Konfiguration 5+4). Hier liegt die nächst höhere Mode in den Messungen um mehr als 160MHz von der Grundfrequenz (326,7MHz) entfernt (Vergleich originale V-Stützen-Konfiguration: nächste Mode liegt 88MHz von der Grundmode entfernt). Wichtig ist die Eigenschaft der Modenseparation vor allem für den realen Einsatz der Kavität, da hier die Moden nur um wenige MHz voneinander entfernt liegen und dies zu Störungen im Betrieb des Resonators bei hoher HF-Leistung führen kann. Bei ungenügender Modenseparation wird die eingekoppelte HF-Leistung vom Resonator reflektiert. Mitunter können die erforderlichen Felder der Betriebsmode nicht erzeugt werden.
Im Falle einer Feldverkippung stimmt die reale Ionengeschwindigkeit entlang des Tanks nicht mehr mit der bei der Auslegung angenommenen überein. Das führt zu einer Verringerung der longitudinalen Strahlqualität bezüglich der erreichbaren Energieschärfe.
Zur systematischen Prüfung der Methode zur Feldstabilisierung wurden definierte Störungen in den Tank eingebaut. Die erste Driftröhre wurde jeweils um 1, 2 und 3mm verlängert. Da die Zahl der Zellen zu gering war für die statistisch signifikante Feldverkippungs-Messung, musste das Modell auf 21 Spalte erweitert werden. Die besten Ergebnisse bzgl. Feld-Stabilisierung lieferte die V-Stützen-Konfiguration 7+7+6. Hier bleibt das Feld trotz Störstelle homogen. Die Feldverkippung kann auf weniger als die Hälfte derjenigen der originalen V-Stützen-Konfiguration reduziert werden. Für den Fall der originalen Stützenkonfiguration erzeugt die oben beschriebene Störung eine Abweichung der Feldhomogenität von ±28%. Mit der in dieser Arbeit optimierten Stützenkonfiguration verändert sich die Feldhomogenität nur um ±9%.
Die Methode zur Feldstabilisierung mit einer optimierten Stützenanordnung ohne den Einsatz von post-couplern konnte am Modell gezeigt werden. Weiterhin wurde eine bessere Effizienz mit Zunahme der Tanklänge verifiziert. Im realen Alvarez-Tank wird die Anzahl der Spalte um einen Faktor 3 größer sein. Damit ergeben sich durch die erhöhte Anzahl zur Verfügung stehenden Stützen zusätzliche Konfigurationen, um eine Feldhomogenität von besser als ±1% zu gewährleisten.
Auf der Basis dieser Untersuchungen ist bei GSI der Bau einer zunächst ca. 2m langen Sektion des neuen Alvarez-DTL mit 11 Driftröhren vorgesehen. Dabei werden Flansche für verschiedene Stützenkonfigurationen integriert. Ziel ist es hierbei die Konstruktion, die Produktion, die Feldabstimmung sowie den Betrieb bei nominalen FAIR-Parametern zu testen. Sind die Tests erfolgreich, kommt diese Sektion bei der ersten Serie für den neuen Beschleuniger zum Einsatz.
QCD matter is expected to exist in different phases, when heated to high temperatures and getting highly compressed. Each phase could be characterized by distinct properties. A way to access extreme phases of matter in the laboratory are heavy-ion collisions at (ultra-)relativistic energies. During the collision, the temperature and density is evolving and reaches a maximum temperature and density far beyond the ground state of matter. The matter properties depend on the incident collision energy. Typically, a collision is separated into three collisions stages, namely first chance collisions (I), hot and dense stage (II) and freeze-out stage (III). Out of those, the second one is of major interest, since the extreme states of matter are generated within. For this reason, the most prominent change of the hadrons is expected to appear there in. Those changes are caused by i.e. modification of the hadronic spectral function. However, to retrieve such information is complicated. Hadrons are strongly interacting particles and therefore, carry little information about the hot and dense stage. For that purpose, decays of hadrons (low-mass vector mesons) to e+e- pairs via a virtual photon, so-called dielectrons, are an ideal probe. Electrons and positrons do not interact strongly and transport the information about the hot and dense stage nearly undisturbed to the detector. Unfortunately, the production of dielectrons is suppressed by a branching ratio of ≈ 10^(-5) and requires a precise lepton identification. Nonetheless, previous experiments have extracted a dilepton signal and observed in the low-mass range an excess over the hadronic cocktail. Latter one is expected to be caused by thermal radiation induced by the medium. Up to now, experiments conducted dilepton measurements with a focus on larger collision energies and large collision systems. Measurements of dielectrons at collision energies of around 1-2A GeV were only conducted for small and medium size collision systems. HADES continued the systematic studies by a measurement of Au+Au collisions at 1.23A GeV.
The detection of dielectrons requires detectors that handle high data rates and specific detectors for a high purity lepton identification. In HADES, the strongest separation of electrons or positrons from the hadronic background is provided by a ring imaging Cherenkov detector (RICH). Its electron identification is based on Cherenkov photons, that are emitted in ring like patterns. In this work a new approach, using the time-of-flight information to preselect electrons and the reconstructed particle trajectory to estimate ring positions, is utilized to improve the lepton identification. The concept of the so-called backtracking algorithm will be explained and applied to e+e- identification in Au+Au collisions. The whole analysis chain comprises single lepton identification, pair reconstruction and correction for efficiency and acceptance losses. The final pair spectra will be presented in form of their invariant mass, pt, mt and helicity distributions. Subsequently, transport model calculations as well as results from the recently developed coarse-grained transport approach will be compared to the dielectron spectra. Moreover, the centrality dependence of the excess yield and true (not "blue-shifted") temperature of the fireball will be presented. The results will be put in context to measurements of lighter collisions systems and at higher energies.
In this thesis, we study some features of the quantum chromodynamics (QCD) phase diagram at purely imaginary chemical potential using lattice techniques. This is one of the possible methodologies to get insights about the situation at finite density, where the sign problem prevents direct investigations from first principles.
We focus, in particular, on the Roberge-Weiss plane, where the phase structure with two degenerate flavours is studied both in the light and in the heavy quark mass limit. On the lattice, any result is affected by cut-off effects and so are the positions of the two tricritical points m_{tric}^{1,2} separating the second-order intermediate mass region from the first-order triple light and heavy mass regions. Therefore, changing the lattice spacing 'a', the values of m_{tric}^1 and m_{tric}^2 will change. In order to find their position in the continuum limit – i.e. for 'a' going to 0 – they have to be located on finer and finer lattices. Typically, in lattice QCD (LQCD) simulations, the temperature T is tuned through the bare coupling β, on which 'a' depends, while keeping Nt fixed. Hence, it is common to implicitly refer to how fine the lattice is just mentioning its temporal extent.
Using both Wilson and staggered fermions, we simulate Nf=2 QCD on Nt=6 lattices, varying the quark bare mass from the chiral (m_{u,d} going to 0) to the quenched (m_{u,d} going to infinity) limit. For each quark mass, a thorough finite scaling analysis is carried out, taking advantage of two different but consistent methods. In this way we identify the order of the phase transition locating, then, the position of the tricritical points. In order to convert our measurements to physical units we fix the scale measuring the lattice spacing as well as the pion mass corresponding to the quark bare mass used. This allows a comparison between different discretisation, getting a first idea of how serious are cut-off effects.
To be able to make a comparison between two different discretisations, we added an RHMC algorithm with staggered fermions to the CL2QCD software, a GPU code based on OpenCL, which we released in 2014. A considerable part of our work has been invested in ameliorating and optimising CL2QCD, as well as in developing new analysis tools regularly used next to it. Just to mention one, the multiple histogram method has been implemented in a completely general way and we took advantage of it in order to obtain more precise results. Finally, in order to efficiently handle and monitor the hundreds of simulations that are typically concurrently run in finite temperature LQCD, a completely new Bash library of tools has been developed. We plan to release it as a byproduct of CL2QCD in the near future.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
The Large Hadron Collider (LHC) is the biggest and most powerful particle accelerator in the world, designed to collide two proton beams with particle momentum of 7 TeV/c each. The stored energy of 362MJ in each beam is sufficient to melt 500 kg of copper or to evaporate about 300 litre of water. An accidental release of even a small fraction of the beam energy can cause severe damage to accelerator equipment. Reliable machine protection systems are necessary to safely operate the accelerator complex. To design a machine protection system, it is essential to know the damage potential of the stored beam and the consequences in case of a failure. One (catastrophic) failure would be, if the entire beam is lost in the aperture due to a problem with the beam dumping system.
This thesis presents the simulation studies, results of a benchmarking experiment, and detailed target investigation, for this failure case. In the experiment, solid copper cylinders were irradiated with the 440GeV proton beam delivered by the Super Proton Synchrotron (SPS) at the High Radiation to Materials (HiRadMat) facility at CERN. The experiment confirmed the existence of the so-called hydrodynamic tunneling phenomenon for the first time. Detailed numerical simulations for particle-matter interaction with FLUKA, and with the two-dimensional hydrodynamic code, BIG2, were carried out. Excellent agreement was found between the experimental and the simulation results that validate predictions for the 7TeV beam of the LHC. The hydrodynamic tunneling effect is of considerable importance for the design of machine protection systems for accelerators with high stored beam energy. In addition, this thesis presents the first studies of the damage potential with beam parameters of the Future Circular Collider (FCC).
To detect beam losses due to fast failures it is essential to have fast beam instrumentation. Diamond based particle detectors are able to detect beam losses within a nanosecond time scale. Specially designed diamond detectors were used in the experiment mentioned above. Their efficiency and response has been studied for the first time over 5 orders of bunch intensity with electrons at the Beam Test Facility (BTF) at INFN, Frascati, Italy. The results of these measurements are discussed in this thesis. Furthermore an overview of the applications of diamond based particle detectors in damage experiments and for LHC operation is presented.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
The PANDA experiment will be one of the flagship experiments at the future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany. It is a versatile detector dedicated to topics in hadron physics such as charmonium spectroscopy and nucleon structure. A DIRC counter will deliver hadronic particle identification in the barrel part of the PANDA target spectrometer and will cleanly separate kaons with momenta up to 3.5 GeV/c from a large pion background. An alternative DIRC design option, using wide Cherenkov radiator plates instead of narrow bars, would significantly reduce the cost of the system. Compact fused silica photon prisms have many advantages over the traditional stand-off boxes filled with liquid. This work describes the study of these design options, which are important advancements of the DIRC technology in terms of cost and performance. Several new reconstruction methods were developed and will be presented. Prototypes of the DIRC components have been built and tested in particle beam, and the new concepts and approaches were applied. An evaluation of the performance of the designs, feasibility studies with simulations, and a comparison of simulation and prototype tests will be presented.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
In this work, the complex structure of ionization and dissociation pathways on the potential energy curves in small molecules were investigated that are initiated by the absorption of a sequence of multi-color pulses in the XUV, VUV, and IR spectrum. Femtosecond pump-probe spectroscopy was used to track the evolution of nuclear dynamics in neutral hydrogen molecules. Previously unpublished excitation and ionization pathways leading to the dissociative ionization of hydrogen molecules were investigated by employing 3D momentum imaging spectroscopy. These studies were extended to oxygen molecules where an XUV attosecond pulse train coherently ionized several electronic states of O2+ followed by the dissociation of the molecule via multiple pathways. The infrared electric field of the driving laser was then used to couple the electronic and nuclear wave-packets, thus, manipulating the dissociation dynamics of the molecule on an attosecond time scale.
In order to perform the experiments presented here, a novel experimental setup was developed and constructed. It combines an existing high-flux High Harmonic Generation light source that delivers attosecond pulse trains in the VUV and XUV spectrum with a state-of-the-art 3D momentum imaging apparatus (COLTRIMS), as well as a beamline consisting of several experimental tools enabling the selection, characterization, and propagation of the photon spectrum.
The phenomenon of magnetism has been known to humankind for at least over 2500 years and many useful applications of magnetism have been developed since then, starting from the compass to modern information storage and processing devices. While technological applications are an important part of the continuing interest in magnetic materials, their fundamental properties are still being studied, leading to new physical insights at the forefront of physics. The magnetism of magnetic materials is a pure quantum effect due to the electrons that carry an intrinsic spin of 1/2. The physics of interacting quantum spins in magnetic insulators is the main subject of this thesis.We focus here on a theoretical description of the antiferromagnetic insulator Cs2CuCl4. This material is highly interesting because it is a nearly ideal realization of the two-dimensional antiferromagnetic spin-1/2 Heisenberg model on an anisotropic triangular lattice, where the Cu(2+) ions carry a spin of 1/2 and the spins interact via exchange couplings. Due to the geometric frustration of the triangular lattice, there exists a spin-liquid phase with fractional excitations (spinons) at finite temperatures in Cs2CuCl4. This spin-liquid phase is characterized by strong short-range spin correlations without long-range order. From an experimental point of view, Cs2CuCl4 is also very interesting because the exchange couplings are relatively weak leading to a saturation field of only B_c=8.5 T. All relevant parts of the phase diagram are therefore experimentally accessible. A recurring theme in this thesis will be the use of bosonic or fermionic representations of the spin operators which each offer in different situations suitable starting points for an approximate treatment of the spin interactions. The methods which we develop in this thesis are not restricted to Cs2CuCl4 but can also be applied to other materials that can be described by the spin-1/2 Heisenberg model on a triangular lattice; one important example is the material class Cs2Cu(Cl{4-x}Br{x}) where chlorine is partially substituted by bromine which changes the strength of the exchange couplings and the degree of frustration.
Our first topic is the finite-temperature spin-liquid phase in Cs2CuCl4. We study this regime by using a Majorana fermion representation of the spin-1/2 operators motivated by theoretical and experimental evidence for fermionic excitations in this spin-liquid phase. Within a mean-field theory for the Majorana fermions, we determine the magnetic field dependence of the critical temperature for the crossover from spin-liquid to paramagnetic behavior and we calculate the specific heat and magnetic susceptibility in zero magnetic field. We find that the Majorana fermions can only propagate in one dimension along the direction of the strongest exchange coupling; this reduction of the effective dimensionality of excitations is known as dimensional reduction.
The second topic is the behavior of ultrasound propagation and attenuation in the spin-liquid phase of Cs2CuCl4, where we consider longitudinal sound waves along the direction of the strongest exchange coupling. Due to the dimensional reduction of the excitations in the spin-liquid phase, we expect that we can describe the ultrasound physics by a one-dimensional Heisenberg model coupled to the lattice degrees of freedom via the exchange-striction mechanism. For this one-dimensional problem we use the Jordan-Wigner transformation to map the spin-1/2 operators to spinless fermions. We treat the fermions within the self-consistent Hartree-Fock approximation and we calculate the change of the sound velocity and attenuation as a function of magnetic field using a perturbative expansion in the spin-phonon couplings. We compare our theoretical results with experimental data from ultrasound experiments, where we find good agreement between theory and experiment.
Our final topic is the behavior of Cs2CuCl4 in high magnetic fields larger than the saturation field B_c=8.5 T. At zero temperature, Cs2CuCl4 is then fully magnetized and the ground state is therefore a ferromagnet where the excitations have an energy gap. The elementary excitations of this ferromagnetic state are spin-flips (magnons) which behave as hard-core bosons. At finite temperatures there will be thermally excited magnons that interact via the hard-core interaction and via additional exchange interactions. We describe the thermodynamic properties of Cs2CuCl4 at finite temperatures and calculate experimentally observable quantities, e.g., magnetic susceptibility and specific heat. Our approach is based on a mapping of the spin-1/2 operators to hard-core bosons, where we treat the hard-core interaction by the self-consistent ladder approximation and the exchange interactions by the self-consistent Hartree-Fock approximation. We find that our theoretical results for the specific heat are in good agreement with the available experimental data.
Within this thesis, the mechanical integration of the Micro Vertex Detector (MVD) of the Compressed Baryonic Matter (CBM) experiment is developed. The CBM experiment, which is being set up at the future FAIR facility, aims to investigate the phase diagram of strongly interacting matter in the regime of high net-baryon densities and moderate temperatures. Heavy-ion collisions at beam energies in the range of 2 to 45 AGeV, complemented by results from elementary reactions, will allow access to these conditions. The experiments conducted at LHC (CERN, Switzerland) and at RHIC (BNL, USA = does not apply within the Beam Energy Scan program) so far focus on the investigation of the phase diagram in the regime of high temperatures and vanishing net-baryon densities. The high beam intensities provided by FAIR will enable CBM to focus its experimental program on systematical studies of rare particles. Among other particle species, open charm-carrying particles are one of the most promising observables to investigate the medium created in heavy-ion collisions since their charm quarks are exposed to the medium and traverse its whole evolution. The fact that the decay particles of these rare observables are also produced abundantly in direct processes in heavy-ion collisions results in a huge combinatorial background which attributes specific requirements to the detector systems. The call for a high interaction rate leads to a cutting-edge detector system which provides an excellent spatial resolution, thin detector stations and the capability to cope with the induced radiation as well as the high rate of traversing particles and the resulting track density. The required demands are to be implemented by the MVD which will be equipped with four planar stations positioned at 50, 100, 150 and 200 mm downstream the target. The geometrical acceptance, which has to be covered with charge-sensitive material, is defined according to the requirements of CBM in the polar angle range of [2.5°; 25°]. The MVD stations have to contribute as little as possible to the overall material budget. The expected beam intensity and the vicinity close to the target require silicon detectors that provide a hardness against non-ionizing radiation of more than 10^13 n_eq/cm² and against ionizing radiation of more than 1 Mrad. In addition, the read-out time of the sensors has to be as short as possible to avoid potential ambiguities in the particle tracking caused by the pile-up of hits having emerged from different collisions. For the time being, Monolithic Active Pixel Sensors (MAPS) offer the optimal choice of technology required to address the physics program of CBM with respect to the spectroscopy of open charm and di-electrons. The geometrical properties of these sensors define the layout of the detector. To limit the multiple scattering of the produced particles inside the geometrical acceptance, the sensors and the MVD have to operate in a moderate vacuum. The sensors are thinned down to a thickness of 50 µm and, to achieve a maximum polar angle coverage, they are glued onto both sides of dedicated thin carriers. These carriers, which are made of highly thermally conductive materials such as CVD diamond or encapsulated TPG, allow efficient extraction of the power produced in the sensors. This enables their operation at temperatures well below 0 °C as suggested by corresponding radiation hardness studies. Dedicated actively cooled aluminum-based heat sinks are positioned outside of the acceptance to dissipate the heat produced by the sensors and the front-end electronics. The design of the MVD, including the realistic thicknesses of the integrated materials, has been developed and refined in the context of this thesis. It has been transformed into a unique software model which is used to simulate and further optimize the mechanical and thermal properties of the MVD, as well as in sophisticated physics simulations. The model allowed evaluation of the material budget of each individual MVD station in its geometrical acceptance. The calculated averaged material budget values stay well below the material budget target values demanded by the physics cases. The thermal management of the MVD has been simulated on the level of a quadrant of each MVD station – four identically constructed quadrants are forming an MVD station – taking into account material properties of the sensors, the glue and the sensor carrier. The temperature gradients across the pixels of a given sensor area in the direction of the rows and columns were found to be in an acceptable range of below 5 K. A temperature difference between the thermal interface area and the maximum sensor temperature of dT = 5 K on the first and a value of dT = 40 K on the fourth MVD station has been thermally simulated assuming a sensor power dissipation of 0.35 W/cm², highlighting the need to optimize the thermal interface between the involved materials as well as the power dissipation of the sensors. The feasibility of several key aspects required for the construction phase of the MVD has been investigated within the MVD Prototype project. The construction of the MVD Prototype allowed evaluation, testing and validation of the handling and the double-sided integration of ultra-thin sensors – the required working steps for their integration have been specified, evaluated and successfully established – as well as their operation in the laboratory and during a concluding in-beam test using high-energetic pions provided by the CERN-SPS. The thermal characterization of the MVD Prototype during its operation – in a temperature range from [5 °C; 25 °C], not in vacuum – confirmed the corresponding thermal simulations conducted during its design phase and substantiated the results of the thermal simulations for the design of the MVD. The aim of a material budget value of only x/X_0 ~ 0.3% for the MVD Prototype has been accomplished. Analyzing the in-beam data, the nominal sensor performance parameters were successfully reproduced, demonstrating that the proposed integration process does not impair the sensors’ performance. Moreover, no evidence of potential impact on the sensors’ performance arising from mechanical weaknesses of the MVD Prototype mechanics has been found within the analyzed data. Based on the MVD Prototype and the simulations of the material budget as well as the thermal management, this thesis evaluated the work packages, procedures and quality assurance parameters needed to set up the starting version of the MVD and addressed open questions as well as critical procedures to be studied prior to the production phase of the detector, emphasizing the evaluation of the cooling concept in vacuum and the integration of sensors in ladder structures on both sides of the quadrants of the MVD stations.
Am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, wird für die Erweiterung der Forschungsmöglichkeiten am Bau des FAIR Projektes gearbeitet. Hierfür wird unter anderem ein Ringbeschleuniger gebaut (SIS100), der mit 100Tm den bestehenden Ring (SIS18) in magnetischer Steifigkeit ergänzen wird. Um SIS100 an SIS18 anzubinden, wird eine Transferstrecke benötigt, welche den Transfer von Ionen zwischen den Ringen übernimmt. In solchen Transferstrecken werden Quadrupollinsen mit hohen Gradienten benötigt. Ebenso werden für die finale Fokussierung von hochintensiven Strahlpulsen aus Synchrotronen auf Targets Linsen mit hohen Feldgradienten benötigt. Allerdings sind die Pulse nur sehr kurz und das Tastverhältnis bei Synchrotronen sehr klein. Daher sollte ein gepulster Fokussiermagnet entwickelt werden, der den hohen Gradientenanforderungen gerecht wird und sowohl platz- als auch energiesparend ist. Die vorliegende Arbeit befasst sich mit der Auslegung des elektrischen Schaltkreises, der Simulation des Magnetfeldes und der konstruktiven Umsetzung eines solchen gepulsten Quadrupols. Der elektrische Schaltkreis ist so ausgelegt, dass eine hohe Repetitionsrate zur Fokussierung für Teilchenpakete möglich ist. Die Linse wurde aus einer Luftspule ohne Eisenjoch aufgebaut. Die cos(2θ)-Verteilung des Stroms durch die Leiter wurde durch ein Design gesichert, welches den Skin-Effekt berücksichtigt und entsprechend ausgelegte Litzenkabel verwendet. Um die Magnetfeldverteilung des Fokussiermagneten zu untersuchen, wurden statische und transiente Simulationen mit dem Programm CST Mircowave Studio Suite vorgenommen. Zentraler Punkt bei der Neuentwicklung waren die Luftspulen. Um einen linearen Magnetfeldanstieg von der Strahlachse zum Aperturrand zu gewährleisten, muss die Stromverteilung in der Leiterspule so homogen wie möglich sein. Um bei Pulslängen von 170 µsec den Skineffekt zu berücksichtigen, wurde die Leiterspule aus HF-Litzen von je mehreren hundert Einzelleitern zusammengestellt, die jeweils gegeneinander isoliert und in Bündeln miteinander verdrillt sind. Außerdem wurde die Linse mit einer lamellierten Schirmung versehen, um das Magnetfeld effektiv nutzen zu können. Ziel der Auslegung war es, zusammen mit einem zweiten Quadrupol im Duplett einen Strahl mit einer magnetischen Steifigkeit von 11 Tm und einer Bunchlänge von 2µsec auf einen Punkt von 0,5 mm Radius zu fokussieren. Bei dem hierfür angestrebten Gradienten von 76 T/m wird eine maximale Stromamplitude von 400 kA benötigt. Im Rahmen dieser Arbeit wurde die Linse ausgelegt, konstruiert und gebaut. Die Funktionalität wurde untersucht und die Feldqualität wurde vermessen und zeigten die erwarteten Parameter. Bei 26 kA Messstrom wurden im Zentrum des Magneten ein maximaler Gradient von 4,5 T/m und Feldwerte von 0,11 T ermittelt. Somit liegt die Abweichung des gemessenen Gradienten bei ca. 5 %. Die durchgängige Umsetzung der homogenen Verteilung der Leiterbündel in der Luftspule und eine vollständige Kompensation des Skineffekts konnten nicht nachgewiesen werden. Jedoch konnte der Einfluss der Kabelzuleitung des Quadrupols auf den Magnetfeldverlauf in den Simulationen und Messungen nachgewiesen werden. Weiterhin wurde für den energieeffizienten Einsatz im Transferkanal zwischen SIS18 und SIS100 ein Energierückgewinnungsschaltkreis entwickelt, der eine Ersparnis von 84 % der Betriebsleistung ermöglicht.
Die vorliegende Arbeit handelt von der Entwicklung, dem Bau, den Zwischenmessungen sowie den abschließenden Tests unter kryogenen Bedingungen einer neuartigen, supraleitenden CH-Struktur für Strahlbetrieb mit hoher Strahllast. Diese Struktur setzt das Konzept des erfolgreich getesteten 19-zelligen 360 MHz CH-Prototypen fort, der einen weltweiten Spitzenwert in Bezug auf Beschleunigungsspannung im Niederenergiesegment erreichte, jedoch wurden einige Aspekte weiterentwickelt bzw. den neuen Rahmenbedingungen angepasst. Bei dem neuen Resonator wurde der Schwerpunkt auf ein kompaktes Design, effektives Tuning, leichte Präparationsmöglichkeiten und auf den Einsatz eines Leistungskopplers für Strahlbetrieb gelegt. Die Resonatorgeometrie besteht aus sieben Beschleunigungszellen, wird bei 325 MHz betrieben und das Geschwindigkeitsprofil ist auf eine Teilcheneingangsenergie von 11.4 MeV/u ausgelegt. Veränderungen liegen in der um 90° gedrehten Stützengeometrie vor, um Platz für Tuner und Kopplerflansche zu gewährleisten, und in der Verwendung von schrägen Stützen am Resonatorein- und ausgang zur Verkürzung der Tanklänge und Erzielung eines flachen Feldverlaufs. Weiterhin wurden pro Tankdeckel zwei zusätzliche Spülflansche für die chemische Präparation sowie für die Hochdruckspüle mit hochreinem Wasser hinzugefügt. Das Tuning der Kavität erfolgt über einen neuartigen Ansatz, indem zwei bewegliche Balgtuner in das Resonatorvolumen eingebracht werden und extern über eine Tunerstange ausgelenkt werden können. Der Antrieb der Stange soll im späteren Betrieb wahlweise über einen Schrittmotor oder einen Piezoaktor stattfinden. Für ein langsames/ statisches Tuning kann der Schrittmotor den Tuner im Bereich +/- 1 mm auslenken, um größeren Frequenzabweichungen in der Größenordnung 100 kHz nach dem Abkühlen entgegenzuwirken. Das schnelle Tuning im niedrigen kHz-Bereich wird von einem Piezoaktor übernommen, welcher den Balg um einige µm bewegen kann, um Microphonics oder Lorentz-Force-Detuning zu kompensieren. Der Resonator wird von einem aus Titan bestehendem Heliummantel umgeben, wodurch ein geschlossener Heliumkreislauf gebildet wird.
Derzeit befinden sich mehrere Projekte in der Planung bzw. im Bau, welche auf eine derartige Resonatorgeometrie zurückgreifen könnten. An der GSI basiert der Hauptteil des zukünftigen cw LINAC auf supraleitenden CH-Strukturen, um einen Strahl für die Synthese neuer, superschwerer Elemente zu liefern. Weiterhin könnte ein Upgrade des vorhandenen GSI UNILAC durch den Einsatz von supraleitenden CH-Resonatoren gestaltet werden. Zudem besteht die Möglichkeit, die bisherige Alvarez-Sektion des UNILAC alternativ durch eine kompakte, supraleitende CH-Sektion zu realisieren. Ebenfalls sollen die beiden parallelbetriebenen Injektorsektionen des MYRRHA-Projektes durch den Einsatz von supraleitenden CH-Strukturen erfolgen.
The chiral phase transition of Quantum Chromo Dynamics (QCD) is investigated with the help of the linear-sigma model and a numerical transport simulation. The scope are non-equilibrium and critical effects of the different type of orders of the transition. Additionally, a mathematical and numerical method is developed which allows to simulate a particle-wave duality and non-continuous interactions, even for classical systems.
Im Rahmen des FRANZ-Projektes wurde nach einer Ionenquelle verlangt welche in der Lage ist einen intensiven hochbrillanten Protonenstrahl von 200 mA bei 120 keV im Dauerstrichbetrieb zur Verfügung zu stellen, bei gleichzeitig niedriger Strahlemittanz. Der recht hohe Protonenstrom von 200 mA stellt dabei eine Herausforderung an den Experimentator dar.
Die grundsätzliche Problematik bei der Entwicklung einer solchen Ionenquelle besteht im Wesentlichen darin, ein geeignetes Extraktionssystem zu designen, welches in der Lage ist den geforderten hohen Protonenstrom zu extrahieren und transportieren. In diesem Zusammenhang wurden Abschätzungen bezüglich des notwendigen Emissionsradius, der elektrischen Feldstärke im Extraktionsspalt sowie des Protonenanteils für den verlangten Protonenstrom von 200 mA durchgeführt. Für die praktische Umsetzung wurden Lösungsstrategien erarbeitet. Ziel war es die elektrische Feldstärke im Gap so hoch wie möglich und den Radius der Emissionsöffnung so klein wie möglich zu wählen, bei gleichzeitig möglichst hohem Protonenanteil. Basierend auf diesen Erkenntnissen wurde ein Prototyp der Bogenentladungs-Volumenionenquelle entwickelt und erfolgreich in Betrieb genommen.
Zur Steigerung des Protonenanteils im Wasserstoffplasma wurden diverse Parameter der Ionenquelle optimiert wie bspw. Bogenleistung, Gasdruck sowie insbesondere die Feldverteilung und die magnetische Flussdichte des magnetischen Filters. Diese Ergebnisse wurden mit dem verbesserten theoretischen Modell zur Erzeugung von atomaren Wasserstoffionenstrahlen verglichen. Um die elektrische Feldstärke im Extraktionsspalt zu steigern wurden die Elektroden aus einem thermisch belastbaren Material hergestellt und einer speziellen Oberflächenbehandlung unterzogen. Des Weiteren wurden theoretische und experimentelle Untersuchungen bezüglich der Emissionsstromdichte und der Strahlqualität durchgeführt. Weiterhin wurde die Emittanz des Ionenstrahls berechnet sowie mit einer eigens am Institut für Angewandte Physik entwickelten Pepperpot-Emittanzmessanlage experimentell bestimmt. Die vorliegende Dissertation präsentiert die Ergebnisse der Entwicklung dieser hocheffizienten Bogenentladungs-Volumenionenquelle.
Atomistic molecular dynamics approach for channeling of charged particles in oriented crystals
(2015)
Der Gitterführungseffekt ist der Prozess der Ausbreitung von geladenen Teilchen entlang der Ebenen oder Achsen von kristallinen Materialien. Seit den 1960er Jahren ist dieser Effekt weitgehend theoretisch und experimentell untersucht worden. Dieser Effekt wurde für die Manipulation von Hochenergiestrahlen, die Hochpräzisionsstruktur- und -fehleranalyse von kristallinen Medien und die Herstellung von hochenergetischer Strahlung angewendet. Zur Abstimmung der Parameter der Gitterführung und Gitterführungsstrahlung wurde dieser Prozess für den Fall von künstlich nanostrukturierten Materialien, wie gebogenen Kristallen, Nanoröhren und Fullerit, angenommen. In den letzten Jahren wurde das Konzept des kristallinen Undulators formuliert und getestet, das besondere Eigenschaften der Strahlung aufgrund der Gitterführung von Projektilen in regelmäßig gebogenen Kristallen vorhersagt.
In dieser Arbeit werden die Prozesse der Gitterführung von Sub- und Multi-GeV-Elektronen und -Positronen durch den atomistischen Molekulardynamik-Ansatz untersucht. Die Ergebnisse dieser Studien wurden in einer Reihe von Artikeln während meiner Promotion in Frankfurt vorgestellt. Dieser Ansatz ermöglicht die Simulation komplexer Fälle von Gitterführung in geraden, gebogenen und periodisch gebogenen Kristallen aus reinen kristallinen Materialien und von gemischten Materialien wie Si-Ge-Kristallen, in mehrschichtigen und nanostrukturierten kristallinen Systemen. Die Arbeit beschreibt die Methode der Simulationen, stellt Ergebnisse von Simulationen für verschiedene Fälle vor und vergleicht die Ergebnisse von Simulationen mit aktuellen experimentellen Daten. Die Ergebnisse werden mit Schätzungen der dechanneling-Länge verglichen, dem Anteil der gittergeführten Projektile, der Winkelverteilung der ausgehenden Projektile und des Strahlungsspektrums.
The upcoming CBM Experiment at FAIR aims at exploring the region of highest net baryonic densities reproducible in energetic heavy ion collisions. Due to the very high beam intensities expected at FAIR, unprecedented data regarding rare observables such as charm quarks and hyperons will be accessible. Open charm mesons are particularly interesting, since they support the reconstruction of the total charm cross-section in order to search for exotic phenomena, e.g. a phase transition towards the quark-gluon plasma which is predicted by several theoretical models. Open charm studies will be performed via secondary vertex reconstruction with a suitable Micro-Vertex Detector (MVD). The CBM-MVD is currently in the development and prototyping phase with primary design goals concentrating on spatial resolution, radiation hardness, material budget, and readout performance. CMOS Monolithic Active Pixel Sensors (MAPS) provide an excellent spatial resolution for the MVD in the order of few um in combination with a low material budget (50 um thickness) and high radiation hardness. The active volume of the devices is formed from the epitaxial layer of standard CMOS wafers. This allows for integration of pixels together with analogue and digital data processing circuits on one single chip. This option was explored with the MIMOSA-26 prototype, which integrates functionalities like pedestal correction, correlated double sampling, discrimination and data sparsification based on zero suppression combined with a small and dense pixel matrix. The pixel array composed of 576 lines of 1152 pixels is read out in a column-parallel rolling shutter mode. One discriminator per column and the digital data processing circuits are located on the same chip in a 3 mm wide area beneath the pixel matrix allowing for binary hit encoding. This area also contains the circuits for pedestal correction and the configuration memory, which is programmed via JTAG. The preprocessed digital data is read out via two 80 Mbit/s LVDS links per sensor, which stream their data continuously based on a low-level protocol.
Within the scope of this thesis, a readout concept of the CBM-MVD is proposed and studied based on the current MIMOSA sensor generation. The backbone of the system is formed by the Readout Controller boards (ROCs) featuring FPGA microchips and optical links. Several ROC prototypes are considered using the synergy with the HADES Experiment. Finally, the TRB3 board is selected as a possible candidate for the initial FAIR experiments. Furthermore, a highly scalable, hardware independent FPGA firmware is implemented in order to steer and read out multiple MIMOSA-26 sensors. The reconfigurable firmware is also designed with the support for future MIMOSA sensor generations. The free-streaming sensor data is deserialized and error-checked, prior to its transmission over a suitable network interface. In order to demonstrate the validity of the concept, a readout network similar to the HADES Data Acquisition (DAQ) system is developed. The ROC is tested on the HADES TRB2 boards and data is acquired using suitable MAPS add-on boards and the TrbNet protocol.
In the context of the CBM-MVD prototype project, a readout network with 12 MIMOSA-26 sensors has been prepared for an in-beam test at the CERN SPS facility. A comprehensive control system is designed comprising customized software tools. The subsequent in-beam test is used to validate the design choices. As a result, the system could be operated synchronously and dead-time free for several days. The readout network behavior in a realistic operating environment has been carefully studied with the outcome the the TrbNet based approach handles the MVD prototype setup without any difficulties. A procedure to keep the sensors synchronous even in case of a data overflow has been pioneered as well. After the beam test, improvements and conceptual changes to the readout systems are being addressed which allow an integration into the global CBM DAQ system.
The implementation of pump-probe experiments with ultrashort laser pulses enables the study of dynamical processes in atoms or molecules, which may provide a deeper inside in their physical origin. The application of this method to systems as nitrous oxide, which is not only a simple example for polyatomic molecules but which also plays a crucial role in the greenhouse effect, promises interesting and beneficial findings. This thesis presents, on the one hand, the technical extension of an existing experimental setup for high-harmonic generation (HHG) and ultra-fast laser physics by an extreme ultraviolet (XUV) spectrometer for the in-situ observation of the harmonic spectrum during ongoing measurements. The present setup enables the production of short laser pulse trains in the XUV spectral range with durations of a few hundred attoseconds (1 as = 10^−18 s) via HHG and supports to perform XUV-IR pump-probe experiments using the infrared (IR) driving field with durations of a few femtoseconds. Moreover, a reaction microscope is implemented, which enables the coincident detection of several charged particles emerging from an ionization or dissociation process and to reconstruct their full 3-D-momentum vectors. With this technique it is possible to perform time-resolved momentum spectroscopy of few-particle quantum systems. Here, the design and the calibration of the XUV spectrometer is presented as well as a first application to the analysis of experimental data by providing information on the produced photon energies. On the other hand, the results of an XUV-pump IR-probe measurement on nitrous oxide (N2O) are discussed. With the broad harmonic spectrum (∼ 17 − 45 eV) it is possible to address several states of the singly and doubly ionized cation. One reaction channel is the single ionization into a stable state of N2O+. Here, the coincidently measured photoelectron energies allow the observation of sidebands, which served to estimate the pulse durations of the involved XUV pulse trains as well as of the fundamental IR pulses. Additionally, single ionization of nitrous oxide can lead to a dissociation into a charged and a neutral fragment. The four respective dissociation channels are compared by presenting their branching ratios, kinetic energy release (KER) distributions and their dependencies on the time delay between pump and probe pulse. In the production of the dication, there are two competitive processes: direct double ionization considering photon energies above the double-ionization threshold, and autoionization of singly ionized and excited molecules in the case of photon energies near the double-ionization threshold. In both cases, the ionization leads to a Coulomb explosion into two charged fragments, where the N − N bond or the N − O bond may dissociate. The influence of the IR-probe field on the ionization yield and the KER was investigated for both dissociation channels and compared. In addition, the corresponding photoelectron energy spectra are presented, which show indications for autoionizing states being involved, and their dependence on the delay and the KER of the respective ions is analyzed.
Die vorliegende Arbeit befasst sich mit der Untersuchung einzelner chiraler Moleküle durch Koinzidenzmessungen. Ein Molekül wird chiral genannt, wenn es in zwei Varianten, sogenannten Enantiomeren auftritt, deren Strukturmodelle Spiegelbilder voneinander sind.
Da viele biologisch relevante Moleküle chiral sind, sind Methoden und Erkenntnisse dieses Gebiets von großer Bedeutung für Biochemie und Pharmazie. Bemerkenswert ist, dass in der Natur meist nur eines der beiden möglichen Enantiomere auftritt. Ob diese Wahl zufällig war, ob sie aufgrund der Anfangsbedingungen bei Entstehung des Lebens erfolgte, oder ob sie eine fundamentale Ursache hat, ist bisher ungeklärt. Seit der Entdeckung chiraler Molekülstrukturen in der zweiten Hälfte des 19. Jahrhunderts ist eine Vielzahl von Methoden entwickelt worden, um die beiden Enantiomere eines Moleküls zu unterscheiden und ihre Eigenschaften zu untersuchen. Aussagen über die mikroskopische Struktur (Absolutkonfiguration) können jedoch meist nur mithilfe theoretischer Modelle getroffen werden.
Der innovative Schritt der vorliegenden Arbeit besteht darin, eine in der Atomphysik entwickelte Technik zur Untersuchung einzelner mikroskopischer Systeme erstmals auf chirale Moleküle anzuwenden: Mit der sogenannten Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) ist es möglich, einzelne Moleküle in der Gasphase mehrfach zu ionisieren und die entstandenen Fragmente (Ionen und Elektronen) zu untersuchen. Die gleichzeitige Detektion dieser Fragmente wird als Koinzidenzmessung bezeichnet.
Zunächst wurde das prototypische chirale Molekül CHBrClF mit einem Femtosekunden-Laserpuls mehrfach ionisiert, sodass alle fünf Atome als einfach geladene Ionen in einer sogenannten Coulomb-Explosion „auseinander fliegen“. Durch Messung der Impulsvektoren dieser Ionen konnte die mikroskopische Konfiguration einzelner Moleküle mit sehr hoher Zuverlässigkeit bestimmt werden. Somit eignet sich die Koinzidenzmethode auch dazu, die Anteile der rechts- bzw. linkshändigen Enantiomere in einer Probe zu bestimmen. Die Messungen an der verwendeten, racemischen Probe zeigen bei der Ionisation mit linear polarisiertem Licht im Rahmen der statistischen Unsicherheit wie erwartet eine Gleichverteilung der beiden Enantiomere.
In einem nachfolgenden Experiment konnte gezeigt werden, dass sich die Coulomb-Explosion auch mit einzelnen hochenergetischen Photonen aus einer Synchrotronstrahlungsquelle realisieren lässt. Für beide Ionisationsmechanismen – am Laser und am Synchrotron - wurden mehrere Fragmentationskanäle untersucht. Im Hinblick auf die Erweiterung der Methode hin zu komplexeren, biologisch relevanten Molekülen ist es entscheidend zu wissen, inwieweit sich die Händigkeit bestimmen lässt, wenn nicht alle Atome des Moleküls als atomare Ionen detektiert werden. Hierbei stellte sich heraus, dass auch molekulare Ionen zur Bestimmung der Absolutkonfiguration herangezogen werden können. Eine signifikante Steigerung der Effizienz konnte für den Fall demonstriert werden, dass nicht alle Fragmente aus der Coulomb-Explosion des Moleküls detektiert wurden – hier lassen sich allerdings nur noch statistische Aussagen über die Absolutkonfiguration und die Häufigkeit der beiden Enantiomere treffen.
Um die Grenzen der Methode in Bezug auf die Massenauflösung zu testen, wurden isotopenchirale Moleküle, d.h. Moleküle, die nur aufgrund zwei verschiedener Isotope chiral sind, untersucht. Auch hier ist eine Trennung der Enantiomere möglich, wenn auch mit gewissen Einschränkungen.
Ein wichtiges Merkmal chiraler Moleküle ist das unterschiedliche Verhalten der Enantiomere bei Wechselwirkung mit zirkular polarisierter Strahlung. Diese Asymmetrie wird Zirkulardichroismus genannt. Die koinzidente Untersuchung von Ionen und Elektronen aus der Fragmentation eines Moleküls eröffnet neue Möglichkeiten für die Untersuchung des Dichroismus. So können die Impulsvektoren der Ionen mit bekannten Asymmetrien in der Elektronenverteilung (Photoelektron-Zirkulardichroismus) verknüpft werden, was zu einem besseren Verständnis der Wechselwirkung elektromagnetischer Strahlung mit chiralen Molekülen führen kann.
In dieser Arbeit wurde nach Asymmetrien in der Winkelverteilung sowohl der Ionen als auch der Elektronen nach der Ionisation von CHBrClF und Propylenoxid (C3H6O) mit zirkular polarisierter Synchrotronstrahlung gesucht. In den durchgeführten Messungen konnte kein zweifelsfreier Nachweis für einen Dichroismus bei den verwendeten experimentellen Bedingungen erbracht werden. Technische und prinzipielle Limitierungen der Methode wurden diskutiert und Verbesserungsvorschläge für zukünftige Messungen genannt.
Mit der erfolgreichen Bestimmung der Absolutkonfiguration und der prinzipiellen Möglichkeit, Asymmetrien in zuvor nicht zugänglichen Messgrößen zu untersuchen, legt diese Arbeit den Grundstein für die Anwendung der Koinzidenzspektroskopie auf Fragestellungen der Stereochemie.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
Das Strahldynamikdesign für den MYRRHA-Injektor wurde im Hinblick auf eine hohe Zuverlässigkeit und Verfügbarkeit, sowie eine verbesserte Strahlausgangsemittanz, neu entwickelt und erfüllt nun die Anforderungen des Kernreaktors.
In der statistischen Fehleranalyse zeigt sich die Strahldynamik der CH-Sektion als äußerst robust und liefert selbst unter pessimistischen Fehlerannahmen eine Transmission von über 99,9 %.
Das neue Injektorkonzept bietet wesentliche Vorteile gegenüber dem in „MAX Referenzdesign 2012“ vorgestellten Injektordesign und wird als neues „MAX Referenzdesign 2014“ für den MYRRHA-Injektor verwendet. Die guten strahldynamischen Eigenschaften des neuen Injektordesigns konnten in Vergleichsrechnungen mit TraceWin am IN2P3@CNRS1 (Institut National de Physique Nucléaire et de Physique des Particules @ Centre National de la Recherche Scientifique, Orsay, Frankreich) bestätigt werden.
Neben der Strahldynamik wurde das HF-Design für die benötigten Beschleunigerkavitäten entwickelt und ebenfalls für eine hohe Zuverlässigkeit und Verfügbarkeit optimiert. Das HF-Design der CH-Strukturen ist für eine größtmögliche Ausfallsicherheit auf den Betrieb mit niedrigen elektrischen Feldgradienten, weit unterhalb der technischen Leistungsgrenzen und Möglichkeiten der jeweiligen Kavität, ausgelegt.
The ab-initio molecular dynamics framework has been the cornerstone of computational solid state physics in the last few decades. Although it is already a mature field it is still rapidly developing to accommodate the growth in solid state research as well as to efficiently utilize the increase in computing power. Starting from the first principles, the ab-initio molecular dynamics provides essential information about structural and electronic properties of matter under various external conditions. In this thesis we use the ab-initio molecular dynamics to study the behavior of BaFe2As2 and CaFe2As2 under the application of external pressure. BaFe2As2 and CaFe2As2 belong to the family of iron based superconductors which are a novel and promising superconducting materials. The application of pressure is one of two key methods by which electronic and structural properties of iron based superconductors can be modified, the other one being doping (or chemical pressure). In particular, it has been noted that pressure conditions have an important effect, but their exact role is not fully understood. To better understand the effect of different pressure conditions we have performed a series of ab-initio simulations of pressure application. In order to apply the pressure with arbitrary stress tensor we have developed a method based on the Fast Inertial Relaxation Engine, whereby the unit cell and the atomic positions are evolved according to the metadynamical equations of motion. We have found that the application of hydrostatic and c axis uniaxial pressure induces a phase transition from the magnetically ordered orthorhombic phase to the non-magnetic collapsed tetragonal phase in both BaFe2As2 and CaFe2As2. In the case of BaFe2As2, an intermediate tetragonal non-magnetic tetragonal phase is observed in addition. Application of the uniaxial pressure parallel to the c axis reduces the critical pressure of the phase transition by an order of magnitude, in agreement with the experimental findings. The in-plane pressure application did not result in transition to the non-magnetic tetragonal phase and instead, rotation of the magnetic order direction could be observed. This is discussed in the context of Ginzburg-Landau theory. We have also found that the magnetostructural phase transition is accompanied by a change in the Fermi surface topology, whereby the hole cylinders centered around the Gamma point disappear, restricting the possible Cooper pair scattering channels in the tetragonal phase. Our calculations also permit us to estimate the bulk moduli and the orthorhombic elastic constants of BaFe2As2 and CaFe2As2.
To study the electronic structure in systems with broken translational symmetry, such as doped iron based superconductors, it is necessary to develop a method to unfold the complicated bandstructures arising from the supercell calculations. In this thesis we present the unfolding method based on group theoretical techniques. We achieve the unfolding by employing induced irreducible representations of space groups. The unique feature of our method is that it treats the point group operations on an equal footing with the translations. This permits us to unfold the bandstructures beyond the limit of translation symmetry and also formulate the tight-binding models of reduced dimensionality if certain conditions are met. Inclusion of point group operations in the unfolding formalism allows us to reach important conclusions about the two versus one iron picture in iron based superconductors.
And finally, we present the results of ab-initio structure prediction in the cases of giant volume collapse in MnS2 and alkaline doped picene. In the case of MnS2, a previously unobserved high pressure arsenopyrite structure of MnS2 is predicted and stability regions for the two competing metastable phases under pressure are determined. In the case of alkaline doped picene, crystal structures with different levels of doping were predicted and used to study the role of electronic correlations.
Landau's Fermi liquid theory has been the main tool for investigating interactions between fermions at low energies for more than 50 years. It has been successful in describing, amongst other things, the mass enhancement in ³He and the thermodynamics of a large class of metals. Whilst this in itself is remarkable given the phenomenological nature of the original theory, experiments have found several materials, such as some superconducting and heavy-fermion materials, which cannot be described within the Fermi liquid picture. Because of this, many attempts have been made to understand these ''non Fermi liquid'' phases from a theoretical perspective. This will be the broad topic of the first part of this thesis and will be investigated in Chapter 2, where we consider a two-dimensional system of electrons interacting close to a Fermi surface through a damped gapless bosonic field. Such systems are known to give rise to non Fermi liquid behaviour. In particular we will consider the Ising-nematic quantum critical point of a two-dimensional metal. At this quantum critical point the Fermi liquid theory breaks down and the fermionic self-energy acquires the non Fermi liquid like {omega}²/³ frequency dependence at lowest order and within the canonical Hertz-Millis approach to quantum criticality of interacting fermions. Previous studies have however shown that, due to the gapless nature of the electronic single-particle excitations, the exponent of 2/3 is modified by an anomalous dimension {eta_psi} which changes, not only the exponent of the frequency dependence, but also the exponent of the momentum dependence of the self-energy. These studies also show that the usual 1/N-expansion breaks down for this problem. We therefore develop an alternative approach to calculate the anomalous dimensions based on the functional renormalization group, which will be introduced in the introductory Chapter 1. Doing so we will be able to calculate both the anomalous dimension renormalizing the exponent of the frequency dependence and the exponent renormalizing the momentum dependence of the self-energy. Moreover we will see that an effective interaction between the bosonic fields, mediated by the fermions, is crucial in order to obtain these renormalizations.
In the second part of this thesis, presented in Chapter 3, we return to Fermi liquid theory itself. Indeed, despite its conceptual simplicity of expressing interacting electrons through long-lived quasi-particles which behave in a similar fashion as free particles, albeit with renormalized parameters, it remains an active area of research. In particular, in order to take into account the full effects of interactions between quasi-particles, it is crucial to consider specific microscopic models. One such effect, which is not captured by the phenomenological theory itself, is the appearance of non-analytic terms in the expansions of various thermodynamic quantities such as heat-capacity and susceptibility with respect to an external magnetic field, temperature, or momentum. Such non-analyticities may have a large impact on the phase diagram of, for example, itinerant electrons near a ferromagnetic quantum phase transition. Inspired by this we consider a system of interacting electrons in a weak external magnetic field within Fermi liquid theory. For this system we calculate various quasi-particle properties such as the quasi-particle residue, momentum-renormalization factor, and a renormalization factor which relates to the self-energy on the Fermi surface. From these renormalization factors we then extract physical quantities such as the renormalized mass and renormalized electron Lande g-factor. By calculating the renormalization factors within second order perturbation theory numerically and analytically, using a phase-space decomposition, we show that all renormalization factors acquire a non-analytic term proportional to the absolute value of the magnetic field. We moreover explicitly calculate the prefactors of these terms and find that they are all universal and determined by low-energy scattering processes which we classify. We also consider the non-analytic contributions to the same renormalization factors at finite temperatures and for finite external frequencies and discuss possible experimental ways of measuring the prefactors. Specifically we find that the tunnelling density of states and the conductivity acquire a non-analytic dependence on magnetic field (and temperature) coming from the momentum-renormalization factor. For the latter we discuss how this relates to previous works which show the existence of non-analyticities in the conductivity at first order in the interaction.
The present work deals with the integration of variable renewable energy sources, wind and solar energy into the European and US power grid. In contrast to other networks, such as the gas supply mains, the electricity network is practically not able to store energy. Generation and consumption therefore always have tobe balanced. Currently, the load curve is viewed as a rigid boundary condition, which must be followed by the generation system. The basic idea of the approach followed here is that weather-dependent generation causes a shift of focus of the electricity supply. At high shares of wind and solar generation, the role of the rigid boundary condition falls to the residual load, that is, the remaining load after subtraction of renewable generation. The goal is to include the weather dependence as well as the load curve in the design of the future electricity supply.
After a brief introduction, the present work first turns to the underlying weather-, generation and load data, which form the starting point of the analysis. In addition, some basic concepts of energy economics are discussed, which are needed in the following.
In the main part of the thesis, several algorithms are developed to determine the load flow in a network with a high share of wind and solar energy and to determine the backup supply needed at the same time. Minimization of the energy needed from controllable power plants, the capacity variable power plants, and the capacity of storing serve as guiding principles. In addition, the optimization problem of grid extensions is considered. It is shown that it can be formulated as a convex optimization problem. It turns out that with an optimized, international transmission network which is about four times the currently available transmission capacity, much of the potential savings in backup energy (about 40%) in Europe can be reached. In contrast, a twelvefold increase the transmission capacity would be necessary for a complete implementation of all possible savings in dispatchable power plants.
The reduction of the dispatchable generation capacity and storage capacity, however, presents a greater challenge. Due to correlations in the generation of time series of individual countries, it may be reduced only with difficulty, and by only about 30%.
In the following, the influence of the relative share of wind and solar energy is illuminated and examined the interplay with the line capacitance. A stronger transmission network tends to lead to a higher proportion of wind energy being better integrated. With increasing line capacity, the optimal mix in Europe therefore shifts from about 70% to 80% wind. Similar analyses are carried out for the US with comparable results.
In addition, the cost of the overall system can be reduced. It is interesting at this point that the advantages for the network integration may outweigh higher production costs of individual technologies, so that it is more favourable from the viewpoint of the entire system to use the more expensive technologies.
Finally, attention is given to the flexibility of the dispatchable power plants. Starting from a Fourier-like decomposition of the load curve as it was a few years ago, when hardly renewable generation capacity was present, capacities of different flexibility classes of dispatchable power plant are calculated. For this purpose, it is assumed that the power plant park is able to follow the load curve without significant surplusses or deficits. From this examination, it is derived what capacity must at least be available without having to resort to a detailed database of existing power plants.
Assuming a strong European cooperation, with a stronger international transmission network, the dispatchable power capacity can be significantly reduced while maintaining security of supply and generating relatively small surplusses in dispatchable power plants.
Im Rahmen dieser Arbeit werden verschiedene Modellsysteme untersucht, die Metriken der klassischen Allgemeinen Relativitätstheorie mit Erweiterungen vergleichen, in denen Ereignishorizonte nicht existieren müssen. Die untersuchten Korrekturterme sind durch Schwachfeldmessungen, wie sie zum Beispiel in unserem Sonnensystem durchgeführt werden, nicht überprüfbar. Es ist deshalb nötig solche Systeme zu betrachten, in denen die vollständigen Gleichungen berücksichtigt werden müssen und keine Entwicklungen für schwache Felder gemacht werden können. Es gibt eine Reihe von astrophysikalischen Systemen, die diese Bedingungen erfüllen, wie das Galaktische Zentrum oder Doppelsternsysteme.
Im zweiten Kapitel der Arbeit werden Testteilchenorbits in einem Zentralpotential beschrieben und Unterschiede zwischen der klassischen und einer modifizierten Kerr-Metrik herausgearbeitet. Drei neue Phänomene der modifizierten Metrik gegenüber der Klassischen treten hier in Erscheinung. Zum einen haben Teilchen, die sich auf prograden Bahnen um den Zentralkörper drehen, ein Maximum in ihrer Winkelgeschwindigkeit. Zum anderen ist das Phänomen des frame-draggings deutlich schwächer ausgeprägt. Schließlich tritt ein letzter stabiler Orbit für entsprechend schnell rotierende Zentralkörper nicht mehr auf. Gleichzeitig sind die Unterschiede in den beiden Metriken für große Abstände (r > 10m) nahezu vernachlässigbar. In Kapitel 3 werden diese Ergebnisse auf zwei unterschiedliche Modelle zur Beschreibung von Akkretionsscheiben angewendet. Untersucht wird zum einen das Verhalten der Eisen-Kα-Emissionslinie und zum anderen der Energiefluss aus einer Akkretionsscheibe.
In der Form der Eisen-Kα-Emissionslinie gibt es eine deutliche Zunahme des rotverschobenen Anteils der Strahlung in der modifizierten Kerr-Metrik gegenüber der klassischen Kerr-Metrik. Die Akkretionsscheibe nach Page und Thorne zeigt unter Verwendung der modifizierten Kerr-Metrik eine signifikante Erhöhung der abgestrahlten Energie, wenn der Zentralkörper so schnell rotiert, dass kein letzter stabiler Orbit mehr auftritt. Zusätzlich gibt es hier in der Scheibe einen dunklen Ring im Vergleich zu den Bildern höherer Ordnung, die in der klassischen Kerr-Metrik auftreten. Erklärbar sind diese Phänomene dadurch, dass sich Teilchen auf stabilen Bahnen in der modifizierten Kerr-Metrik näher an den Zentralkörper heran bewegen können, als es in der klassischen Kerr-Metrik der Fall ist. Die Rotverschiebung ist für beide Fälle annäherend gleich.
Kapitel 4 gibt eine kurze Einführung in die Beschreibung von Gravitationswellen im Rahmen der linearisierten Allgemeinen Relativitätstheorie. Hier wird als Modell ein Binärsystem, wie etwa der Hulse-Taylor-Pulsar, betrachtet. Die Unterschiede zwischen der klassischen Theorie und einer Beschreibung unter Hinzunahme von Zusatztermen sind hier erwartungsgemäß sehr gering, da die Linearisierung der Gleichungen dazu führt, dass Starkfeldeffekte vernachlässigt werden. Für große Abstände, was in diesem Fall auch schwache Felder impliziert, sind die Erweiterungen der Gleichungen vernachlässigbar. Hier werden zum Teil auch Effekte in der klassischen ART vernachlässigt.
In Kapitel 5 befindet sich ein kurzer Ausblick in die 3+1-Formulierung der Einsteingleichungen für die numerische Beschreibung von Gravitationsphänomenen. Diese Beschreibung ermöglicht es auch komplexe Systeme ohne viele nähernde Annahmen genau beschreiben zu können. Diese Systeme können zum einen Akkretionsscheiben um kompakte Objekte sein, aber auch die Verschmelzung von zwei massiven Objekten und die damit verbundenen Gravitationswellensignale. Dadurch lassen sich die Vorhersagen der ART oder etwaiger Erweiterungen präziser modellieren.
Die vorgestellten Ergebnisse liegen innerhalb der Einschränkungen durch aktuelle Messungen. Zukünftige Messungen wie genauere Beobachtungen des Galaktischen Zentrums durch das Event Horizon Telescope sind aber voraussichtlich dazu in der Lage zwischen den untersuchten Metriken zu unterscheiden.
In this thesis, a novel 257 kHz chopper device was numerically developed, technically designed and experimentally commissioned; a 4-solenoid, low-energy ion beam transport line was numerically investigated, installed and experimentally commissioned; and a novel massless beam-separation system was numerically developed.
The chopper combines a pulsed electric field with a static magnetic field in an ExB or Wien-filter type field configuration. Chopped beam pulses with a 257 kHz repetition rate and rise times of 110 ns were experimentally achieved using a 14 keV helium beam.
Due to the achieved results, the complete LEBT line for the future Frankfurt Neutron Source FRANZ is ready to deliver a dc or a pulsed beam. At the same time, the LEBT section represents an attractive test stand for the study of low-energy ion beams. It combines magnetic lenses, which allow space-charge compensated beam transport, and a chopper system capable of producing short beam pulses in the hundred nanosecond range. Since these beam pulses are transported onwards, their longitudinal and transverse properties can be analyzed. The pulse duration and time of flight are well below the rise time for the space-charge compensation through residual gas ionization. This opens the possibility for dedicated investigations of the transport of short, low-energy beam pulses including longitudinal and transverse space-charge effects and of relevant issues like the dynamics of space-charge compensation and electron effects in short pulses.
Der Radiofrequenzquadrupol (RFQ) wird typischerweise als erstes beschleunigendes Element in Beschleunigeranlagen eingesetzt. Das elektrische Quadrupolfeld ermöglicht die gleichzeitige Fokussierung und Beschleunigung des Ionenstrahls. Zudem ist der RFQ in der Lage den Gleichstromstrahl von der Ionenquelle zu Teilchenpaketen (Bunche) zu formen, die von den nachfolgenden Driftröhrenbeschleunigern benötigt werden. Ziel der vorliegenden Arbeit war die Untersuchung zur Realisierbarkeit eines 325 MHz 4-rod RFQ Beschleunigers. Die Frequenz von 325 MHz stellt eine ungewöhnlich hohe Betriebsfrequenz für die 4-rod Struktur dar und wird z.B. für den Protonenlinac des FAIR Projektes benötigt. Ein Problem hierbei war, dass durch die bauartbedingten unsymmetrischen Elektrodenaufhängung und der hohen Frequenz ein, das Quadrupolfeld überlagerndes, Dipolfeld erzeugt wird. Dieses störende Feld kann z.B. zu einem Versatz der Strahlachse führen. Hierzu wurde die 4-rod Struktur in Simulationen grundlegend auf Einflüsse von verschiedenen Parametern auf die Resonanzfrequenz und das Dipolfeld untersucht. Es wurden Lösungsstrategien erarbeitet das Diopolfeld zu kompensieren und auf einen Prototypen angewendet. Zudem wurde das Verhalten höherer Schwingungsmoden dieser Struktur simuliert. In diesem Rahmen wurden auch Simulationen zu Randfeldern zwischen den 4-rod Elektroden und der Tankwand untersucht, um nachteilige Effekte für die Strahlqualität auszuschließen. Basierend auf den Simulationsergebnissen wurde ein Prototyp angefertigt. Dieser Prototyp wurde zur Demonstration der Betriebseigenschaften mit Leistungen bis 40 kW getestet. Hierbei wurde die Elektrodenspannung mittels Gammaspektroskopie bestimmt und daraus die Shuntimpedanz berechnet. Diese Werte wurden mit anderen Methoden der Shuntimpedanzbes- timmung verglichen. Außerdem wurden alternative RFQ Resonatorkonzepte ebenfalls auf ihre Realisierbarkeit für den Protonenlinac untersucht. Die Einflüsse verschiedener Parameter auf die Betriebsfrequenz, die Möglichkeiten des Frequenztunings und der Einstellung der longitudinalen Spannungsverteilung gefertigter Modelle wurden in einer Diskussion gegenübergestellt.
The laser-driven acceleration of protons from thin foils irradiated by hollow high-intensity laser beams in the regime of target normal sheath acceleration is reported for the first time. The use of hollow beams aims at reducing the initial emission solid angle of the TNSA source, due to a flattening of the electron sheath at the target rear side. The experiments were conducted at the PHELIX laser facility at the GSI Helmholtzzentrum für Schwerionenforschung GmbH with laser intensities in the range from 10^18 to 10^20 W/cm^2. We observed an average reduction of the half opening angle by (3.07±0.42)° or (13.2±2)% when the targets have a thickness between 12 to 14 μm. In addition, the highest proton energies were achieved with the hollow laser beam in comparison to the typical Gaussian focal spot.
The subatomic world is governed by the strong interactions of quarks and gluons, described by Quantum Chromodynamics (QCD). Quarks experience confinement into colour-less objects, i.e. they can not be observed as free particles. Under extreme conditions such as high temperature or high density, this constraint softens and a transition to a phase where quarks and gluons are quasi-free particles (Quark-Gluon-Plasma) can occur. This environment resembles the conditions prevailing during the early stages of the universe shortly after the Big Bang.
The phase diagram of QCD is under investigation in current and future collider experiments, for example at the Large Hadron Collider (LHC) or at the Facility for Antiproton and Ion Research (FAIR). Due to the strength of the strong interactions in the energy regime of interest, analytic methods can not be applied rigorously. The only tool to study QCD from first principles is given by simulations of its discretised version, Lattice QCD (LQCD).
These simulations are in the high-performance computing area, hence, the numerical aspects of LQCD are a vital part in this field of research. In recent years, Graphic Processing Units (GPUs) have been incorporated in these simulations as they are a standard tool for general purpose calculations today.
In the course of this thesis, the LQCD application cl2qcd has been developed, which allows for simulations on GPUs as well as on traditional CPUs, as it is based on OpenCL. cl2qcd constitutes the first application for Wilson type fermions in OpenCL.
It provides excellent performance and has been applied in physics studies presented in this thesis. The investigation of the QCD phase diagram is hampered by the notorious sign-problem, which restricts current simulation algorithms to small values of the chemical potential.
Theoretically, studying unphysical parameter ranges allows for constraints on the phase diagram. Of utmost importance is the clarification of the order of the finite temperature transition in the Nf=2 chiral limit at zero chemical potential. It is not known if it is of first or second order. To this end, simulations utilising Twisted Mass Wilson fermions aiming at the chiral limit are presented in this thesis.
Another possibility is the investigation of QCD at purely imaginary chemical potential. In this region, QCD is known to posses a rich phase structure, which can be used to constrain the phase diagram of QCD at real chemical potential and to clarify the nature of the Nf=2 chiral limit. This phase structure is studied within this thesis, in particular the nature of the Roberge-Weiss endpoint is mapped out using Wilson fermions.
Das Schwerionenkollisionen Programm der Beschleuniger RHIC und LHC gibt Hinweise auf einen neuen Zustand hadronischer Materie --- das Quark-Gluon Plasma. Dieses zeichnet sich durch eine zumindest partielle Aufhebung des confinements aus, welches besagt, dass keine freien Quarks beochtbar sind.
Aus einer Beschreibung der experimentellen Daten mit relativistischer Hydrodynamik folgen weitere Eigenschaften. So geht das in einer Schwerionenkollision erzeugte Quark-Gluon Plasma nach sehr kurzer Zeit, etwa 1 fm/c, in ein zumindest lokales thermisches Gleichgewicht über. Durch die Lorentzkontraktion der beiden Schwerionen erwartet man, dass der Zustand direkt nach der Kollision durch eine Impulsanisotropie in der transversal-longitudinalen Ebene bestimmt wird. Somit setzt das Erreichen eines thermischen Gleichgewichts zunächst eine Isotropisierung voraus. Bisherige Studien haben gezeigt, dass gluonische Moden bei dieser Isotropisierung durch Verursachung einer chromo-Weibel Instabilität eine entscheidende Rolle spielen.
Weiterhin verhält sich das Quark-Gluon Plasma wie eine fast perfekte Flüssigkeit. Eine Berücksichtigung dissipativer Terme in der hydrodynamischen Beschreibung erfordert das Hinzufügen weiterer Terme zu den entsprechenden Bewegungsgleichungen. Diese sind proportional zu Transportkoeffizienten, welche durch die zugrunde liegende mikroskopische Theorie festgelegt sind.
Diese Theorie ist Quantenchromodynamik. Sie beschreibt die starke Wechselwirkung der Quarks und Gluonen und ist ein fundamentaler Baustein des Standardmodells der Teilchenphysik. Da im Regelfall Prozesse der starken Wechselwirkung nichtperturbativ sind, beschreiben wir QCD unter Verwendung einer Gitterregularisierung. Diese beruht auf einer Diskretisierung der vierdimensionalen Euklidischen Raumzeit durch einen Hyperkubus mit periodischen Randbedingungen und ermöglicht ein Lösen der QCD mit numerischen Methoden. Allerdings ist die Anwendung der Gittereichtheorie auf Systeme im thermischen Gleichgewicht beschränkt und kann somit keine Prozesse beschreiben, die auf Echtzeit basieren.
Transportkoeffizienten entsprechen Proportionalitätskoeffizienten, die die Relaxation einer Flüssigkeit oder eben eines Quark-Gluon Plasmas von einer kleinen Störung beschreiben. Damit sind sie unmittelbar mit der Zeit verknüpft. Über Kubo-Formeln lassen sie sich jedoch mit Gleichgewichtserwartungswerten retardierter Korrelatoren verknüpfen und werden so in Gitter QCD zugänglich.
In der vorliegenden Dissertation berechnen wir den Transportkoeffizienten κ in Gittereichtheorie für das Yang-Mills Plasma. Dabei nutzen wir aus, dass dieser Transportkoeffizient eine triviale analytische Fortsetzung vom retardierten zum Euklidischen Korrelator besitzt, welcher direkt in Gittereichtheorie zugänglich ist. Es ist die erste nichtperturbative Berechnung eines Transportkoeffizienten in QCD ohne weitere Annahmen, wie die Maximum Entropie Methode oder Ansätze, zu treffen.
Tuning and optimization of the field distribution for 4-rod radio frequency quadrupole linacs
(2014)
In this thesis, the tuning process of the 4-rod Radio Frequency Quadrupole has been analyzed and a theory for the prediction of the tuning plate's influence on the longitudinal voltage distribution was developed together with RF design options for the optimization of the fringe fields.
The basic principles of the RFQ's particle dynamics and resonant behavior are introduced in the theory part of this thesis. All studies that are presented are based on the work on four RFQs of recent linac projects. These RFQs are described in one chapter. Here, the projects are introduced together with details about the RFQ parameters and performance. In the meantime two of these RFQs are in full operation at NSCL at MSU and FNAL. One is operating in the test phase of the MedAustron Cancer Therapy Center and the fourth one for LANL is about to be built. The longitudinal voltage distribution has been studied in detail with a focus on the influence of the RF design with tuning elements and parameters like the electrodes overlap or the distance between stems. The theory for simulation methods for the field flatness that were developed as part of this thesis, as well as its simulation with CST MWS have been analyzed and compared to measurements. The lumped circuit model has proven to predict results with an accuracy that can be used in the tuning process of 4-rod RFQs. Together with results from the tuning studies, the studies on the fringe fields of the 4-rod structure lead to a proposal for a 4-rod RFQ model with an improved field distribution in the transverse and longitudinal electric field.
Fast nuclei are ionizing radiation which can cause deleterious effects to irradiated cells. The modelling of the interactions of such ions with matter and the related effects are very important to physics, radiobiology, medicine and space science and technology. A powerful method to study the interactions of ionizing radiation with biological systems was developed in the field of microdosimetry. Microdosimetry spectra characterize the energy deposition to objects of cellular size, i.e., a few micrometers.
In the present thesis the interaction of ions with tissue-like media was investigated using the Monte Carlo model for Heavy-Ion Therapy (MCHIT) developed at the Frankfurt Institute for Advanced Studies. MCHIT is a Geant4-based application intended to benchmark the physical models of Geant4 and investigate the physical properties of therapeutic ion beams. We have implemented new features in MCHIT in order to calculate microdosimetric quantities characterizing the radiation fields of accelerated nucleons and nuclei. The results of our Monte Carlo simulations were compared with recent experimental microdosimetry data.
In addition to microdosimetry calculations with MCHIT, we also investigated the biological properties of ion beams, e.g. their relative biological effectiveness (RBE), by means of the modified Microdosimetric-Kinetic model (MKM). The MKM uses microdosimetry spectra in describing cell response to radiation. MCHIT+MKM allowed us to study the physical and biological properties of ion beams. The main results of the thesis are as follows:
MCHIT is able to describe the spatial distribution of the physical dose in tissue-like media and microdosimetry spectra for ions with energies relevant to space research and ion-beam cancer therapy; MCHIT+MKM predicts a reduction of the biological effectiveness of ions propagating in extended medium due to nuclear fragmentation reactions; We predicted favourable biological dose-depth profiles for monoenergetic helium and lithium beams similar to the one for carbon beam. Well-adjusted biological dose distributions for H-1, He-4, C-12 and O-16 with a very flat spread-out Bragg peak (SOBP) plateau were calculated with MCHIT+MKM; MCHIT+MKM predicts less damage to healthy tissues in the entrance channel for SOBP He-4 and C-12 beams compared to H-1 and O-16 ones. No definitive advantages for oxygen ions with respect to carbon were found.
The PhD addresses the feasibility of reconstructing open charm mesons with the Compressed Baryonic Matter experiment, which will be installed at the FAIR accelerator complex at Darmstadt/Germany. The measurements will be carried out by means of a dedicated Micro Vertex Detector (MVD), which will be equipped with CMOS Monolithic Active Pixel Sensors (MAPS). The feasibility of reconstructing the particles with a proposed detector setup was studied.
To obtain conclusive results, the properties of a MAPS prototype were measured in a beam test at the CERN-SPS accelerator. Based on the results achieved, a dedicated simulation software for the sensors was developed and implemented into the software framework of CBM (CBMRoot). Simulations on the reconstruction of D0-mesons were carried out. It is concluded that the reconstruction of those particles is possible.
The PhD introduces the physics motivation of doing open charm measurements, represents the results of the measurements of MAPS and introduces the innovative simulation model for those sensors as much as the concept and results of simulations of the D0 reconstruction.
Low-energy effective models for two-flavor quantum chromodynamics and the universality hypothesis
(2014)
Die Untersuchung der Natur auf extremen Längenskalen hat seit jeher zu bahnbrechenden Einsichten und Innovationen geführt. Insbesondere zu unserem heutigen Verständnis, dass Nukleonen (Protonen und Neutronen) aus Quarks zusammengesetzt sind, die infolge der starken Wechselwirkung, vermittelt durch Gluonenaustausch, gebunden sind. Mit dem Aufkommen des Quarkmodells wurde bald die Quantenchromodynamik (QCD) erfolgreich in der Beschreibung vieler messbarer Eigenschaften der starken Wechselwirkung. Um es mit Goethe zu sagen: mit den modernen Hochenergie-Beschleuniger-Experimenten wird versucht unser Verständnis davon zu verbessern, was die Welt im Innersten zusammenhält. Am Large Hadron Collider (LHC) werden beispielsweise Protonen derart beschleunigt und miteinander zur Kollision gebracht, dass bislang unerreichte Energiedichten auftreten, infolge derer Temperatur und baryochemisches Potential Werte annehmen, die mit denen des frühen Universums vergleichbar sind. Es gibt sowohl theoretische als auch experimentelle Hinweise darauf, dass hadronische Materie mit zunehmender Temperatur und/oder zunehmendem baryochemischen Potentials einen Phasenübergang durchläuft, hin zu einem exotischen Zustand, der als Quark-Gluon-Plasma bekannt ist. Dieser Übergang wird begleitet von einem sogenannten chiralen Übergang. Es ist eine wichtige Frage, ob es sich bei diesem chiralen Übergang um einen echten Phasenübergang (von erster bzw. zweiter Ordnung) handelt, oder ob ein sogenannter crossover vorliegt. Einige Resultate deuten auf einen crossover für verschwindendes baryochemisches Potential und einen Phasenübergang erster Ordnung für verschwindende Temperatur hin, lassen jedoch noch keinen endgültigen Schluss zu, ob dies tatsächlich der Realität entspricht. Wenn ja, so liegt die Annahme nahe, dass ein kritischer Endpunkt existiert, an dem der chirale Übergang von zweiter Ordnung ist. In der Tat existiert ein kritischer Endpunkt in einigen theoretischen Zugängen zur Beschreibung des chiralen Phasenübergangs, deren Aussagekraft seit jeher lebhaft diskutiert wird. Ein zentrales Ziel des zukünftigen CBM-Experiments an der GSI in Darmstadt ist es, die Existenz im Experiment zu überprüfen.
In der Nähe des QCD-(Phasen)übergangs ist es die Abwesenheit jeglicher perturbativer Entwicklungsparameter, die exakte analytische Berechnungen verbietet. Das gleiche gilt für realistische effektive Modelle für QCD. Nichtperturbative Methoden sind daher unverzichtbar für die Untersuchung des QCD-Phasendiagramms. Zu den populärsten dieser Zugänge gehören Gitter-QCD, Resummierungsverfahren, der Dyson-Schwinger-Formalismus, sowie die Funktionale Renormierungsgruppe (FRG). All diese Methoden ergänzen sich gegenseitig und werden zum Teil auch miteinander kombiniert. Eine der Stärken der FRG-Methode ist, dass sie nicht nur erfolgreich auf effektive Modelle angewendet werden kann, sondern auch auf QCD selbst. Für letztere Ab-Initio-Rechnungen sind die aus effektiven Modellen für QCD gewonnenen Resultate von grossem Wert.
Der Schwerpunkt der vorliegenden Arbeit liegt auf der Fragestellung von welcher Ordnung der chirale Phasenübergang im Fall von genau zwei leichten Quarksorten ist. Problemstellungen wie die Suche nach einer Antwort auf die Frage nach den Bedingungen für die Existenz eines Phasenübergangs zweiter Ordnung, die Bestimmung der Universalitätsklasse in diesem Fall etc. erfordern Wissen aus verschiedenen Gebieten.
Kapitel 1 besteht aus einer allgemeinen Einleitung.
In Kapitel 2 stellen wir zunächst einige allgemeine Aspekte von Phasenübergängen dar, die von besonderer Relevanz für das Verständnis des Renormierungsgruppen-Zugangs zu ebendiesen sind. Unser Fokus liegt hierbei auf einer kritischen Untersuchung der Universalitätshypothese. Insbesondere die Rechtfertigung des linearen Sigma-Modells als effektive Theorie für den chiralen Ordnungsparameter beruht auf der Gültigkeit selbiger.
Kapitel 3 beschäftigt sich mit dem chiralen Phasenübergang von einem allgemeinen Standpunkt aus. Wir ergünzen wohlbekannte Fakten durch eine detaillierte Diskussion der sogenannten O(4)-Hypothese. Die Überprüfung der Gültigkeit selbiger wird schließlich in Kapitel 6 und 7 in Angriff genommen.
In Kapitel 4 stellen wir die von uns benutzte FRG-Methode vor. Außerdem diskutieren wir den Zusammenhang zwischen effektiven Theorien für QCD und der QCD selbst.
Kapitel 5 behandelt ein mathematisches Thema, das für alle unserer Untersuchungen unabdingbar ist, nämlich die systematische Konstruktion polynomialer Invarianten zu einer gegebenen Symmetrie. Wir präsentieren einen einfachen, jedoch neuartigen, Algorithmus für die praktische Konstruktion von Invarianten einer gegebenen polynomialen Ordnung.
Kapitel 6 widmet sich Renormierungsgruppen-Studien einer Reihe dimensional reduzierter Theorien. Von zentralem Interesse ist hierbei das lineare Sigma-Modell, insbesondere in Anwesenheit der axialen Anomalie. Es stellt sich heraus, dass die Fixpunkt-Struktur des letzteren vergleichsweise kompliziert ist und ein tieferes Verständnis der zugrundeliegenden Methode sowie ihrer Annahmen erfordert. Dies führt uns zu einer sorgfältigen Analyse der Fixpunkt-Struktur von Modellen verschiedenster Symmetrien. Im Zusammenhang mit der Untersuchung des Einflusses von Vektor- und Axial-Vektor-Mesonen stoßen wir hierbei auf eine neue Universalitä}tsklasse.
Während wenig Spielraum für die Wahl der Symmetriegruppe der effektiven Theorie für den chiralen Ordnungsparameter besteht, ist die Identifizierung der Ordnungsparameter-Komponenten mit den relevanten mesonischen Freiheitsgraden hochgradig nichttrivial. Diese Wahl entspricht der Wahl einer Darstellung der Gruppe und kann zur Zeit nicht eindeutig aus der QCD hergeleitet werden. Es ist daher unerlässlich, verschiedene Möglichkeiten auszutesten. Eine wohlbekannte Wahl besteht darin, das Pion und seinen chiralen Partner, das Sigma-Meson, der O(4)-Darstellung für SU(2)_A x SU(2)_V zuzuordnen, welche einen Phasenübergang zweiter Ordnung erlaubt. Dieses Szenario ist jedoch nur dann sinnvoll, wenn nahe der kritischen Temperatur alle anderen Mesonen entsprechend schwer sind. Im Fall von genau zwei leichten Quarkmassen erfordert dies eine hinreichend große Anomaliestärke. Berücksichtigt man zusätzlich zum Pion und Sigma-Meson auch das Eta-Meson und das a_0-Meson, liefern unsere derzeitigen expliziten Rechnungen keinen Nachweis für die Existenz eines Phasenübergang zweiter Ordnung. Stattdessen spricht die Abwesenheit eines physikalischen (hinsichtlich der Massen) infrarot-stabilen Fixpunktes für einen fluktuationsinduzierten Phasenübergang erster Ordnung. Dieses Ergebnis ist auch zu erwarten (jedoch nicht impliziert), allein durch die Existenz zweier quadratischer Invarianten. Es besteht jedoch immer noch eine hypothetische Chance auf einen Phasenübergang zweiter Ordnung in der SU(2)_A x U(2)_V -Universalitätsklasse. Dies wäre der Fall, wenn der entsprechende von uns gefundene unphysikalische infrarot-stabile Fixpunkt physikalisch werden sollte in höherer Trunkierungsordnung. Interessanterweise finden wir bei endlicher Temperatur für gewisse Parameter einen Phasenübergang zweiter Ordnung. Es ist unklar, ob diese Wahl der Parameter in den Gültigkeitsbereich der dimensional reduzierten Theorie fällt.
Erst vor kurzem (Ende September 2013) wurde die Existenz eines infrarot-stabilen U(2)_A x U(2)_V-symmetrischen Fixpunkts durch Pelissetto und Vicari verifiziert (die zugehörige anomale Dimension ist mit 0.12 angegeben). Dieses Resultat war sehr
überraschend, da für zwei leichte Quarksorten und abwesende Anomalie ein Phasenübergang erster Ordnung relativ gesichert erschien, insbesondere durch die Epsilon-Entwicklung. Offensichtlich versagt letztere jedoch im Limes D=3, also für drei räumliche Dimensionen, da lediglich Fixpunkte gefunden werden können, die auch nahe D=4 existieren. Inspiriert durch diesen wichtigen Fund führen wir eine FRG-Fixpunktstudie in lokaler Potential-Näherung und hoher Trunkierungsordnung (bis zu zehnter Ordnung in den Feldern) durch. Die Stabilitätsanalyse besitzt jedoch leider keine Aussagekraft, da die Stabilitätsmatrix für den Gaußschen Fixpunkt marginale Eigenwerte besitzt. Wir sind überzeugt davon, dass dies nicht mehr der Fall ist, wenn man über die lokale Potential-Näherung hinausgeht und eine nichtverschwindende anomale Dimension zulässt. Die bisherigen Resultate verdeutlichen die Limitierungen der lokalen Potential-Näherung und der Epsilon-Entwicklung, auf denen unsere Untersuchungen zur Universalitätshypothese in weiten Teilen beruhen. Systematische Untersuchungen der Fixpunktstruktur von Modellen mit acht Ordnungsparameter-Komponenten wurden in der Literatur im Rahmen der Epsilon-Entwicklung durchgeführt und im Rahmen dieser Dissertation innerhalb der lokalen Potential-Näherung. Die meisten der Vorhersagen der Epsilon-Entwicklung konnten bestätigt werden, einige hingegen werden in Frage gestellt durch das Auftauchen marginaler Stabilitätsmatrix-Eigenwerte.
Einige wichtige Fragestellungen können nicht im Rahmen einer dimensional reduzierten Theorie behandelt werden, da die explizite Temperaturabhängigkeit in diesem Fall eliminiert wurde.
Insbesondere ist es in diesem Fall nicht möglich, die Stärke eines Phasenübergangs erster Ordnung vorherzusagen, da diese von Observablen (Meson-Massen und die Pion-Zerfallskonstante im Vakuum) abhängen, an die man bei verschwindender Temperatur fitten muss. Dieser Umstand führt uns zu solchen FRG-Studien, in denen die Temperatur als expliziter Parameter verbleibt.
Ein beträchtlicher Teil der für die vorliegende Dissertation zur Verfügung stehenden Arbeitszeit wurde darauf verwendet, eigene Implementierungen geeigneter Algorithmen zur numerischen Lösung der auftretenden partiellen Differentialgleichungen zu finden. Exemplarische Routinen (welche ausschließlich wohlbekannte Methoden nutzen) sind in einem Anhang zur Verfügung gestellt. Das Hauptziel der vorliegenden Arbeit, die Anwendung auf effektive Modelle für QCD, wird in Kapitel 7 präsentiert. Unsere (vorläufigen) FRG-Studien des linearen Sigma-Modells mit axialer Anomalie bei nichtverschwindender Temperatur erlauben verschiedene Szenarien. Sowohl einen extrem schwach ausgeprägten, als auch einen sehr deutlichen Phasenübergang erster Ordnung, ganz abhängig von der Wahl der Ultraviolett-Abschneideskala und oben genannter Parameter. Sogar ein Phasenübergang zweiter Ordnung scheint möglich für gewisse Parameterwerte. Um verlässliche Schlussfolgerungen zu ziehen, sind weitere Untersuchungen nötig und bereits im Gange. In Kapitel 7 verifizieren wir außerdem bereits bekannte numerische Resultate für das Quark-Meson-Modell.
Der langsame Neutroneneinfang-Prozess (s-Prozess) ist für die Erzeugung von rund der Hälfte der Elemente zwischen Eisen und Blei verantwortlich. Sein Reaktionspfad enthält entlang des Stabilitätstals einige Verzweigungspunkte an instabilen Isotopen, deren Neutroneneinfangquerschnitte die Produktion schwererer Elemente und deren Isotopen-Verhältnisse beeinflussen. Kennt man ihre Zerfalls- und Neutroneneinfangraten unter den angenommenen stellaren Bedingungen ist es möglich, Rückschlüsse auf die physikalischen Umstände während des s-Prozesses zu ziehen. Einer dieser Verzweigungspunkte ist 63-Ni. Die experimentelle Bestimmung des differentiellen Wirkungsquerschnittes für den Neutroneneinfang an diesem Isotop ist das primäre Ergebnis der vorliegenden Arbeit. Der 63-Ni(n,gamma)- Wirkungsquerschnitt hat Einfluss auf die Häufigkeiten von 64-Ni, die Kupfer- und die Zink-Isotope. Die Sensitivität der Produktion dieser Nuklide in s-Prozess-Szenarien wurde ebenfalls im Rahmen dieser Arbeit anhand von Simulationen des entsprechenden Nukleosynthesenetzwerkes untersucht. Zudem wurde die Datenlage für s-Prozess-Modelle mit einer Flugzeit-Messung des 63-Cu(n,gamma)-Wirkungsquerschnitts erweitert.
Die beiden Experimente zur Querschnittsbestimmung von 63-Ni und 63-Cu fanden am Los Alamos Neutron Science Center in New Mexico, USA statt. Eine aus angereichertem 62-Ni hergestellte 63-Ni-Probe wurde im Rahmen einer Flugzeit-Messung gepulst mit Neutronen bestrahlt. Der Nachweis der prompten Gammastrahlung aufgrund von Neutroneneinfängen erfolgte mit dem 4π-BaF_2-Detektor DANCE. Die kalorimetrische Messung macht den Q-Wert der Reaktion für jedes Einfangereignis zugänglich und erlaubt die Unterscheidung von Ereignissen verschiedener Isotope. Es konnte gezeigt werden, dass diese Methode die Bestimmung von Querschnitten selbst mit Proben ermöglicht, die nur zu einem Bruchteil aus dem zu untersuchenden Isotop bestehen. Der 63-Ni(n,gamma)-Wirkungsquerschnitt wurde für den Energiebereich von 40 eV bis 500 keV mit einer maximalen Unsicherheit von 15% bestimmt. Es zeigte sich, dass theoretische Abschätzungen den Querschnitt bislang um etwa einen Faktor 2 unterschätzten. In demselben Energiebereich konnte der 63-Cu(n,gamma)-Wirkungsquerschnitt mit einer maximalen Unsicherheit von 8% vermessen werden.
This thesis is structured into 7 chapters:
• Chapter 2 gives an overview of the ultrashort high intensity laser interaction with matter. The laser interaction with an induced plasma is described, starting from the kinematics of single electron motion, followed by collective electron effects and the ponderamotive motion in the laser focus and the plasma transparency for the laser beam. The three different mechanisms prepared to accelerate and propagate electrons through matter are discussed. The following indirect acceleration of protons is explained by the Target Normal Sheath Acceleration (TNSA) mechanism. Finally some possible applications of laser accelerated protons are explained briefly.
• Chapter 3 deals with the modeling of geometry and field mapping of magnetic lens. Initial proton and electron distributions, fitted to PHELIX measured data are generated, a brief description of employed codes and used techniques in simulation is given, and the aberrations at the solenoid focal spot is studied.
• Chapter 4 presents a simulation study for suggested corrections to optimize the proton beam as a later beam source. Two tools have been employed in these suggested corrections, an aperture placed at the solenoid focal spot as energy selection tool, and a scattering foil placed in the proton beam to smooth the radial energy beam profile correlation at the focal spot due to chromatic aberrations. Another suggested correction has been investigated, to optimize the beam radius at the focal spot by lens geometry controlling.
• Chapter 5 presents a simulation study for the de-neutralization problem in TNSA caused by the fringing fields of pulsed magnetic solenoid and quadrupole. In this simulation, we followed an electrostatic model, wherethe evolution of both, self and mutual fields through the pulsed magnetic solenoid could be found, which is not the case in the quadrupole and only the growth of self fields could be found. The field mapping of magnetic elements is generated by the Matlab program, while the TraceWin code is employed to study the tracking through magnetic elements.
• Chapter 6 describes the PHELIX laser parameters at GSI with chirp pulse amplification technique (CPA), and Gafchromic Radiochromic film RCF) as a spatial energy resolver film detector. The results of experiments with laser proton acceleration, which were performed in two experimental areas at GSI (Z6 area and PHELIX Laser Hall (PLH)), are presented in section 6.3.
• Chapter 7 includes the main results of this work, conclusions and gives a perspective for future experimental activities.
Studies on the focusing performance of a Gabor lens depending on nonneutral plasma properties
(2013)
The concept of the Gabor lens goes back to an idea by Dennis Gabor, who proposed a magnetron-type trap as an effective diverging lens for electron beams (collecting lens for positive ion beams).
Electrons confined inside the lens volume by orthogonal magnetic and electric fields, create an electric space charge field that causes a radial symmetric focusing force on an ion beam passing through the lens volume.
Since the beginning of the 1990s, a new design of this lens type as well as numerical models to describe the confined plasma cloud have been developed at the Institute for Applied Physics (IAP, Johann Wolfgang Goethe-University Frankfurt).
Thanks to an improved understanding of the plasma confinement as a function of the external fields, two lenses have successfully been tested for low beam currents and remain in operation.
In the scope of this work, the performance of a prototype Gabor lens for the transport of intense, i.e. space charge dominated ion beams, was investigated at the High Current Test Injector (HOSTI) of GSI Helmholtzzentrum für Schwerionenforschung GmbH for the first time.
To ensure an optimal focusing performance of the Gabor lens a homogeneous and stable electron confinement is required. Therefore, new non-interceptive diagnostic methods were developed to investigate the parameters and state of the confined nonneutral plasma column as a function of the external fields.
An essential part of the studies was the time-resolved diagnostic of an occurring plasma instability and the determination of the electron temperature via optical spectroscopy. The latter necessitated the detailed investigation of atomic excitation as well as the measurement of optical-emission cross sections.
A comparison of the results from both experiments i.e. the beam transport measurements at GSI and the diagnostic experiments performed at IAP concerning the plasma state, gave first indications of possible interaction processes between the nonneutral plasma and the ion beam.
In dieser Arbeit wurden eine Reihe neuer organischer Ladungstransfer (CT)-Verbindungen in Form von Einkristallen und Dünnschichten synthetisiert und grundlegend charakterisiert.
Für die Synthese kamen verschiedene bekannte und bislang unbekannte Donor- und Akzeptormoleküle zum Einsatz. Während einige bekannte Materialien wie TTF und TCNQ kommerziell erworben werden konnten, bestand im Rahmen der Kollaboration mit dem MPI für Polymerforschung zudem Zugang zu mehreren neuen Molekülen wie TMP und HATCN, die besonders mit Blick auf die Möglichkeit zur Dünnschichtpräparation ausgewählt wurden. Auf dieser Grundlage konnten zum einen mittels verschiedener Varianten der Lösungszüchtung erfolgreich neue CT-Komplexe als Einkristalle gezüchtet werden. Dabei kamen mehrere unterschiedliche Lösungsmittel zur Anwendung, die z.T. auch die gezielte Synthese bestimmter Kristallphasen erlaubten. Zum zweiten gelang die Präparation eines Teils dieser Systeme als Dünnschicht über die Methode der Molekularstrahldeposition mit verschiedenen Isolatoren wie SiO2 als Substratmaterial. Hierbei wurde zum Teil zuvor gezüchtetes Material eingesetzt, zum Teil entstand die neue Verbindung erst über diesen Prozess.
Die Proben der neuen Verbindungen wurden zunächst mittels verschiedener Methoden morphologisch und kristallographisch untersucht. Die Kristallzüchtung lieferte in vielen Fällen eine gute Kristallqualität, die sowohl für die Strukturbestimmung als auch die späteren elektrischen Messungen ausreichend war. Die Kristallstruktur konnte für mehrere neue Systeme ermittelt werden und ergab in allen Fällen eine Anordnung mit gemischten Donor-Akzeptor-Stapeln. Für die präparierten Dünnschichten konnte bei einem Großteil der Verbindungen gemäß der Untersuchungen mittels Röntgendiffraktion die gleiche(n) kristalline(n) Struktur(en) wie in den Einkristallen festgestellt werden. Es ließen sich zwei wesentliche Beobachtungen machen: a) Die Morphologie der Schichten besitzt eine ausgeprägte Tendenz zu rauem Inselwachstum; b) In praktisch allen Fällen bilden sich innerhalb der Schicht mindestens zwei stabile CT-Phasen parallel. Beide Verhaltensweisen traten nahezu unabhängig von Substrat, dessen Temperatur, Ausgangszustand (Material vorreagiert oder nicht) und Depositionstemperatur auf.
Die elektronischen Transportmessungen bestanden primär aus temperaturabhängigen Messungen
der elektrischen Leitfähigkeit, während Feldeffektmessungen mit organischen Transistorstrukturen
lediglich den Charakter einer Grundsteinlegung für tiefergehende Untersuchungen mit optimierten Schichten hatten. Die Kryostat-Messungen bis hinunter zu rund 1,5 Kelvin zeigten bei keiner der Verbindungen ein klares Anzeichen für einen Phasenübergang. Die absoluten Werte der Leitfähigkeit bei Raumtemperatur passten qualitativ zu der typischen Erwartung an ein gemischt gestapeltes CT-System, nämlich ein halbleitendes oder isolierendes Verhalten, was durch das arrhenius-artige Temperaturverhalten auch bestätigt wurde.
Dielektrische Messungen mit Kondensatorstrukturen wurden für die neuen Systeme TMP-TCNQ
und ET-DTF in der Dünnschichtform vorgenommen. Im Vordergrund stand dabei die Suche nach neuen Verbindungen, die einen neutral-ionischen Phasenübergang zeigen, der sich im Idealfall durch eine starke, peakförmige Anomalie in der Temperaturabhängigkeit der Dielektrizitätskonstanten bemerkbar machen sollte. Während sich in TMP-TCNQ keinerlei Hinweise auf einen Übergang zeigten, lieferte ET-DTF einen Verlauf, der einen strukturellen
Übergang andeutet, dessen Identität aber noch ungeklärt ist.
Zur Ergänzung wurden mit Hilfe mehrerer Kooperationspartner weitere Untersuchungen zwecks
Charakterisierung der neuen CT-Systeme vorgenommen. Die Bestimmung des Ladungstransfergrades δ mittels IR-Absorption lieferte im Wesentlichen eine Bestätigung der Beobachtung, dass die inspizierten Verbindungen gemischt gestapelte Systeme halbleitender oder
isolierender Natur sind, da δ nur geringe Werte von max. ca. 0,2 zeigte, die für solche Systeme
typisch sind. In ähnlicher Weise bestätigten Bandstruktur-Rechnungen dieses Verhalten, da die Bänder allgemein nur eine eher geringe elektronische Bandbreite zeigten. Zudem ergab sich für die trikline Phase von ET-DTF und das System TMP-F4TCNQ eine deutliche Anisotropie hinsichtlich der Dispersion, da diese erheblich verstärkt entlang der zur Stapelachse des Systems korrespondierenden Richtung des k-Raumes auftritt, also (im Einklang mit den Leitfähigkeitsdaten) 1D-Charakter besitzt. Ein weiterer Beitrag zur Suche nach neuen NI-Verbindungen entstand durch Messung der charakteristischen CT-Absorption einiger Systeme im optischen bzw. IR-Spektrum. In Kombination mit den Werten für Ionisierungsenergie und Elektronenaffinität konnte eine Einordnung in das von Torrance et al. entwickelte, sog. V-Diagramm vorgenommen werden, mit dessen Hilfe sich aussichtsreiche Molekülkombinationen für ein neues NI-System eruieren ließen.
In this thesis hard probes are studied in the partonic transport model BAMPS (Boltzmann Approach to MultiParton Scatterings). Employing Monte Carlo techniques, this model describes the 3+1 dimensional evolution of the quark gluon plasma phase in ultra-relativistic heavy-ion collisions by propagating all particles in space and time and carrying out their collisions according to the Boltzmann equation. Since hard probes are produced in hard processes with a large momentum transfer, the value of the running coupling is small and their interactions should be describable within perturbative QCD (pQCD). This work focuses on open heavy flavor, but also addresses the suppression of light parton jets, in particular to highlight differences due to the mass. For light partons, radiative processes are the dominant contribution to their energy loss. For heavy quarks, we show that also binary interactions with a running coupling and an improved Debye screening matched to hard-thermal-loop calculations play an important role. Furthermore, the impact of the mass in radiative interactions, prominently named the dead cone effect, and the interplay with the Landau-Pomeranchuk-Migdal (LPM) effect are studied in great detail. Since the transport model BAMPS has access to all medium properties and the space time information of heavy quarks, it is the ideal tool to study the dissociation and regeneration of J/psi mesons, which is also investigated in this thesis.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
Heterodyne array receivers are employed in radio astronomy to reduce the observing time needed for mapping extended sources. One of the main factors limiting the amount of pixels in terahertz receivers is the difficulty of generating a sufficient amount of local oscillator power. Another challenge is efficient diplexing and coupling of local oscillator and signal power to the detectors. These problems are attacked in this dissertation by proposing the application of two vacuum electronic terahertz amplifier types for the amplification of the LO-signal and by introducing a new method for finding the defects in a quasioptical diplexer.
A traveling wave tube (TWT) design based on a square helix slow wave structure (SWS) at 825 GHz is introduced. It exhibits a simulated small-signal gain of 18.3 dB and a 3-dB bandwidth of 69 GHz. In order to generate LO-power at even higher frequencies, the operation of an 850-GHz square helix TWT as a frequency doubler has been studied. A simulated conversion efficiency of 7% to 1700 GHz, comparable with the state-of-art solid-state doublers, has been achieved for an input power of 25 mW.
The other amplifier type discussed in this work is a 1-THz cascade backward wave amplifier based on a double corrugated waveguide SWS. Specifically, three input/output coupler types between a rectangular waveguide and the SWS are presented. The structures have been realized with microfabrication, and the results of loss measurements at 1 THz will be shown.
Diplexing of the LO- and signal beams is often performed with a Martin-Puplett interferometer. Misalignment and deformation of the quasioptical components causes the polarization state of the output signal to be incorrect, which leads to coupling losses. A ray-tracing program has been developed for studying the influence of such defects. The measurement results of the diplexer of a multi-pixel terahertz receiver operated at the APEX telescope have been analyzed with the program, and the results are presented. The program allows the quasioptical configuration of the diplexer to be corrected in order to obtain higher receiver sensitivity.
In this thesis, Hanbury-Brown-Twiss (HBT) interferometry is used together with the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) to analyse the time and space structure of heavy-ion collisions.
The first chapter after the introduction gives an overview of the different types of models used in the field of heavy-ion collisions and a introduction of the UrQMD model in more detail. The next chapter explains the basics of Hanbury-Brown-Twiss correlations, including azimuthally sensitive HBT (asHBT).
Results section:
4. Charged Multiplicities from UrQMD
5. Formation time via HBT from pp collisions at LHC
6. HBT analysis of Pb+Pb collisions at LHC energies
7. HBT scaling with particle multiplicity
8. Compressibility from event-by-event HBT
9. Tilt in non-central collisions
10. Shape analysis of strongly-interacting systems
11. Measuring a twisted emission geometry
This thesis covers the standard integrated HBT analyses, extracting the Pratt-Bertsch radii, at LHC energies. The analyses at these energies showed a too soft expansion in UrQMD probably related to the absence of a partonic phase in UrQMD. The most promising results in this thesis at these energies are the restriction of the formation time to a value smaller than 0.8 fm/c and furthermore, the results from the asHBT analyses. In simulations of non-central heavy-ion collisions at energies of Elab= 6, 8 and 30 AGeV the validity of the formulae to calculate the tilt angle via asHBT has been checked numerically, even for the case of non-Gaussian, flowing sources. On this basis has been developed and test in the course of this thesis that allows to measure a scale dependent tilt angle experimentally. The signal should be strongest at FAIR energies.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
Die Dissertation betrachtet zunächst die Anatomie der Lautentstehung und die Historie von Untersuchungen zu Sprechtraktakustik (u.a. Ibn Sina, Hook, Mical, Kratzenstein, Kempelen, Faber, Wheatstone, Helmholz, Riesz, Dunn, Chiba, Kajiyama, Kelly, Lochbaum, Saito, Itakura, Burg ) und geht insbesondere auf das Rohrmodell zu Beschreibung der Vokaltraktakustik ein.
Mittels Finiter-Differenzen wird die Aksutik der Sprechens dann dreidimensional beschrieben, und die zuätzlich auftretenden Effekte betrachtet. Fur die sich beim Sprechen schnell bewegende Mundhöhle wird ein Verfahren entwickelt und untersucht, mittels Sprachsignalen durch inverse Filterung und MRT-Aufnahmen die räumliche Konfiguration zu bestimmen. Für den Nasaltrakt wurden dreidimensional abbildende Verfahren aus der medizinischen Diagnostik verglichen (MRT und CT), und anhand eines Computer-Tomographischen Datensatzes die akustischen Vorgänge dreidimensional bestimmt.
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
Ziel dieser Arbeit war, die Reaktion von biologischen Gewebeproben auf dünn- und dicht-ionisierende Strahlung zu evaluieren. Dafür wurden die Gewebeproben konventioneller Röntgenstrahlung sowie einem ausgedehnten 12C-Ionen Bragg-Peak ausgesetzt. Zur Bestrahlung der biologischen Proben mit 12C wurde mit dem GSI-eigenen Simulationsprogramm TRiP98 ein Tiefendosisprofil eines ausgedehnten Bragg-peaks erstellt. Ein weiteres Ziel dieser Arbeit war, dieses Tiefendosisprofil mit drei anderen Simulationsprogrammen (ATIMA, MCHIT, TRIM) zu reproduzieren und zu vergleichen.
ATIMA und TRIM sind allgemeine Programme für den Energieverlust von Ionen in Materie. Sie können das von TRiP98 berechnetet Tiefendosisprofil nur ungenügend reproduzieren, da sie aufgrund fehlender Fragmentierung ein linear ansteigendes Tiefendosisprofil berechnen. Das Monte Carlo-Programm MCHIT, welches speziell für die Wechselwirkung von Ionen mit Materie in medizinischer Anwendung entwickelt wurde, zeigt die beste Übereinstimmung mit der TRiP98-Referenzkurve. Bis auf eine leicht höhere Durchschnittsdosis um 0.1 Gy konnte das Tiefendosisprofil nahezu exakt reproduziert werden.
Die biologischen Proben bestanden aus Schnittkulturen gesunder Maus-Lebern und Explantatkulturen gesunder Maus-Pankreata, um Nebenwirkungen ionisierender Strahlen abzuschätzen. Zusätzlich wurde die Reaktion auf 12C-Bestrahlung in neoplastischem Lebergewebe transgener c-myc/TGF-α Mäuse mit induzierbarem Lebertumor bestimmt. Um eine mögliche Tageszeitabhängigkeit der Gewebereaktion auf die Bestrahlung zu untersuchen, wurden die Schnitt- und Explantatkulturen zu zwei unterschiedlichen Tageszeiten präpariert: zur Mitte des subjektiven Tages und zur Mitte der subjektiven Nacht.
Die Präparate wurden für mehrere Tage auf einer Membran an einer Grenzschicht von Flüssigkeit und Luft kultiviert. Leber- und Pankreaskulturen gesunder C3H wildtyp Mäuse wurden mit einer Dosis von 2 Gy, 5 Gy oder 10 Gy Röntgenstrahlen bestrahlt. Leber- und Pankreaskulturen transgener Mäuse wurden mit ausgedehnten C-Ionen Bragg Peaks gleicher Dosen bestrahlt. Als Kontrolle dienten unbestrahlte Proben. Alle Proben wurden 1 h bzw. 24 h nach der Bestrahlung fixiert und immunhistochemisch auf Marker für Proliferation (Ki67), Apoptose (Caspase3) und DNA- Doppelstrangbrüche (γH2AX) untersucht.
Während die Pankreas-Präparate im Hinblick auf die untersuchten Parameter leider keine auswertbaren Ergebnisse ergaben, zeigten die untersuchten Parameter im gesunden Lebergewebe deutliche Tag-Nacht Unterschiede: die Proliferationsrate war zur Mitte des subjektiven Tages signifikant höher als zur Mitte der subjektiven Nacht. Umgekehrt waren die Raten für DNA-Doppelstrangbrüche zur Mitte der subjektiven Nacht signifikant erhöht. Diese Tag-Nacht Unterschiede ließen sich in neoplastischem Lebergewebe nicht nachweisen. Unabhängig von der Art und Dosis, hatte die Bestrahlung im gesunden Lebergewebe keinen Einfluss auf die untersuchten Parameter. In neoplastischem Lebergewebe hingegen wird die Rate an DNA-Doppelstrangbrüchen durch eine Bestrahlung dosisabhängig erhöht.
Die Auswirkungen ionisierender Strahlen auf das circadiane Uhrwerk wurden in Gewebeproben transgener Per2luc-Mäuse überprüft. Per2luc-Mäuse exprimieren das Enzym Luziferase unter der Kontrolle des Promoters von Per2, einem wichtigen Bestandteil des circadianen Uhrwerks. Daher erlaubt die Analyse dieser Tiere, den circadianen Rhythmus des molekularen Uhrwerks in Leber und anderen Geweben durch Messung der Luziferase-Aktivität in Echtzeit aufzuzeichnen. Wie in Leber- und Nebennierenkulturen dieser Tiere gezeigt werden konnte, führten ioniserende Strahlen dosisabhängig zu einem Phasenvorsprung des circadianen Uhrwerks.
Die Ergebnisse erlauben die Schlussfolgerung, dass ionisierende Strahlen das circadiane Uhrwerk verstellen, Proliferation und Apoptose in gesundem Lebergewebe jedoch kaum beeinflussen.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In der nuklearen Astrophysik sind Experimente mit hochgeladenen Radionukliden von großer Bedeutung. Diese exotischen Nuklide können in Schwerionenbeschleunigeranlagen hergestellt und in Speicherringen gespeichert werden. Momentan existieren weltweit zwei Anlagen, die solche Experimente ermöglichen: das GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt und das Institut für moderne Physik (IMP) in Lanzhou, China. Da die Ausbeute dieser Nuklide gering ist, werden zerstörungsfreie Nachweismethoden in den Speicherringen verwendet. Diese machen von den Methoden der Spektralanalyse Gebrauch. Nicht nur die geringe Ausbeute, sondern auch die kurze Lebensdauer dieser Nuklide stellen hohe Anforderungen an die Sensitivität und Geschwindigkeit dieser Detektoren.
Eine übliche Methode ist die Verwendung kapazitiver Schottky-Sonden. Eine solche Sonde ist seit 1991 an der GSI im Speicherring ESR im Einsatz. Um die Empfindlichkeit zu erhöhen, kann man Mikrowellenkavitäten als resonante Pickups verwenden. Die von den Teilchen induzierten elektromagnetischen Felder können resonante Moden im Resonator anregen. Die Geometrie des Pickups und das verwendete Material spielen eine wesentliche Rolle in der Gestaltung der Feldbilder. Die resultierenden Signale, auch Schottky Signale genannt, werden mittels einer Antenne ausgekoppelt und anschliessend an einen Spektrumanalysator angeschlossen. Für die Analyse der gespeicherten Daten können verschiedene Methoden der Spektralschätzung wie z.B. das Multi-Taper angewendet werden. Nachdem eine externe Kalibrierung durchgeführt worden ist, kann das Pickup auch als ein Stromsensor verwendet werden.
Diese Arbeit befasst sich mit der Theorie, dem Aufbau und ersten Anwendungen eines neuen resonanten Pickups, das im Jahr 2010 in den Speicherring ESR eingebaut und in mehreren Experimenten erfolgreich eingesetzt wurde. Ein ähnliches Pickup wurde im Jahr 2011 in den CSRe im IMP Lanzhou eingebaut. Einzelne Schwerionen mit 400 MeV pro Nukleon wurden erfolgreich mit dem GSI-Pickup nachgewiesen. Das Pickup wird regelmässig in Speicherringexperimenten eingesetzt. Ähnliche Experimente sind für CSRe in Lanzhou geplant.
Detailed knowledge of reaction mechanisms is key to understanding chemical, biological, and biophysical processes. For many reasons, it is desirable to comprehend how a reaction proceeds and what influences the reaction rate and its products.
In biophysics, reaction mechanisms provide insight into enzyme and protein function, the reason why they are so efficient, and what determines their reaction rates. They also reveal the relationship between the function of a protein and its structure and dynamics.
In chemistry, reaction mechanisms are able to explain side products, solvent effects, and the stereochemistry of a product. They are also the basis for potentially optimizing reactions with respect to yield, enhancing the stereoselectivity, or for modifying reactions in order to obtain other related products.
A key step to investigate reaction mechanisms is the identification and characterization of intermediates, which may be reactive, short-lived, and therefore only weakly populated. Nowadays, the structures of those can in most cases only be hypothesized based on products, side products, and isolable intermediates, because intermediates with a life time of less than a few microseconds are not accessible with the commonly used techniques for structure determination such as X-ray crystallography and nuclear magnetic resonance (NMR) spectroscopy.
In this thesis, two-dimensional infrared (2D-IR) spectroscopy is shown to be a powerful complement to the existing techniques for structure determination in solution. 2D-IR spectroscopy uses a femtosecond laser setup to investigate interactions between vibrations - analogous to 2D-NMR, which investigates the interactions between spins. Its ultrafast time resolution makes 2D-IR spectroscopy particularly well suited for the two topics investigated in this thesis: Structure Determination of Reactive Intermediates and Conformational Dynamics of Proteins.
Structure Determination of Reactive Intermediates: The focus of this thesis is using polarization-dependent 2D-IR (P2D-IR) spectroscopy for structure determination of N-crotonyloxazolidinone (referred to as 1), a small organic compound with a chiral oxazolidinone, known as Evans auxiliary, and its reactive complexes with the Lewis acids SnCl4 and Mg(ClO4)2. Chiral oxazolidinones in combination with Lewis acids have frequently been used in stereoselective synthesis for over 30 years. Nevertheless, the detailed mechanisms are in many cases xvi ABSTRACT still mere hypotheses and have not yet been experimentally proven. By accurately measuring the angles between the transition dipole moments in the molecules using an optimized P2D-IR setup and comparing the results to DFT calculations, the conformation of 1 and the conformation and coordination of the main complexes with SnCl4 and Mg(ClO4)2 are unequivocally identified and analyzed in depth. Structural details, such as a slight twist in the solution structure of 1, are detected using P2D-IR spectroscopy; these cannot be inferred from NMR spectroscopy or DFT calculations. In addition to the main Lewis acid complexes, complexes in low concentration are detected and tentatively assigned to different conformations and complexation geometries. The knowledge of those structures is essential for rationalizing the observed stereoselectivities. Additionally, a method is introduced that enables structure determination of molecules in complex mixtures and even in the presence of molecules with similar spectral properties and in high concentration. This work sets the stage for future studies of other substrate-catalyst complexes and reaction intermediates for which the structure determination has not been possible to date.
Conformational Dynamics of Proteins: Exchange 2D-IR spectroscopy allows the investigation of fast dynamics without disturbing the equilibrium of the exchanging species. It is therefore well suited to investigate fast dynamics of proteins and to reveal the speed limit of those. The temperature dependence of the conformational dynamics between the myoglobin substates A1 and A3 in equilibrium is analyzed. The various substates of myoglobin can be detected with FTIR spectroscopy, if carbon monoxide is bound to the heme. From previous studies it is known that the exchange rates at room temperature are in the picosecond time range, well suited to be investigated by 2D-IR spectroscopy. In the temperature range between 0 °C and 40 °C only a weak temperature dependence of the exchange rate in the myoglobin mutant L29I is observed in the present study. The exchange rate approximately doubles from 15 ns-1 at 0 °C to 31 ns-1 at 40 °C. It turned out that the conformational dynamics correlates linearly with the solvent viscosity, which itself is temperature dependent. Comparing our results to measurements at cryogenic temperatures, the linear relation between exchange time constant for this process and the viscosity is shown for the temperature range between -100 °C and 40 °C (corresponding to a viscosity change of 14 orders of magnitude). Thus, it is proven that the dynamics of the conformational switching are mainly determined by solvent dynamics, i.e., the protein dynamics are slaved to the solvent dynamics. This is the first time slaving is observed for such fast processes (in the picosecond time range). The observation implies a long-range structural rearrangement between the myoglobin substates A1 and A3. In addition, the exchange for other mutants and wild type myoglobin is analyzed qualitatively and found to agree with the conclusions drawn from L29I myoglobin.
In this thesis, various aspects on the theoretical description of ultracold bosonic atoms in optical lattices are investigated. After giving a brief introduction to the fundamental concepts of BECs, atomic physics, interatomic interactions and experimental procedures in chapter (1), we derive the Bose-Hubbard model from first principles in chapter (2). In this chapter, we also introduce and discuss a technique to efficiently determine Wannier states, which, in contrast to current techniques, can also be extended to inhomogeneous systems. This technique is later extended to higher dimensional, non-separable lattices in chapter (5). The many-body physics and phases of the Bose-Hubbard is shortly presented in chapter (3) in conjunction with Gutzwiller mean-field theory, and the recently devised projection operator approach. We then return to the derivation of an improved microscopic many-body Hamiltonian, which contains higher band contributions in the presence of interactions in chapter (4). We then move on to many-particle theory. To demonstrate the conceptual relations required in the following chapter, we derive Bogoliubov theory in chapter (5.3.4) in three different ways and discuss the connections. Furthermore, this derivation goes beyond the usual version discussed in most textbooks and papers, as it accounts for the fact, that the quasi-particle Hamiltonian is not diagonalizable in the condensate and the eigenvectors have to be completed by additional vectors to form a basis. This leads to a qualitatively different quasi-particle Hamiltonian and more intricate transformation relations as a result. In the following two chapters (7, 8), we derive an extended quasi-particle theory, which goes beyond Bogoliubov theory and is not restricted to weak interactions or a large condensate fraction. This quasi-particle theory naturally contains additional modes, such as the amplitude mode in the strongly interacting condensate. Bragg spectroscopy, a momentum-resolved spectroscopic technique, is introduced and used for the first experimental detection of the amplitude mode at finite quasi-momentum in chapter (9). The closely related lattice modulation spectroscopy is discussed in chapter (10). The results of a time-dependent simulation agree with experimental data, suggesting that also the amplitude mode, and not the sound mode, was probed in these experiments. In chapter (11) the dynamics of strongly interacting bosons far from equilibrium in inhomogeneous potentials is explored. We introduce a procedure that, in conjunction with the collapse and revival of the condensate, can be used to create exotic condensates, while particularly focusing on the case of a quadratic trapping potential. Finally, in chapter (12), we turn towards the physics of disordered systems derive and discuss in detail the stochastic mean-field theory for the disordered Bose-Hubbard model.
The study of systems whose properties are governed by electronic correlations is a corner stone of modern solid-state physics. Often, such systems feature unique and distinct properties like Mott metal-insulator transitions, rich phase diagrams, and high sensitivity to subtle changes in the applied conditions. Whereas the standard approach to electronic structure calculations, density functional theory (DFT), is able to address the complexity of real-world materials but is known to have serious limitations in the description of correlations, the dynamical mean-field theory (DMFT) has become an established method for the treatment of correlated fermions, first on the level of minimal models and later in combination with DFT, termed LDA+DMFT.
This thesis presents theoretical calculations on different materials exhibiting correlated physics, where we aim at covering a range in terms of systems --from rather weakly correlated to strongy correlated-- as well as in terms of methods, from DFT calculations to combined LDA+DMFT calculations. We begin with a study on a selection of iron pnictides, a recently discovered family of high-temperature superconductors with varying degree of correlation strength, and show that their magnetic and optical properties can be assessed to some degree within DFT, despite the correlated nature of these systems. Next, extending our analysis to the inclusion of correlations in the framework of LDA+DMFT, we discuss the electronic structure of the iron pnictide LiFeAs which we find to be well described by Fermi liquid theory with regard to many of its properties, yet we see distinct changes in its Fermi surface upon inclusion of correlations. We continue the study of low-energy properties and specifically Fermi surfaces on two more iron pnictides, LaFePO and LiFeP, and predict a topology change of their Fermi surfaces due to the effect of correlations, with possible implications for their superconducting properties. In our last study, we close the circle by presenting LDA+DMFT calculations on an organic molecular crystal on the verge of a Mott metal-insulator transition; there, we find the spectral and optical properties to display signatures of strong electronic correlations beyond Fermi liquid theory.
With the increasing energies and intensities of heavy-ion accelerator facilities, the problem of an excessive activation of the accelerator components caused by beam losses becomes more and more important. Numerical experiments using Monte Carlo transport codes are performed in order to assess the levels of activation. The heavy-ion versions of the codes were released approximately a decade ago, therefore the verification is needed to be sure that they give reasonable results. Present work is focused on obtaining the experimental data on activation of the targets by heavy-ion beams. Several experiments were performed at GSI Helmholtzzentrum für Schwerionenforschung. The interaction of nitrogen, argon and uranium beams with aluminum targets, as well as interaction of nitrogen and argon beams with copper targets was studied. After the irradiation of the targets by different ion beams from the SIS18 synchrotron at GSI, the γ-spectroscopy analysis was done: the γ-spectra of the residual activity were measured, the radioactive nuclides were identified, their amount and depth distribution were detected. The obtained experimental results were compared with the results of the Monte Carlo simulations using FLUKA, MARS and SHIELD. The discrepancies and agreements between experiment and simulations are pointed out. The origin of discrepancies is discussed. Obtained results allow for a better verification of the Monte Carlo transport codes, and also provide information for their further development. The necessity of the activation studies for accelerator applications is discussed. The limits of applicability of the heavy-ion beam-loss criteria were studied using the FLUKA code. FLUKA-simulations were done to determine the most preferable from the radiation protection point of view materials for use in accelerator components.
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.
A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma.
Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions.
The produced data volume can reach up to 26 GByte/s for central Pb–Pb
collisions at design luminosity of L = 1027 cm−2 s−1 , challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment.
The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers.
The main purpose of the Transition Radiation Detector (TRD) located in the central barrel of ALICE (A Large Ion Collider Experiment) is electron identification for separation from pions at momenta pt > 1 GeV/c, since in this momentum range the measurements of the specific energy loss (dE/dx) of the Time Projection Chamber (TPC) is no longer sufficient. Furthermore, it provides a fast trigger for high transverse momentum charged particles (pt > 3 GeV/c) and makes a significant contribution to the optimization of the tracking of reaction products in heavy-ion collisions. Its whole setup comprises 18 supermodules out of which 13 are presently operational and mounted cylindrically around the beam axis of the Large Hadron Collider (LHC). A supermodule contains either 30 or 24 chambers, each consisting of a radiator for transition radiation creation, a drift and an amplifying region followed by the read-out electronics. In total, the TRD is an array of 522 chambers operated with about 28 m3 of a Xe-CO2 [85-15%] gas mixture. During the work of this thesis, the testing, commissioning, operation and maintenance of detector parts, the gas system and its online quality monitor, improvements on the detector control user-interface and studies about a new pre-trigger module for data read-out have been accomplished. The TRD gas system mixes, distributes and circulates the operational gas mixture through the detector. Its overall optimization has been achieved by minimizing gas leakage, surveying, controlling, maintaining and continuously improving it as well as designing and carrying out upgrades. Gas quality monitors of the type \GOOFIE" (Gas prOportional cOunter For drIfting Electrons) can be used in gaseous detectors as on-line monitors of the electron drift velocity, gain and gas properties. One of these devices has been implemented within the TRD gas system, while another one surveys the gas of the TPC. Both devices had to be adapted to the specific needs of the detectors, were under constant surveillance and control, and needed to be further developed on both hardware and software side. To improve the operation of the TRD, modifications on its DCS software (Detector Control System) used for monitoring, controlling, operating, regulating and configuring of hardware and computing devices have been carried out. The DCS is designed to enable an operator to interact with equipment through user interfaces that display the information from the system. The main focus of this work was laid on the optimization of the usability and design of the user interface. The front-end electronics of the TRD require an early start signal (\pre-trigger") from the fast forward detectors or the Time-Of-Flight detector during the running periods. The realization of a new hardware concept for the read-out of the TRD pre-trigger system has been studied and first tests were performed. This new module called PIMDDL (Pre-trigger Interface Module Detector Data Link) is meant to acquire all data necessary to simulate and predict the full pre-trigger functionality, and to verify its proper operation. Furthermore, it shall provide all functionalities of the so-called Control Box Bottom as well as keep the functionalities of the already existing PIM (Pre-trigger Interface Module) in order to combine and replace these two modules in the future.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Quarkonia are very promising probes to study the quark-gluon plasma. The essential baseline for measurements in heavy-ion collisions is high-precision data from proton-proton interactions. However, the basic mechanisms of quarkonium hadroproduction are still being debated. The most common models, the Color-Singlet Model, the non-relativistic QCD approach and the Color-Evaporation Model, are able to describe most of the available cross-section data, despite of their conceptual differences. New measures, such as the polarization, and data at a new energy regime are crucial to test the competing models. Another issue is an eventual interplay between the production process of a quarkonium state and the surrounding pp event. Current Monte Carlo event generators treat the hard scattering independently from the rest of the so-called underlying event. The investigation of possible correlations with the pp event might be very valuable for a detailed understanding of the production processes. ALICE ist the dedicated heavy-ion experiment at the LHC. Its design has been optimized for high-precision measurements in very high track densities and down to low transverse momenta. ALICE is composed of various different detectors at forward and at central rapidities. The most important detectors for this study are the Inner Tracking System and the Time Projection Chamber, allowing to reconstruct and identify electron candidate tracks within eta < 0.9. The Transition Radiation Detector has not been utilized at this stage of the analysis; however, it will strongly improve the particle identification and provide a dedicated trigger in the upcoming beam periods. ...