Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
The main subject of the thesis is the investigation of low-temperature-grown (LTG) GaAs-based photoconductive switches used in the generation of continuous-wave (CW) and pulsed terahertz (THz) radiation. The use of photoconductive switches based on low-temperature-grown GaAs proved to be a viable option in generating electromagnetic transients on a subpicosecond time-scale, corresponding to frequencies of ~1012 Hz (between microwave and far-infrared). The most appealing property of LTG-GaAs is the ultra-short carrier lifetime obtained by incorporation of a large number of As defects when GaAs is grown at low temperatures. However, the reason for poor THz emission efficiency (low CW-THz power lrvrls) is still up to this date not fully understood. The various reasons are to be found in both, optoelectronic properties of the active layer (photoconducting material) as well as in the device characteristics. The thesis focuses primarily on the limitation imposed to the performance of the THz emitters by the material of choice for the active layer (LTG-GaAs) and secondarily, on the impact of a particular emitter design on the THz radiation efficiency. In the beginning of the thesis one finds an ample overview on the electrical and optical properties of the LTG-GaAs material. A special chapter deals with the main features of current-voltage and CW-THz emission characteristics measured from a photoconductive antenna employed as photomixer. We observed deviations from the theoretical predictions of photomixing theory which were explained by considering the high-field electrons effects (velocity overshoot and elongation of the carrier trapping time). With the scope to provide a better understanding of the correlation between device and material properties when the LTG-GaAs material is integrated with a planar antenna (photoswitch), a special THz double-pulse technique (THz-pump and -probe) was implemented. The experimental results assisted by modeling of the double-pulse THz data provide a gainful insight into the ultrafast dynamics of the electrical field and photogenerated carriers. The outcome of the double-pulse experiments is the evidence for long-living carriers in the LTG-GaAs-based photoconductive antenna under applied bias, with a deleterious impact upon the emitter performance (especially for the CW case). Additionally, by measuring the THz transients generated by a constant laser pulse with and without a CW laser background illumination, we obtained further evidence of strong field-screening effects. This phenomenon was also attributed to the existence of long-living space-charge effects. For both cases (pulsed as well as CW) we derived the de-screening time constant. The principal conclusion of the present study is that, besides shortcomings imposed by the THz-circuitry, photomixers based on materials with traps (defects) exhibit great “affinity” for space-charge screening effects with cumulative and therefore long-lived deleterious impact upon device’s performance. An alternative would be the usage of a transient-time limited device where the response time is given by the carrier collection time, possibly with only one type of carrier responsible for THz signal generation.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
In this study, the structural and functional properties of the Na+/Betaine symporter BetP were investigated upon K+-induced activation. BetP regulates transport activity dependent on the amount of associated anionic lipids and the cytoplasmic K+-concentration. For this purpose, FTIR spectroscopy was implemented as a non-perturbing biophysical method which shed light on how the membrane lipids contribute to the molecular mechanisms of activation and regulatory response of BetP.
ATP-binding cassette (ABC) transporters shuttle diverse substrates across biological membranes. They play a role in many physiological processes but are also the reason for antibiotic resistance of microbes and multi drug resistance in cancer, and their dysfunction can lead to serious diseases. Transport is achieved through an ATP-driven closure of the two nucleotide binding sites (NBSs) which induces a transition between an inward-facing (IF) and an outward-facing (OF) conformation of the connected transmembrane domains (TMDs). In contrast to this forward transition, the reverse transition (OF-to-IF) that involves Mg2+-dependent ATP hydrolysis and release is less understood. This is particularly relevant for heterodimeric ABC transporters with asymmetric NBSs. These transporters possess an ATPase active consensus NBS (c-NBS) and a degenerate NBS (d-NBS) with little or no ATPase activity.
Crucial details regarding function and mechanism of the transport cycle remain elusive.
Here, these open questions were addressed using pulse electron-electron double resonance (PELDOR or DEER) spectroscopy of the heterodimeric ABC exporter TmrAB.
To better understand the transport cycle, the underlying kinetics of the conformational transitions need to be elucidated. By introducing paramagnetic nitroxide (NO) spin probes at key positions of TmrAB and employing time-resolved PELDOR spectroscopy, the forward transition could be followed over time and the rate constants for the conformational transition at the TMDs and NBSs were characterized.
The temperature dependence of these rate constants was further analyzed to determine for the first time the activation energy of conformational changes in a large membrane protein. For TMD opening and c-NBS dimerization, values of 75 ± 27 kJ/mol and 56 ± 3 kJ/mol, respectively were found. These values agree with reported activation energies of peptide transport and peptide dissociation in other ABC transporters, suggesting that the forward transition may be the rate-limiting step for substrate translocation.
The functional relevance of asymmetric NBSs is so far not well understood. By combining Mg2+-to-Mn2+ substitution with Mn2+-NO and NO-NO PELDOR spectroscopy, the binding of ATP-Mn2+, the conformation of the NBSs, and the conformation of the TMDs could be simultaneously monitored for the first time. These results reveal an asymmetric post-hydrolytic state. Time-resolved investigation showed that ATP hydrolysis at the active c-NBS triggers the reverse transition, whereas opening of the impaired d-NBS regulates the return to the IF conformation.
Investigation of the kinematics involved in compton scattering and hard X-ray photoabsorption
(2023)
The present work investigates the kinematics of Compton scattering at gaseous, internally-cool helium and molecular nitrogen targets in the high- and the low-energy regime. Additionally, photoionization at molecular nitrogen with high-energy photons is investigated. These exeprimental regimes were previously inaccessible due to the extremely small cross sections involved. Nowadays, the third- and fourth-generation synchrotron machines produce sufficient photon flux, enabling the investiagtion of the above processes. The utilized cold-target recoil-ion momentum spectroscopy (COLTRIMS) technique further increases the detection efficiency of the observed processes, since it enables full-solid-angle detection by exploiting momentum conservation.
Compton scattering is investigated at both high (helium and N2) and low (helium) photon energies. In the high-energy regime, the impulse approximation is mostly valid, which is not the case for the low-energy regime. The impulse approximation assumes that the Compton-scattering process takes place at a free electron with a momentum distribution as if it was bound, thus ignoring the binding energy of the system. In the low-energy regime, the impulse approximation is not valid.
Photoionization is investigated at high photon energies, where the linear momentum of the photon cannot be neglected, as is the fashion of the commonly used dipole approximation.
The objective of this work is twofold. First, we explore the performance of the density functional theory (DFT) when it is applied to solids with strong electronic correlations, such as transition metal compounds. Along this direction, particular effort is put into the refinement and development of parameterization techniques for deriving effective models on a basis of DFT calculations. Second, within the framework of the DFT, we address a number of questions related to the physics of Mott insulators, such as magnetic frustration and electron-phonon coupling (Cs2CuCl4 and Cs2CuBr4), high-temperature superconductivity (BSCCO) and doping of Mott insulators (TiOCl). In the frustrated antiferromagnets Cs2CuCl4 and Cs2CuBr4, we investigate the interplay between strong electronic correlations and magnetism on one hand and electron-lattice coupling on the other as well as the effect of this interplay on the microscopic model parameters. Another object of our investigations is the oxygen-doped cuprate superconductor BSCCO, where nano-scale electronic inhomogeneities have been observed in scanning tunneling spectroscopy experiments. By means of DFT and many-body calculations, we analyze the connection between the structural and electronic inhomogeneities and the superconducting properties of BSCCO. We use the DFT and molecular dynamic simulations to explain the microscopic origin of the persisting under doping Mott insulating state in the layered compound TiOCl.
In the present work we applied the Optically read out PArticle track Chamber, OPAC, for the measurement of radial dose distributions, d(r), around tracks of heavy ions passing through the gas-filled sensitive volume of the chamber. The measured data were compared with d(r) functions derived from data calculated with the Monte Carlo particle transport code, TRAX – which is used for the heavy ion therapy planning at GSI. To measure this quantity we have used here an optically read out time projection chamber (OPAC) with a parallel-drift field and one or several electron and light amplification stages. The two dimensional projection of the three dimensional ionization pattern caused by the ionizing particle passing through the chamber is captured by an image intensified CCD camera. The work is motivated by the role the radial dose distribution plays in the estimation of the relative biological effectiveness (RBE) of heavy ions, e.g. in radiation therapy and in radiation protection. The most successful model for high-dose irradiation with ions (applicable e.g. for heavy ion therapy) is found to be the local effect model (LEM). The present work intends to deliver measured data for one of the basic physical parameters which serve as input for the application of the local effect model: the radial dose distribution, d(r). The first goal of our measurement program was the measurement of d(r) distributions around carbon ions of different energies from 400 MeV/u down to the Bragg peak regions. We found an excellent agreement between the measured and simulated distributions at all carbon energies for the r–range in which the measurements deliver useful results. The lower limit of this range is about 100 nm and the upper limit is 6000 nm at a resolution of down to 33 nm - if scaled to water density. Despite the simplifications in the TRAX code (e.g. binary encounter theory for the emission ionization electrons), the discrepancies between the simulated and measured d(r) distributions are found to be lower than the measurement uncertainties at most measured carbon ion energies in almost the whole observed r-range. Hence, within the limitations of our measurements we can conclude that the precision of TRAX is sufficient to simulate the d(r) distributions around carbon ions to serve as input parameter for therapy planning. However, this conclusion is only valid for larger radial distances (r >100 nm). For smaller radial distances the measured data are dominated by the diffusion. Apart from carbon ion tracks, tracks of very heavy ions (40Ar, 84Kr and 238U) were also measured with OPAC. The simulated d(r) values were typically slightly or significantly higher than the measured data in the 100 nm < r < 5000 nm region. The experience has shown: the heavier or the faster the ion, the higher the discrepancies. On the one hand, we found a surprisingly good agreement between measurements and simulations if the ions had energies of around 50 MeV/u (i.e. relatively low energy). On the other hand, at higher energies, simulated data underestimate the measured ones by up to a factor of two in the region of 100 nm < r < 1000 nm for 84Kr (E = 650 MeV/u) or in the region of 100 nm < r < 6000 nm for 238U (E = 1 GeV/u). A possible reason for these discrepancies is that the BEA model, used in TRAX for the production ionization electrons, is not adequate for very heavy projectiles. The energy values of the very heavy ions were selected with the aim of comparing the track structures - and namely the d(r) distributions - of ions with largely different atomic mass but similar LET values. From the Z-dependency of the stopping power we know that for heavier ions a higher specific ion energy (expressed in MeV/u) is required to provide the same LET. For example the common LET of 315 keV/micro-m was achieved at largely different specific energy levels of 4,4 MeV/u for 12C, 65 MeV/u for 40Ar and 650 MeV/u for 84Kr ions. The difference in the track structures was expected mainly due to the different ion velocities and thus e.g. different ranges of d-electrons. This expectation could be confirmed by the measurements. The reason why - in line with the simulations - no strong differences could be observed in the d(r) distributions of the argon and krypton ions is the relatively small difference in the velocities of the both ion types in conjunction with the limited range in r, where the data can be compared. In contrary, the d(r) function of the carbon ion shows a qualitatively different behavior than the heavier ions inside the observable radius-range - in agreement with the simulations.
Quantum entanglement plays a basic role in quantum information science. The creation of entanglement between qubits is of fundamental importance for further computation processing like quantum computation, quantum cryptography, quantum teleportation, quantum computers… We present here a symmetric electron-electron scattering experiment to determine the experimental parameters which are necessary to produce a source of entangled electrons. In this Moeller scattering experiment the electrons differ from each other only by their spin direction. At these conditions a spin entanglement of the scattered electrons is expected. To demonstrate the spin entanglement, a single particle resolved spin measurement of the electrons has to be performed. A high ratio of measured coincidences compare to random could be demonstrated. It is shown, that this ratio is related to an experiment depended nearly constant efficiency for the coincidence detection. In order to proof the spin entanglement, the goal is to measure the final polarization state of the electrons at different scattering directions to observe a spin anti correlation between these spin states of the Moeller electrons. The usual method to determine the electron polarization is based on an asymmetric scattering experiment with a high Z target. This scattering may yield an asymmetry due to a different spin-orbit coupling of the electrons. The main problem of polarized electron studies at keV-particle energy is the low efficiency of usual spin polarimeters. This low efficiency impedes or prevents electron spin resolved coincidence measurements because of necessarily induced random coincidences. To enhance the efficiency of the spin detection, a new compact mini-Mott spin analyzer has been developed. Due to a compact small size of this analyzer, a higher efficiency is obtained now, which is a prerequisite to the electron spin resolved coincidence measurements. Till date, the asymmetry measurement have been performed where one Mott analyzer rotated by an angle around the axis. The reducing asymmetry is in agreement with a prediction of quantum mechanic; however, the large systematic errors of the measurement have been estimated. As a next step for investigation of spin entanglement it is planned to increase the overall efficiency of the experiment by having higher initial energy and minimize error of the measurement by applying new kind of detectors.
The first part of this work addresses the automatic online tuning of transfer lines in particle accelerator facilities. In the second part the focus lies on the automatic construction and optimisation of such transport lines. It can be shown that genetic algorithms can be used very well for optimisation in both cases. Automatic online tuning can be performed very efficiently at accelerators under certain boundary conditions and is particularly well suited for initial beam commissioning with low intensity pilot beams. The construction of transfer lines can also be formulated and solved as an minimisation problem with an adopted parameterisation. Thereby, both the imaging properties of the beam transport and the robustness against error studies can be optimised at the same time.
A strong interest is currently going on in the physics of high intensity and high energy beams: intense proton or deuteron beams are required in various fields of science and industry, including sources of neutrons for research experiments and material processing, nuclear physics experiments, tritium production and nuclear waste transmutation. High current heavy ion beams are envisaged for power production facilities (inertial fusion). Several projects presently under study are based on rf linacs as driver, sometimes followed by accumulation and/or compressor rings [Acc98]. The critical issue for all of them is to be operated in a low loss regime, because of activation problems in the structure. For this reason careful investigations have to be performed in order to understand and control the beam behaviour, aiming at conserving the beam quality, reducing the emittance growth and filamentation and avoiding the formation of halo. The beam current to be accelerated is actually limited by the amount of beam losses, which depends upon the beam halo: in order to reduce induced radioactivity and to allow for hands-on maintenance, normally losses <1 W/m are considered as acceptable [Sto96]. One of the major facilities under study is the European Spallation Source (ESS), a project based on a H- linac accelerating a 107 mA peak current beam (360 ns pulse in the DTL) and on two compressor rings, producing 5 MW average beam power [ESS]. Also the USA are developing a proposal for a Spallation Neutron Source (SNS), providing a short pulse H- beam with average power of 1÷2 MW; a 30 mA linac is required [SNS]. The Accelerator for Production of Tritium (APT), studied at Los Alamos, requires a 100 mA proton beam current (cw) to produce a power of 130÷170 MW [APT]. A similar but smaller accelerator (40 mA, 40 MW beam power) would serve as driver for the Accelerator Driven Transmutation of Waste (ADTW) system [ATW]. The accelerator system for the International Fusion Material Irradiation Facility (IFMIF) will test the behaviour of materials to be used for magnetic fusion (e.g. ITER); it consists of two 125 mA deuteron beams in parallel, to generate a fusion-like neutron spectrum with 10 MW cw [IFM]. In the field of heavy ions, for about 20 years scientists have been working on inertial confinement fusion, as an alternative to magnetic confinement one, to find a practical and cleaner method for producing energy. Nuclear fusion occurs when the nuclei of lighter elements (in a state of matter called "plasma") merge to form heavier elements; the extremely high temperatures and densities needed to get the nuclei to collide in the proper way and release big amounts of energy are obtained in a small "pellet" of fusion fuel, which receives energy from laser or ion beams, implodes and its inertia compresses it hard enough to hold together the plasma until it reaches ignition. Both laser and accelerator facilities have been investigated as drivers, since a demonstration of ignition at low gains is more easily accessible by lasers, whereas the intrinsic properties of accelerators -efficiency and repetition rate- will be essential for a medium-gain power plant. One study for a fusion power system driven by heavy ion beams (HIBALL) was completed in Europe already in 1982 [Bad81]. When the USA declassified essential information on pellet design, "indirect drive" targets have been considered openly, where the pellet is hit by X-rays generated from laser or ion beams rather than directly from the beams. Main progress has been achieved during the latest years in the understanding of pellet dynamics after ignition, i.e. in plasma physics [Sym1][Sym2][Sym3][Bas97][Lut97], imposing also new requirements on the layout of the driver accelerator facilities. In 1994-95 Frankfurt University and several other European laboratories (leaded by GSI) started a new collaboration called HIDIF (Heavy Ion Driven Ignition Facility) in order to simplify the accelerator plant design owing to the new technique of indirectly driven targets and to some technological improvements. First studies were oriented towards the conceptual goal of a facility providing just enough beam energy for the ignition of fusion reactions at very low gain (a "proof of principle") [Hof98]. In a recent phase of the study, it was realized that the proposed concept would make this scheme a more appropriate choice for energy production rather than for ignition; the acronym HIDIF was therefore intended as Heavy Ion Driven Inertial Fusion, and the parameters are going to be modified accordingly [Hof96][Hof97][Hof98]. The scenario presently discussed by this group proposes the formation and acceleration of an intense beam (400 mA) of singly charged heavy ions of three different atomic species, with mass differences of about 10% (the reference one is 209Bi+) in a main rf linac; they are then injected into some storage rings at an energy of 50 MeV/u, bunched in induction linacs and finally transported to a target with different velocities in such a way that the three species merge on the pellet ("telescoping") at 500 TW peak power. In this thesis the main linac of the HIDIF proposal is extensively investigated as an example of a high intensity heavy ion linac. Results are presented from numerical simulations of multi-particle beam dynamics carried out for the first time in this context. After a short presentation of the HIDIF reference scenario (Ignition Facility), including a discussion of the motivations for a high current heavy ion linac, some elements of the theory of beam transport and acceleration are recalled [Con91][Hof82][Kap85] [Lap87][Law88][Mit78][Rei94][Str83]. Then the used simulation programs are described, and a particle dynamics layout of a conventional 200 MHz Alvarez DTL is discussed with respect to low emittance growth at high transmission, including large space-charge effects, taking into account the influence of different kinds of statistical errors and of input mismatch on the beam dynamics. The modifications needed for "telescoping" are investigated with simulations for the nominal mass difference (10%) and for a smaller one (5%); finally the transfer line between DTL and rings is discussed and studied both analytically and by numerical calculations. The large mass number (A= 209) helps to reduce the space-charge effects with respect to protons, therefore the behaviour of the beam is not space-charge dominated. Nevertheless the tune depression values (similar to those of the ESS linac e.g.) indicate that these effects cannot be neglected. For a linac with low duty cycle, as in the case of an ignition facility, the results from particle dynamics calculations can be considered as a reliable guideline for the DTL layout, since they indicate that such a high intensity linac can fulfill the requirements on smooth beam behaviour and low losses.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
For the transport of high-intensity hadron beams in low-energy beam lines of linear accelerators, the compensation of space charge forces by the accumulation of particles of opposite charge is an important effect, reducing the required focusing strength and potentially the emittance growth due to space charge forces. In this thesis, space charge compensation was studied by including the secondary particles in particle-in-cell simulations.
For this purpose, a new electrostatic particle-in-cell code named bender was developed. The software was tested using known self-consistent solutions for an electron plasma confined in an external potential as well as for a KV distributed beam in a periodic focusing lattice. For the simulation of compensation, models for residual gas ionisation by proton and electron impact were implemented.
The compensation process was studied for a 120 keV, 100 mA proton beam transported through a short drift section. Various features in the particle distributions were identified, which can not explained by a uniform reduction in the electric field of the beam. These were tied to the presence of thermal electrons confined within the beam potential. Using the Poisson-Boltzmann equation, their distribution could be reproduced and their influence on the beam for a wider range of parameters studied. However, the observed temperatures show a significant numerical influence. The hypothesis was formed, that stochastical heating present in particle-in-cell simulations is the mechanism leading to the formation of the observed (partial) thermal equilibrium.
For the low-energy beam transport line of the Frankfurt neutron source FRANZ, bender was used to predict the pulse shaping in the novel ExB chopper system. The code was also used for the design and the study of an electron lens for the Integrable Optics Test Accelerator at Fermi National Accelerator Laboratory. Aberrations due to guiding center drifts and the strong electric field of the electron beam as well as the current limits in such a system were investigated.
In the framework of this thesis the intense low energy ion beam transport was investigated. Especially, the beam transport in toroidal magnetic field configurations was discussed, as it may allow the accumulation of high intensive beams in the future. One of the specific tasks is to design an injection system that can be used for the proposed low energy accumulator ring. This thesis regarding beam transport investigations is related to the larger research fields, storage rings used in accelerator physics and non-neutral plasmas. The proposal of building a storage ring with longitudinal guiding magnetic fields was made. Due to natural transversal focussing in magnetic fields it is possible to accumulate very intense charged particle beams, a subject of interest within the physics community. A simulation code (TBT) was written to describe the particle motion in curved segments. Particle in Cell techniques were utilized to simulate a multi particle dynamics. This code allows the user to generate different particle distributions as input parameter. A possibility of reading an external data file was made available so that a measured distribution can be used to compare simulation results with measured ones. A second order cloud in cell method was used to calculate charge density and in turn to solve Poisson’s equation. The circular toroidal coordinate system was used. The drift motion and gyrating motion was proved to be consistent with analytical values. Further simulations were performed to study the self field effects on beam transport. The experiments with single toroidal segments find niche in the work. The experiments were performed to compare the simulation results and gain practical experience. The toroidal segment has similar dimensions (major axis R = 1:3 m, minor axis r = 0:1 m, arc angle 30°) as for a full scale ring design. The main difference lies in the magnetic field strength. The available segments can be operated at room temperature producing 0:6T on axis maximum magnetic field, while for the storage ring design this value is in the range of 5T. The preparatory experiments consisted of building and characterization of the ion source in a first step. Along with the momentum spectrometer and emittance scanner the beam properties were studied. Low mass ion beams He+ and mixed p, H2+, H3+ beams were analyzed. The proton beam consisting of a 48% H+ fraction was extracted regularly and used for further experiments. A moderate beam energy of 10 keV was chosen as operational energy for which 3.08 mA proton beam current was measured. In the second stage, beams were transported through a solenoid and the phase space distribution was measured as a function of the magnetic field for different beam energies. The phase-space as distributions measured in a first stage were simulated backward and then again forward transported through the solenoid. The simulated results were then compared with the measured distribution. The LINTRA transport program was used. The phase-space distribution was further simulated for transport experiments in a toroidal magnetic field. The experiments with a single toroidal segment give basic results necessary to compare the results between transport code (TBT) and measurements. The optical diagnostic provides measurements which can be well compared with the simulated results. A digital camera with a magnetic shield was used to record images in jpeg file format. A subroutine was written to analyze an image file to give the intensity distribution of a given image file. The integrated profile in vertical and horizontal direction was used to calculate the vertical drift and the beam size. The simulated values were in good agreement with the measured ones. The injection system needs most care. The transport program that was used to simulate the beam in the toroid was also used to design the injection system. The injection system with its special field configurations was designed to perform experiments with room temperature segments. The main point to tackle was to smoothly bring the charged particles generated outside the trap into the acceptance of the ring. The designed system consists of two sources, one representing a ring beam and the other one the injection beam. While simulations showed a clear way, how to inject the particle beam via a well positioned solenoid and in combination with a transverse electric field element causing an ExB drift into the main ring acceptance. After construction of these injection elements it will be very important to measure the robustness of such a system with respect to the beam stability- especially of the injection channel.
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
In the present work, the Heidelberg electron beam ion trap (EBIT) at the Max-Planck-Institute für Kernphysik (MPIK) has been used to produce, trap highly charged argon ions and study their magnetic dipole (M1) forbidden transitions. These transitions are of relativistic origin and, hence, provide unique possibilities to perform precise studies of relativistic effects in many electron systems. In this way, the transitions energies of the 1s22s22p for the 2P3/2 - 2P1/2 transition in Ar13+ and the 1s22s2p for the 3P1 - 3P2 transition in Ar14+, for 36Ar and 40Ar isotopes were compared. The observed isotopic effect has confirmed the relativistic nuclear recoil effect corrections due to the finite nuclear mass in a recent calculation made by Tupitsyn [TSC03], in which major inconsistencies of earlier theoretical methods have been corrected for the first time. The finite mass, or recoil effect, composed of the normal mass shift (NMS), and the specific mass shift (SMS) were corrected for relativistic contributions, RNMS and RSMS. The present experimental results have shown that the recoil effects on the Breit level are indeed very important, as well as the effects of the correlated relativistic dynamics in a many electron ion.
Quarkonia are very promising probes to study the quark-gluon plasma. The essential baseline for measurements in heavy-ion collisions is high-precision data from proton-proton interactions. However, the basic mechanisms of quarkonium hadroproduction are still being debated. The most common models, the Color-Singlet Model, the non-relativistic QCD approach and the Color-Evaporation Model, are able to describe most of the available cross-section data, despite of their conceptual differences. New measures, such as the polarization, and data at a new energy regime are crucial to test the competing models. Another issue is an eventual interplay between the production process of a quarkonium state and the surrounding pp event. Current Monte Carlo event generators treat the hard scattering independently from the rest of the so-called underlying event. The investigation of possible correlations with the pp event might be very valuable for a detailed understanding of the production processes. ALICE ist the dedicated heavy-ion experiment at the LHC. Its design has been optimized for high-precision measurements in very high track densities and down to low transverse momenta. ALICE is composed of various different detectors at forward and at central rapidities. The most important detectors for this study are the Inner Tracking System and the Time Projection Chamber, allowing to reconstruct and identify electron candidate tracks within eta < 0.9. The Transition Radiation Detector has not been utilized at this stage of the analysis; however, it will strongly improve the particle identification and provide a dedicated trigger in the upcoming beam periods. ...
According to the standard model of particle physics, the most fundamental building blocks of the known matter are quarks and leptons, while the interactions between these fundamental objects is mediated through bosons. On one hand the leptons can exist in nature as individual particles, while on the other hand quarks appear always as bound states called hadrons. The knowledge that hadrons are built from more fundamental particles dates back to the second half of the 20th century when the work by Gell-Mann and Zweig led to the development of the quark model. The experimental proof that the hadrons are bound objects composed of more elementary particles was done through the study of deep inelastic scattering of electrons off protons. These experiments were done in a similar fashion to the studies of the atomic model led by Rutherford at the beginning of the 20th century. Further experimental analysis led to the conclusion that a large fraction of the proton momentum is not carried alone by the quarks, but by the bosons that mediate the strong interaction called gluons. The cleanest experimental signature for the existence of the gluons came from electron-positron annihilation experiments, where a quark-antiquark pair is created and one of the quarks radiates a hard gluon. Due to confinement neither the quarks nor the gluon can be observed directly, but are measured experimentally as three collimated showers of particles named jets. Since the ground breaking experiments performed at DESY, jets have provided a tool to study the properties of quarks and gluons...
Jet physics in ALICE
(2005)
This work aims at the performance of the ALICE detector for the measurement of high-energy jets at mid-pseudo-rapidity in ultra-relativistic nucleus-nucleus collisions at LHC and their potential for the characterization of the partonic matter created in these collisions. In our approach, jets at high energy with E_{T}>50 GeV are reconstructed with a cone jet finder, as typically done for jet measurements in hadronic collisions. Within the ALICE framework we study its capabilities of measuring high-energy jets and quantify obtainable rates and the quality of reconstruction, both, in proton-proton and in lead-lead collisions at LHC conditions. In particular, we address whether modification of the jet fragmentation in the charged-particle sector can be detected within the high particle-multiplicity environment of the central lead-lead collisions. We comparatively treat these topics in view of an EMCAL proposed to complete the central ALICE tracking detectors. The main activities concerning the thesis are the following: a) Determination of the potential for exclusive jet measurements in ALICE. b) Determination of jet rates that can be acquired with the ALICE setup. c) Development of a parton-energy loss model. d) Simulation and study of the energy-loss effect on jet properties.
This thesis investigates the jet-medium interactions in a Quark-Gluon Plasma using a hydrodynamical model. Such a Quark-Gluon Plasma represents a very early stage of our universe and is assumed to be created in heavy-ion collisions. Its properties are subject of current research. Since the comparison of measured data to model calculations suggests that the Quark-Gluon Plasma behaves like a nearly perfect liquid, the medium created in a heavy-ion collision can be described applying hydrodynamical simulations. One of the crucial questions in this context is if highly energetic particles (so-called jets), which are produced at the beginning of the collision and traverse the formed medium, may lead to the creation of a Mach cone. Such a Mach cone is always expected to develop if a jet moves with a velocity larger than the speed of sound relative to the medium. In that case, the measured angular particle distributions are supposed to exhibit a characteristic structure allowing for direct conclusions about the Equation of State and in particular about the speed of sound of the medium. Several different scenarios of jet energy loss are examined (the exact form of which is not known from first principles) and different mechanisms of energy and momentum loss are analyzed, ranging from weak interactions (based on calculations from perturbative Quantum Chromodynamics, pQCD) to strong interactions (formulated using the Anti-de-Sitter/Conformal Field Theory Correspondence, AdS/CFT). Though they result in different angular particle correlations which could in principle allow to distinguish the underlying processes (if it becomes possible to analyze single-jet events), it is shown that the characteristic structure observed in experimental data can be obtained due to the different contributions of several possible jet trajectories through an expanding medium. Such a structure cannot directly be connected to the Equation of State. In this context, the impact of a strong flow created behind the jet is examined which is common to almost all jet deposition scenarios. Besides that, the transport equations for dissipative hydrodynamics are discussed which are fundamental for any numerical computation of viscous effects in a Quark-Gluon Plasma.
Kaon and pion production in centrality selected minimum bias Pb+Pb collisions at 40 and 158A GeV
(2009)
Results on charged kaon and negatively charged pion production and spectra for centrality selected Pb+Pb mininimum bias events at 40 and 158A GeV have been presented in this thesis. All analysis are based on data taken by the NA49 experiment at the accelerator Super Proton Synchrotron (SPS) at the European Organization for Nuclear Research (CERN) in Geneva, Switzerland. The kaon results are based on an analysis of the mean energy loss <dE/dx> of the charged particles traversing the detector gas of the time projection chambers (TPCs). The pion results are from an analysis of all negatively charged particles h- corrected for contributions from particle decays and secondary interactions. For the dE/dx analysis of charged kaons, main TPC tracks with a total momentum between 4 and 50 GeV have been analyzed in logarithmic momentum log(p) and transverse momentum pt bins. The resulting dE/dx spectra have been fitted by the sum of 5 Gaussians, one for each main particle type (electrons, pions, kaons, protons, deuterons). The amplitude of the Gaussian used for the kaon part of the spectra has been corrected for efficiency and acceptance and the binning has been transformed to rapidity y and transverse momentum pt bins. The multiplicity dN/dy of the single rapidity bins has been derived by summing the measured range of the transverse momentum spectra and an extrapolation to full coverage with a single exponential function fitted to the measured range. The results have been combined with the mid-rapidity measurements from the time-of-flight detectors and a double Gaussian fit to the dN/dy spectra has been used for extrapolation to rapidity outside of the acceptance of the dE/dx analysis. For the h- analysis of negatively charged pions, all negatively charged tracks have been analyzed. The background from secondary reactions, particle decays, and gamma-conversions has been corrected with the VENUS event generator. The results were also corrected for efficiency and acceptance and the pt spectra were analyzed and extrapolated where necessary to derive the mean yield per rapidity bin dN/dy. The mean multiplicity <pi-> has been derived by summing up the measured dN/dy and extrapolating the rapidity spectrum with a double Gaussian fit to 4pi coverage. The results have been discussed in detail and compared to various model calculations. Microscopical models like URQMD and HSD do not describe the full complexity of Pb+Pb collisions. Especially the production of the positively charged kaons, which carry the major part of strange quarks, cannot be consistently reproduced by the model calculations. Centrality selected minimum bias Pb+Pb collisions can be described as a mixture of a high-density region of multiply colliding nucleons (core) and practically independent nucleon-nucleon collisions (corona). This leads to a smooth evolution from peripheral to central collisions. A more detailed approach derives the ensemble volume from a percolation of elementary clusters. In the percolation model all clusters are formed from coalescing strings that are assumed to decay statistically with the volume dependence of canonical strangeness suppression. The percolation model describes the measured data for top SPS and RHIC energies. At 40A GeV, the system size dependence of the relative strangeness production starts to evolve from the saturation seen at higher energies from peripheral events onwards towards a linear dependence at SIS and AGS. This change of the dependence on system size occurs in the energy region of the observed maximum of the K+ to pi ratio for central Pb+Pb collisions. Future measurements with heavy ion beam energies around this maximum at RHIC and FAIR as well as the upgraded NA49 successor experiment NA61 will further improve our understanding of quark matter and its reflection in modern heavy ion physics and theories.
Nachdem 1953 von Bates und Griffing [BAT53] der Beitrag der Elektron-Elektron Wechselwirkung neben der Kern-Elektron Wechselwirkung bei der Projektilionisation im Ion-Atom Stoß postuliert und im Rahmen einer 1. Bornschen Näherung beschrieben wurde, gelang in dieser Arbeit zum ersten Mal die ereignisweise Trennung beider Beiträge im Stoß von 3.6 MeV/u C 2 mit Helium durch ein kinematisch vollständiges Experiment, indem die Impulsvektoren des Projektilelektrons ~ p epro , des Targetelektrons ~p etar sowie des ionisierten Targets ~ p R koinzident zum ionisierten Projektil vermessen wurden. Wie sich überraschenderweise herausstellte kann einfach durch Vergleich der Absolutbeträge der Impulsvektoren des Targetelektrons und des Targetkerns für jeden einzelnen Stoß bestimmt werden, ob das Targetelektron "passiv" war und nur das Potenzial des Targetkerns abschirmte ((n-e) Wechselwirkung) oder ob das Targetelektron "aktiv" war und das Projektilelektron in einem Elektron-Elektron Stoß ionisierte ((e-e) Wechselwirkung). Im zweiten Fall bleibt der Targetkern passiv, kompensiert aber ebenfalls ereignisweise das Comptonprofil des ionisierenden Targetelektrons. Der Summenvektor ~q = ~p R ~p etar repräsentiert daher bei der (e-e) Wechselwirkung den korrekten Impuls übertrag des quasifreien Elektron. Die kinematisch vollständige Information über alle beteiligten Stoffteilchen erlaubt es, neben einem detaillierten Einblick in die korrelierte Vier-Teilchendynamik, den gesamten Datensatz nach (n-e) bzw. (e-e) Ereignissen zu sortieren. Die (e-e) Ergebnisse können des weiteren in das Projektilsystem transformiert und dort im Sinne einer Elektronenstoß-Ionisation durch das quasifreie Targetelektron, welches nun Projektil ist, interpretiert werden. Wegen des großen Raumwinkels von Omega = 2pi bis 4 pi für alle Reaktionsfragmente wird im Gegensatz zu klassischen (e,2e) Experimenten weder der Impulsübertrag q noch die Energie Eb des ionisierten Elektrons während der Messung festgehalten. D.h. die Ergebnisse sind im Rahmen der jeweiligen Akzeptanz über alle Impulsüberträge sowie über alle möglichen Energien und Emissionswinkel des ionisierten Elektrons integriert. Prinzipiell können jedoch Impulsübertrag, sowie Elektronenenergie beliebig vorgewählt werden, indem bei der Analyse der Daten entsprechende Fenster gesetzt werden. Die im experimentellen Datensatz enthaltene, vollständige Information erlaubt die Projektion in jeden beliebigen Unterraum. Bei hinreichender Statistik könnten sowohl der dreifach-, als auch jegliche nieder-differentielle Wirkungsquerschnitte aus dem Datensatz extrahiert werden. Aufgrund mangelnder Statistik in dieser ersten Messung stehen jedoch bei zu engen Projektionsfenstern zu wenige Ereignisse zur Verfügung, um signifikante Aussagen treffen zu können. Innerhalb von 12 Stunden effektiver Messzeit konnten 20.000 (e- e) Ereignisse detektiert werden. Realistische Prognosen unterstützen die Annahme, dass während einer weiteren Strahlzeit innerhalb einer Woche 250.000 Ereignisse gemessen werden könnten. Dadurch würde die Einteilung der Daten in kleine Untermengen des Impulsübertrages, vom optischen Limit bis hin zu extrem binären Stößen, bei Elektronenenergien des ionisierten Elektrons von einigen meV an der Kontinuumsschwelle bis hin zu 100 eV Kontinuumsenergie sowohl in koplanarer als auch nicht-koplanarer Geometrie ermöglicht. Ein weitaus asymmetrischeres Stoßsystem ist jedoch für zukünftige Experimente wünschenswert und geplant. Dies bedeutet entweder ein leichteres Target, oder ein schwereres Projektil. Auch angeregte Targetatomen mit Elektronen in hohen (Rydberg-) Zuständen wären denkbar. Die Näherung des Targetelektrons als quasi-freies Elektron wird besser, je kleiner seine Bindungsenergie gegenüber der Bindungsenergie des zu ionisierenden Elektrons ist: Zwar kann das Comptonprofil des quasifreien Elektrons ereignisweise korrigiert werden, es muss aber immer auch ein minimaler Impulsübertrag zur Ionisation des Targets aufgebracht werden. Dieser Unterschied zum (e,2e) mit einem freien Elektron wird jedoch erst vernachlässigbar, wenn die Bindungsenergie des Targetelektrons sehr klein ist gegenüber der des Projektilelektrons, d.h., wenn der Anteil der Targetionisation am Impulsübertrag vernachlässigbar klein ist. (Im hier vorliegenden Fall war das Kohlenstoffelektron jedoch nur ca. doppelt so fest gebunden wie das Heliumelektron.) Weiterhin ist anzunehmen, dass mit kleinerem Z eff des Targets und mit größerem mittleren Radius des Targetelektrons die (n-e) Wechselwirkung an Bedeutung verliert, da die (e-e) Wechselwirkung bei vergleichsweise größeren Stoßparametern stattfindet und der Wirkungsquerschnitt für (n-e) Prozesse mit Z eff skaliert. Diese Überlegungen werden durch Ctmc-Ergebnisse von Olson et al. unterstützt. In Abb. 7.1 werden daher Rechnungen für das Stoßsystem 3.6 MeV/u C 2 auf angeregtes Wasserstoff mit einem Elektron in der n=2 Schale abgebildet. Der Anteil der (n-e) Wechselwirkung ist so klein, dass eine Sortierung der Daten nicht mehr nötig ist: Die Projektilionisation wird nun von der (e-e) Wechselwirkung beherrscht. Im Besonderen sind die im vorangegangenen Kapitel diskutierten Einflüsse der Drei- bzw. Vier-Teilchendynamik offensichtlich bei diesem Stoßsystem gänzlich vernachlässigbar. Die Reduzierung des H-Kerns als "Zuschauer" und somit auch die Reduzierung des Stoßes auf eine (in 1. Ordnung) 2-Teilchen Wechselwirkung zwischen Targetelektron und Projektil scheint nahezu uneingeschränkt gerechtfertigt. In Zukunft werden am Esr der Gsi (weitaus) asymmetrischere Stoßsysteme, wie wasserstoffähnliches Uran auf Helium, zugänglich. Im Esr können derzeit ca. 5 mal 10 hoch 8 Projektile gespeichert, gleichmäßig im Ring verteilt (Gleichstrom-Modus) oder in 1 - 2 "Pakete" von ca. 2 ns Zeitlänge gepackt werden. Die Umlauffrequenz für ein Ionen-Paket oder für ein einzelnes Ion beträgt ca. 2 MHz. Im Gegensatz zu einem Experiment am Strahlrohrende des Unilac passiert ein Projektil, das nicht ionisiert wurde, nach 500ns erneut die Reaktionszone (das Target). Die dadurch erzielte Luminosität erlaubt die Messung von Reaktionen mit vergleichsweise kleinen Wirkungsquerschnitten, welche am Strahlrohrende nicht zugänglich sind. Durch eine elektrische Pulsung des Rückstoßionendetektors in Koinzidenz zur Projektilumladung sowie zum Projektil- und Targetelektron wird man sich in Zukunft von unerwünschten Rückstoßionen aus der reinen Targetionisation befreien können, sodass auch Stoßsysteme, bei denen Targetionisation mehrere Größenordnung wahrscheinlicher ist als die simultane Ionisation von Projektil und Target, zugänglich werden. Die Detektion des hochenergetischen Projektilelektrons wird am Esr jedoch nicht mehr - wie in dieser Arbeit beschrieben - auf dem gleichen Detektor wie das niederenergetische Targetelektron erfolgen können, da diese Geometrie nur eine Akzeptanz für das Projektilelektron bis v p ungefähr gleich 15 a.u. hat und die Impulsauflösung prinzipiell (systematisch) beschränkt ist. In Abhängigkeit vom Stoßsystem kann das Projektilelektron (mit Projektilgeschwindigkeit) am Esr Energien von einigen 100 keV haben. Daher wird in Zukunft die Detektion des Projektilelektrons durch ein 0 0 -Magnetspektrometer in Strahlrichtung hinter dem Reaktions-Mikroskop erfolgen. Da die beiden getrennten Nachweissysteme (Reaktions-Mikroskop, 0 0 -Spektrometer) dann auf die zu detektierende Elektronenenergie optimiert werden können, wird die Impulsauflösung beider Elektronen erheblich verbessert werden. Ein neues Reaktions-Mikroskop, welchen im Rahmen dieser Arbeit geplant und konstruiert wurde, sowie das 0 0 -Magnetspektrometer sind im Aufbau befindlich, und Teile sind bereits im Esr implementiert. Abb. 7.2 zeigt eine technische Zeichnung des Aufbaus. Zu erkennen ist das interne Gasjet-Target des Esr. Der Ionenstrahl durchkreuzt die Kammer von rechts nach links. Das benötigte homogene Magnetfeld zur Führung der Targetelektronen wird durch ein 2m Helmholtz-Spulenpaar realisiert. Die Projektilelektronen, welche in einem kleinen kinematischen Kegel um 0 0 mit Projektilgeschwindigkeit emittiert werden, werden nach dem Durchgang durch das Reaktions-Mikroskop im 0 0 -Spektrometer energie- und winkeldispersiv detektiert. Die Inbetriebnahme erfolgt voraussichtlich in 2002. Bis dahin sind weitere Messungen am Unilac der Gsi für dasselbe Stoßsystem, aber auch mit anderen Projektilen (unterschiedlichen Störungen) geplant. Auch Theoretiker wurden auf die Fragestellungen dieser Arbeit aufmerksam und es sind bereits verschiedene quantenmechanische Rechnungen in Vorbereitung, sodass hoffentlich in naher Zukunft mehrfach-differentielle Wirkungsquerschnitte zur Elektronenstoß-Ionisation von Ionen mit quantenmechanischen Rechnungen höherer Ordnungen quantitativ verglichen werden können.
In this work I investigate two different systems - spin systems and charge-density-waves. The same theoretical method is used to investigate both types of system. My investigations are motivated by experimental investigations and the goal is to describe the experimental results theoretically. For this purpose I formulate kinetic equations starting from the microscopical dynamics of the systems.
First of all, a method is formulated to derive the kinetic equations diagrammatically. Within this method an expansion in equal-time connected correlation functions is carried out. The generating functional of connected correlations is employed to derive the method.
The first system to be investigated is a thin stripe of the magnetic insulator yttrium-iron-garnet (YIG). Magnons are pumped parametrically with an external microwave field. The motivation of my theoretical investigations is to explain the experimental observations. In a small parameter range close to the confluence field strength where confluence processes of two parametrically pumped magnons with the same wave vector becomes kinematically possible the efficiency of the pumping is reduced or enhanced depending on the pumping field strength. Because it is expected that that confluence and splitting processes of magnons are essential for the experimental observations I go beyond the kinetic theories that are conventionally applied in the context of parametric excitations in YIG and investigate the influence of cubic vertices on the parametric instability of magnons in YIG.
Furthermore, the influence of phonons is investigated. Usually in the literature these are taken into account as heat bath. Here, I want to explain experiments where an accumulation of magnetoelastic bosons - magnon-phonon-quasi-particles - has been observed. I employ the method of kinetic equations to investigate this phenomenon theoretically. The kinetic theory is able to reproduce the experimental observations and it is shown that the accumulation of magnetoelastic bosons is purely incoherent.
Finally, charge-density waves (CDW) in quasi-one-dimensional materials will be investigated. Charge-density waves emerge from a Peierls-instability and are a prime example for spontaneous symmetry breaking in solids. Again, the motivation for my theoretical investigations are an experiment where the spectrum of amplitude and phase phonon modes has been measured. Starting from the Fröhlich-Hamiltonian I derive kinetic equations and from these kinetic equations the equations of motion for the CDW order parameter can be derived. The frequencies and damping rates of amplitude and phase phonon modes will be derived from the linearized equations of motion. I compare my theory with existing methods. Furthermore, I also investigate the influence of Coulomb interaction.
Im Rahmen der vorliegenden Arbeit wird experimentell ein oszillatorischer Hall-Strom nachgewiesen, der sich in einem impulsiv optisch angeregten Halbleiterühergitter ausbildet, sobald sich dieses in einem statischen magnetischen Feld und einem dazu senkrechten statischen elektrischen Feld befindet. Das Übergitter dient dabei als Modellsystem für ein dreidimensionales Material und ermöglicht die Beobachtung eines unter dem Begriff "kohärenter Hall-Effekt" zusammengefassten Bewegungsverhaltens der Ladungsträger, das durch eine charakteristische Frequenzabhängigkeit des oszillatorischen Hall-Stromes von den äußeren Feldern gekennzeichnet ist. Dabei wird in der vorliegenden Arbeit das spezielle Bewegungsverhalten mit Hilfe eines semiklassischen Modells hergeleitet und diskutiert. Die zentrale Aussage des Modells ist die Existenz zweier scharf voneinander abgegrenzter Bewegungsregimes, (die sich durch eine entgegengesetzte Feldabhängigkeit der Oszillationsfrequenz auszeichnen. Am Übergang zwischen diesen beiden Regimes werden alle Oszillationen aufgrund einer gegen Null gehenden Frequenz unterdriickt. Dabei lässt sich im Gegensatz zum Ortsraum der Übergang zwischen den beiden Bewegungsregimes im k-Raum einfach klarmachen. Er wird durch die Überwindung der Mini-Brillouin-Zonengrenze durch das Ladungsträgerwellenpaket markiert und bestimmt, ob die Bewegungsform Bloch-oszillationsartig oder zyklotronartig ist. Der experimentelle Nachweis des kohärenten Hall-Effektes wird durch die Anwendung einer berührungsfreien optoelektronischen Technik ermöglicht, mit deren Hilfe das emittierte elektrische Feld der kohärenten, transienten Hall-Ströme zeitaufgelöst detektiert werden kann. Da diese Technik die Messung frei propagierender Strahlung im THz-Frequenzbereich gestattet, bezeichnet man die Methode als THiz-Emissionsspektroskopie. Im Gegensatz zum klassischen Hall-Effekt stellt sich der kohärente Hall-Effekt als Manifestation der Wellennatur (der Ladungsträger dar, die sich im Festkörper durch eine periodische Dispersionsrelation äußert,. Erst. die kohärente Präparation eines Ladungsträgerensembles ermöglicht dabei (die Beobachtung der mikroskopischen Vorgänge in Form einer transienten Bewegung, die, bedingt durch ultraschnelle Streuprozesse, auf kurzen Zeitskalen von etwa 1 ps dephasiert. Die Kohärenz wird dem System dabei mittels eines kurzen Laserpulses von etwa 100 fs Dauer aufgeprägt, mit dessen Hilfe die Ladungsträger im Übergitter optisch generiert werden. Diese Vorgehensweise ist mit der experimentellen Untersuchung von Bloch-Oszillationen vergleichbar, die ebenfalls erst durch die kohärente Präparation der Ladungsträger messbar werden. Die inkohärente Bewegung der Ladungsträger in einem Kristall unter dem Einfluss eines konstanten elektrischen Feldes wird bekanntermaßen durch das Ohmsche Gesetz beschrieben analog etwa der Beschreibung der IIall-Spannung beim klassischen Hall-Effekt.. Im Rahmen der vorliegenden Arbeit gelingt der erste Nachweis des beschriebenen kohärenten Effektes und damit, der Beleg, dass es auch in dreidimensionalen Halbleitern, hier repräsentiert durch ein Übergitter, möglich ist, kohärente Signaturen des Hall-Effektes zu beobachteten. Im Gegensatz zu speziellen zweidimensionalen Strukturen, wie sie beim integralen und fraktionalen Quanten-Hall-Effekt verwendet werden, ist dies hier aufgrund des größeren Zustandsraumes und der dadurch bedeutenderen Dephasierungsprozesse nur auf sehr kurzen Zeitskalen realisierbar.
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
Ziel dieser Arbeit war die Entwicklung eines Mess-Systems zur energie- und winkelaufgelösten Spektroskopie von koinzidenten Elektronenpaaren, die in Reaktionen an einer Oberfläche emittiert wurden. Das Hauptinteresse galt hierbei dem Zwei-Elektronen-Photoemissionsprozess an Oberflächen. Das Prinzip des Spektrometers stellt eine Erweiterung der existierenden COLTRIMS-Spektrometer (COld Target Recoil Ion Momentum Spectroscopy) für Gasphasen-Experimente auf den Themenkreis der Oberflächenphysik dar. Anders als bei den in der Photoelektronen-Spektroskopie häufig eingesetzten elektrostatischen Analysatoren, wird hier eine Flugzeittechnik verwendet. Die Elektronen, die in der Reaktion erzeugt wurden, werden h ierzu mit einem schwachen homogenen elektrostatischen Feld vom Target abgesaugt und in Richtung eines orts- und zeitauflösenden Detektors beschleunigt. Zusätzlich wird ein homogenes Magnetfeld überlagert, das einen Einschluss der Elektronen bis zu einem maximalen Transversal-Impuls gewährleistet. Durch Messung der Flugzeiten und Auftrefforte auf dem Detektor können - unter Kenntnis d er elektrischen und magnetischen Feldstärken - die Startimpulse der Elektronen rekonstruiert werden. Auf diese Weise konnten Elektronen von 0 eV bis zu 50 eV mit einem Raumwinkel von nahezu 2p gleichzeitig abgebildet werden. Durch diesen sehr großen Aktzeptanzbereich, konnte eine wesentliche Erhöhung der Koinzidenzeffizienz der Anordnung gegenüber anderen Systemen erreicht werden (> 10 hoch 2 - 10 hoch 6 je nach Mess-System). Wesentlich hierfür ist des weiteren die Fähigkeit des Detektors mehrere Treffer mit verschwindender Totzeit zu verarbeiten. Mit dem beschriebenen System wurde die Zwei-Elektronen-Photoemission an Oberflächen untersucht. Die Experimente hierzu wurden im wesentlichen am Hamburger Synchrotron Strahlungslabor (HASYLAB) durchgeführt. Als Target wurde die (111)-Oberfläche eines einkristallines Kupfer-Targets verwendet. Mehrere Messreihen mit Photonenenergien im Bereich h? = 40 eV bis h? = 100 eV wurden aufgezeichnet. Durch die vollständige Vermessung des gesamten Impulsraumes der beiden Elektronen, stellt dies die erste kinematisch vollständige Untersuchung (bis auf die Spin-Freiheitsgrade) der Zwei-Elektronen-Photoemission an Oberflächen dar. Im Anschluss an vorangegangene Experimente [HER98], konnte auch hier in den Zwei-Elektronen-Energieverteilungen (innerhalb der experimentellen Auflösung) als Maximal-Energie des Paares der Wert E1 + E2 = h? - 2W0 festgestellt werden, der auf eine Selbst-Faltung der Bänder für die Zwei-Elektronen-Photoemission hindeutet. Die Form der Spektren wird wesentlich durch das Transmissionsverhalten der Elektronen beim Durchgang durch die Oberfläche bestimmt. Die auftretende energieabhängige Brechung der Trajektorie führt dabei zu einer starken Unterdrückung niederenergetischer Elektronen. In der Betrachtung der Kinematik der Emission konnten deutliche Analogien des Effektes zum analogen Prozess der Doppel-Photoionisation an freien Atomen bzw. Molekülen gefunden werden. Die Bewegung des Schwerpunktsimpulses des Paares ist daher durch die Richtung des Polarisationsvektor des Lichtes bestimmt. Im Gegensatz zur Emission am freien System, tritt hier allerdings - je nach Orientierung des Polarisationsvektors - ein Symmetriebruch auf, da Elektronen entweder auf die Oberfläche zu oder von ihr weg emittiert werden. Ein Bruchteil der in den Festkörper emittierten Intensität kann schließlich wieder am Gitter reflektiert werden und die Oberflächenbarriere noch überwinden. Die Energie- und Winkelverteilungen der Elektronen zeigen, dass, je nach Energieaufteilung des Paares, zwischen den Beiträgen durch einen "shake-off"-Mechanismus und einem "knock-out"-Mechanismus unterschieden werden kann. Auch hierin zeigt sich eine Ähnlichkeit des Zwei-Elektronen-Photoemissionsprozesses an Oberflächen mit der Doppel-Ionisation von Helium-Atomen. Während bei der Doppel-Ionisation von Helium diese Unterscheidung allerdings erst bei höheren Photonenenergien (> 100 eV) möglich ist, kann hier schon bei ca. 60 eV zwischen beiden Prozessen getrennt werden. Der Grund hierfür liegt sehr wahrscheinlich in der Abschirmung der Elektronen im Festkörper begründet, die die direkte Coulomb-Wechselwirkung der Elektronen im Endzustand reduziert. Insbesondere der starke Beitrag des "shake-off"-artigen Prozesses ist ein deutlicher Hinweis darauf, dass die gegenwärtigen theoretischen Modelle zur Beschreibung der Zwei-Elektronen-Photoemission nicht ausreichend sein können, da nur die Wechselwirkung im End-Zustand berücksichtigt wird. Vielmehr ist die Einbeziehung von Grundzustandswellenfunktionen jenseits des Bildes unabhängiger Teilchen nötig.
Die vorliegende Arbeit befasst sich mit der Untersuchung einzelner chiraler Moleküle durch Koinzidenzmessungen. Ein Molekül wird chiral genannt, wenn es in zwei Varianten, sogenannten Enantiomeren auftritt, deren Strukturmodelle Spiegelbilder voneinander sind.
Da viele biologisch relevante Moleküle chiral sind, sind Methoden und Erkenntnisse dieses Gebiets von großer Bedeutung für Biochemie und Pharmazie. Bemerkenswert ist, dass in der Natur meist nur eines der beiden möglichen Enantiomere auftritt. Ob diese Wahl zufällig war, ob sie aufgrund der Anfangsbedingungen bei Entstehung des Lebens erfolgte, oder ob sie eine fundamentale Ursache hat, ist bisher ungeklärt. Seit der Entdeckung chiraler Molekülstrukturen in der zweiten Hälfte des 19. Jahrhunderts ist eine Vielzahl von Methoden entwickelt worden, um die beiden Enantiomere eines Moleküls zu unterscheiden und ihre Eigenschaften zu untersuchen. Aussagen über die mikroskopische Struktur (Absolutkonfiguration) können jedoch meist nur mithilfe theoretischer Modelle getroffen werden.
Der innovative Schritt der vorliegenden Arbeit besteht darin, eine in der Atomphysik entwickelte Technik zur Untersuchung einzelner mikroskopischer Systeme erstmals auf chirale Moleküle anzuwenden: Mit der sogenannten Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) ist es möglich, einzelne Moleküle in der Gasphase mehrfach zu ionisieren und die entstandenen Fragmente (Ionen und Elektronen) zu untersuchen. Die gleichzeitige Detektion dieser Fragmente wird als Koinzidenzmessung bezeichnet.
Zunächst wurde das prototypische chirale Molekül CHBrClF mit einem Femtosekunden-Laserpuls mehrfach ionisiert, sodass alle fünf Atome als einfach geladene Ionen in einer sogenannten Coulomb-Explosion „auseinander fliegen“. Durch Messung der Impulsvektoren dieser Ionen konnte die mikroskopische Konfiguration einzelner Moleküle mit sehr hoher Zuverlässigkeit bestimmt werden. Somit eignet sich die Koinzidenzmethode auch dazu, die Anteile der rechts- bzw. linkshändigen Enantiomere in einer Probe zu bestimmen. Die Messungen an der verwendeten, racemischen Probe zeigen bei der Ionisation mit linear polarisiertem Licht im Rahmen der statistischen Unsicherheit wie erwartet eine Gleichverteilung der beiden Enantiomere.
In einem nachfolgenden Experiment konnte gezeigt werden, dass sich die Coulomb-Explosion auch mit einzelnen hochenergetischen Photonen aus einer Synchrotronstrahlungsquelle realisieren lässt. Für beide Ionisationsmechanismen – am Laser und am Synchrotron - wurden mehrere Fragmentationskanäle untersucht. Im Hinblick auf die Erweiterung der Methode hin zu komplexeren, biologisch relevanten Molekülen ist es entscheidend zu wissen, inwieweit sich die Händigkeit bestimmen lässt, wenn nicht alle Atome des Moleküls als atomare Ionen detektiert werden. Hierbei stellte sich heraus, dass auch molekulare Ionen zur Bestimmung der Absolutkonfiguration herangezogen werden können. Eine signifikante Steigerung der Effizienz konnte für den Fall demonstriert werden, dass nicht alle Fragmente aus der Coulomb-Explosion des Moleküls detektiert wurden – hier lassen sich allerdings nur noch statistische Aussagen über die Absolutkonfiguration und die Häufigkeit der beiden Enantiomere treffen.
Um die Grenzen der Methode in Bezug auf die Massenauflösung zu testen, wurden isotopenchirale Moleküle, d.h. Moleküle, die nur aufgrund zwei verschiedener Isotope chiral sind, untersucht. Auch hier ist eine Trennung der Enantiomere möglich, wenn auch mit gewissen Einschränkungen.
Ein wichtiges Merkmal chiraler Moleküle ist das unterschiedliche Verhalten der Enantiomere bei Wechselwirkung mit zirkular polarisierter Strahlung. Diese Asymmetrie wird Zirkulardichroismus genannt. Die koinzidente Untersuchung von Ionen und Elektronen aus der Fragmentation eines Moleküls eröffnet neue Möglichkeiten für die Untersuchung des Dichroismus. So können die Impulsvektoren der Ionen mit bekannten Asymmetrien in der Elektronenverteilung (Photoelektron-Zirkulardichroismus) verknüpft werden, was zu einem besseren Verständnis der Wechselwirkung elektromagnetischer Strahlung mit chiralen Molekülen führen kann.
In dieser Arbeit wurde nach Asymmetrien in der Winkelverteilung sowohl der Ionen als auch der Elektronen nach der Ionisation von CHBrClF und Propylenoxid (C3H6O) mit zirkular polarisierter Synchrotronstrahlung gesucht. In den durchgeführten Messungen konnte kein zweifelsfreier Nachweis für einen Dichroismus bei den verwendeten experimentellen Bedingungen erbracht werden. Technische und prinzipielle Limitierungen der Methode wurden diskutiert und Verbesserungsvorschläge für zukünftige Messungen genannt.
Mit der erfolgreichen Bestimmung der Absolutkonfiguration und der prinzipiellen Möglichkeit, Asymmetrien in zuvor nicht zugänglichen Messgrößen zu untersuchen, legt diese Arbeit den Grundstein für die Anwendung der Koinzidenzspektroskopie auf Fragestellungen der Stereochemie.
Für Experimente der Atomphysikgruppe der GSI in Darmstadt wird ein Ionenabbremser gebaut, der niederenergetische, extrem hochgeladene Ionen zur Verfügung stellen wird. Die Planungen zu der soganennten HITRAP (highly charged ion's trap) begannen Anfang der neunziger Jahre. Mit dieser Anlage sollen hochgeladene, schwere Ionen auf sehr niedrige, thermische Geschwindigkeiten in zwei Stufen abgebremst und für hochpräzise Massenspektroskopie, Messungen des g-Faktors des gebundenen Elektrons wasserstoffähnlicher Ionen und andere atomphysikalische Experimente zur Verfügung stehen. Diese Deceleratoranlage soll zunächst im Reinjektionskanal hinter dem ESR aufgebaut werden, mit der Möglichkeit, alle Komponenten später beim Ausbau der GSI im Rahmen des FAIR-Projektes in der neu zu errichtenden Anlage für niederenergetische Antiprotonen und Ionen zu verwenden. Die vorliegende Arbeit behandelt die Entwicklung und den Aufbau eines integrierten RFQ-Debuncher-Abbremsbeschleunigers, der einen Teil der HITRAP-Abbremsstrukturen darstellt. Mit diesem wird der Ionenstrahl, vom IH-Abbremsbeschleuniger mit einer Energie von 5oo keV/u kommend auf 6 keV/u abgebremst. Mit dem integrierten Spiralbuncher kann der Strahl in Energie und Energieabweichung an die nachfolgende Kühlerfalle angepasst werden. Es wurden in dieser Arbeit die Grundlagen der Teilchendynamik in einem RFQ-Beschleuniger zum Abbremsen von Teilchenstrahlen erarbeitet und umgesetzt, die zur Auslegung einer solchen Struktur notwendigen Teilchendynamikrechnungen mit RFQSim durchgeführt, geeignete Hf-Strukturen mit dem Simulationsprogramm Microwave Studio entwickelt und untersucht, sowie die thermische Belastung der Strukturen mit dem finite Elementeprogramm ALGOR untersucht. Ein weiterer zentraler Punkt dieser Arbeit ist der Aufbau und die Hf-Abstimmung der RFQ-Struktur, um eine möglichst homogene Feldverteilung entlang der Elektroden zu erreichen. Messungen der Felder im RFQ wurden mit einem Störkondensator, am Debuncher mit einem Störkörper durchgeführt. Nach erfolgreich durchgeführten Vakuumtests am IAP ist die RFQ-Debuncher-Kombination nun bereit für erste Hochleistungstests an der GSI.
In der Betrachtung dieser Arbeit werden hauptsächlich die vier Geistesgestalten der ersten Hälfte des 18. Jahrhunderts, nämlich G. W. LEIBNIZ, JOHANN BERNOULLI (I), DANIEL BERNOULLI, und LEONHARD EULER in ihrem Verhältnis zur Gravitation bzw. zu NEW TONS Gravitationstheorie gewürdigt. Die herangezogenen Arbeiten wurden von mir aus dem Lateinischen bzw. dem Französischen übersetzt. Es wird dargestellt, daß sowohl LEIBNIZ als auch JOHANN BERNOULLI Darstellungen gegeben haben, die beanspruchen, die gesamte Himmelsmechanik zu erklären. DANIEL BERNOULLI wird hauptsächlich in bezug auf seine Konkurrenz mit dem Vater in seiner Preisschrift betrachtet, und EULER liefert neben einer fulminanten Kritik an der fehlenden Ursachenerklärung NEWTONS eine Version von Gravitationserklärung, von der er später wieder Abstand nehmen mußte. Allen kontinentalen Gelehrten ist gemeinsam, daß sie auf einer nahwirkenden Ursache als Erklärung der Gravitation bestehen und sich damit deutlich von ISAAC NEWTON absetzen. Fast gemeinsam allerdings ist ihnen auch die Achtung vor NEWTON, insbesondere dadurch, daß sie (bis auf LEIBNIZ) dessen Ergebnisse aus den principia durchaus verwenden. Sie sind nur mit dessen ''Fernwirkungstheorie" nicht einverstanden. LEIBNIZ hebt sich insofernhin ab, als er in seiner Arbeit sich nicht mit der NEWTONS aus einandersetzt, sondern sein eigenes Konzept verfolgt. Er kannte NEWTONS Arbeit nicht und publizierte seine Version ziemlich bald nach Erscheinen der principia. Dabei benutzt er seine neu entwickelte Analysis und leitet aus Prämissen, die er angibt, die Eigenschaften der Plane tenbewegung ab. Zur Erklärung der Schwere dient ihm ein schon von HUYGENS angegebe nes Modell der Schwereerzeugung durch Rückstoß und Verdrängung im Wirbel. Die Plane tenbewegung wird dann bei ihm durch Zentrifugalbewegung und ''parazentrische" Rückstoßbewegung in radialer Richtung und durch ''harmonische" Kreisbewegung in tangentialer Richtung infinitesimal zusammengesetzt. JOHANN BERNOULLI erfindet eine eigene ''Himmelsphysik", indem er nach eigener Äuße rung das Beste aus beiden System, dem von DESCARTES und dem NEWTONS, zusammen führt. Bei ihm wird alles aus Stößen und nach den Stoßgesetzen erklärt. Die gesamte Spekulation verwendet subtile Materie des ersten Elementes, die durch eine Art Siedevorgang aus dem Zentralgestirn (jeweils) austritt, durch Stöße und Anlagerungen im Laufe der Zeit zur Materie des zweiten Elementes verdichtet wird und schließlich als ''Zentralstrom" zurückgestoßen, auf jeden Himmelskörper einwirkend, für alle Phänomene verantwortlich gemacht wird. Seine Spekulationen sind großartig formuliert und aus Alltagsbildern wie Sieden, Destillationen, Weihrauch Wahrnehmung, Lichtausbreitung, Schneelawinen, Flammruß Erscheinungen und ähnlichem entnommen. Seine von der Pariser Akademie preisgekrönte Arbeit teilte sich den Preis mit der Arbeit sei nes Sohnes DANIEL BERNOULLI, der sich aber darauf beschränkt, die spezielle Fragestel lung der Preisaufgabe zu bearbeiten und dabei nur erkennen läßt, was er von den Ursachen der anderen Himmelserscheinungen denkt. Während sein Vater sich als strenger CARTESI ANER gibt und die Preisaufgabe nur dadurch bewältigen kann, daß er sich den Erdglobus als langgestrecktes Ellipsoid, im tragenden Medium schwimmend, vorstellt, benutzt Daniel die Vorstellung einer sich überall erstreckenden Sonnenatmosphäre, um deren Einwirkung für seine Lösung nutzbar zu machen. Aus seinen Bemerkungen über NEWTON und über Wirbel theorien schimmert schon durch, daß er sich als Anhänger NEWTONS eher verstehen kann, denn als Anhänger der Wirbeltheorien. Bei LEONHARD EULER handelt es sich vermutlich um den Menschen, der die Physik, ins besondere die Mechanik, im 19. Jahrhundert am meisten beeinflußt hat. Zwei Schriften von ihm werden betrachtet, von denen die erste anonym erschien und erst 1996 ihrem Verfasser sicher zugeordnet werden konnte. Nach meiner Übersetzung hier und dem Vergleich mit einer posthumen Arbeit, ''Handreichungen zur Naturlehre", kann diese jetzt sicher datiert werden als zu Beginn der vierziger Jahre des 18. Jahrhunderts entstanden. Die anonyme Arbeit, ''De causa gravitatis" enthält in komprimierter Form eine fundamentale Kritik der Fernwirkungs theorie NEWTONS mit zum Teil sehr plastischen Beispielen der Ablehnung dieser Theorie. Daran anschließend wird der Aetherdruck, der in der Nähe der Planetenoberfläche geringer als weiter draußen sei, als Ursache der Gravitation vorgestellt. Es wird sogar eine Formel für die Druckverteilung angegeben. In der zweiten betrachteten Arbeit EULERS zeigt sich, daß LEONHARD EULER von der Erklärung der Ursache der Schwere Abstand nimmt. Allerdings beharrt er darauf, daß eine solche, mechanische Ursache existieren müsse und sie vermutlich im Aether zu suchen sei. Solche Vorsicht erschien ihm angeraten, nachdem LE SAGE ihm gezeigt hatte, daß der Aether als Erklärung für alle Phänomene der Optik, des Elektromagnetismus und der Mecha nik nicht herangezogen werden konnte. So kam es denn dazu, daß man NEWTONS Gesetze zum Rechnen gerne benutzte, seine Wei gerung, Gravitation als Masseeigenschaft zu definieren, einfach nicht mehr zur Kenntnis nahm und LEONHARD EULER folgte, der wohl der erste war, der aus der Definition NEW TONS, Kraft sei die Änderung der ''quantitas motus", die Formulierung Kraft sei gleich Mas se mal Beschleunigung machte. Es brauchte auf dem Kontinent fast ein ganzes Jahrhundert seit NEWTONS Arbeit, bevor, auf diese Art abgeändert, NEWTON als Säule der neuen Wis senschaft ''Physik" installiert war. Es wird mit dieser Arbeit gezeigt, daß die Modellbildung, die Vermittlung einer Vorstellung, auch für die ausgewiesene Elite der Wissenschaft einen hohen Stellenwert hatte. Das Funktionieren eines mathematischen Modells ist zwar wichtig und als Mittel der Arbeit unabdingbar, aber erst ein befriedigendes, vorstellbares, und damit mechanisches, Modell sichert ein Phä nomen als ''verstanden" ab. Unsere Probleme heute mögen zwar andere sein, in dieser Hin sicht aber hat sich die Wissenschaft auch heute noch nicht gewandelt und wird sich auch nicht wandeln. Es bleibt also bei der Frage: ''Was ist ein befriedigendes Modell?"
Ziel der vorliegenden Arbeit war die Optimierung der Kristallzüchtung von eisenbasierten Supraleitern. Im ersten Teil lag der Fokus dabei auf der Züchtung der 1111-Verbindung unter Hochdruck/Hochtemperaturbedingungen (HD/HT), sowie der systematischen Untersuchung verschiedener Einflüsse der Züchtung dieser Familie unter Normaldruckbedingungen.
Die HD/HT-Experimente führten unter den gewählten Parametern, sowohl unter der Verwendung eines Flussmittels als auch ohne, nicht zur Stabilisierung der gewünschten Zielphase. Stattdessen kam es zur Phasenseparation So bildete sich immer im Inneren des verwendeten BN-Tiegels ein, häufig kugelförmig ausgeformtes, Gebilde, bestehend aus einer Fe-As-Phase. Dies gilt sowohl für NdFeAsO als auch LaFeAsO1-xFx. Bei der Verwendung von Salz als Flussmittel kam es neben dieser Fe-As-Phase auch häufig zur Bildung einer Cl-haltigen Phase. Auch zeigte sich, dass es zu einer B-Diffusion während des Versuches kam, sodass Selten-Erd-Oxoborate nachgewiesen werden konnten. Durch einen Versuch unter Normaldruckbedingungen zeigte sich, dass dies kein Problem in der Hochdrucksynthese ist, sondern ein grundlegendes Problem bei der Verwendung von BN mit den Selten-Erden ist.
Nachdem gezeigt wurde, dass eine systematische Untersuchung bzw. Optimierung der Züchtungsparameter der 1111-Verbindungen unter HD/HT-Bedingungen enorm schwierig ist, lag der weitere Fokus auf der Züchtung unter Normaldruckbedingungen. Dazu wurde zu Beginn gezeigt, dass die Verwendung von Quarzampullen bei Temperaturen bis zu 1200 °C nicht zu einer zusätzlichen Sauerstoffdiffusion führen. Dies ermöglichte es ohne zusätzliche Schweißarbeit oder hohen Kosten den Optimierungsprozess für ein geeignetes Temperatur-Zeit-Profil durchzuführen. Das so erhaltene Profil wurde anschließen für alle weiteren Versuche verwendet. Mit dieser Basis wurde daraufhin untersucht, welchen Einfluss die Menge an Flussmittel auf die Stabilisierung der Phase und demnach auf die Kristallzüchtung hat. Dabei zeigte sich, dass ein molares Material-zu-Flussmittel-Verhältnis von 1:7 die besten Resultate liefert. Der nächste Optimierungsschritt, die Frage nach einem geeigneten Sauerstoffspender, in Angriff genommen. Bei dieser Frage wurde sich auf einen Sauerstoffspender aus der Gruppe der Eisenoxide konzentriert. Es zeigte sich, dass, für das gewählte Temperatur-Zeit-Profil die Verbindung FeO und Fe3O4 die besten Resultate liefern. In diesen Versuchen ist es gelungen Kristalle zu züchten die Kantenlängen bis zu 800 μm aufweisen. Allerdings zeigten Vergleichsversuche mit einen anderen Temperatur-Zeit-Profil, dass Fe2O3 in diesen Fällen die besten Resultate liefern. Dies macht deutlich, dass es bisher keine vollständige Kontrolle in der Züchtung der 1111-Verbindung gibt. Die Veränderung eines Züchtungsparameters bedeutet, dass auch alle anderen Parameter erneut geprüft werden müssen. Somit zeigte sich, dass eine fundierte und systematische Untersuchung der Züchtungsparameter notwendig ist.
Nachdem die grundlegenden Fragen für die undotierte Verbindung NdFeAsO beantwortet wurden, wurde untersucht, welche Sauerstoff-Fluorspenderkombination bei gegebenem Temperatur-Zeit-Profil optimal für den Kristallwachstum und den Fluoreinbau ist. Die erhaltenen Resultate belegten, dass in diesem Fall Fe3O4 und FeF2 zu den besten Resultaten führte. Die so gezüchteten Kristalle wiesen Kantenlängen bis zu 800 μm auf und Messungen des elektrischen Widerstandes zeigten einen maximalen Tc ≈ 53 K mit einen RRR-Wert im magnetischem Bereich von über 10. Damit unterscheiden sich die gezüchtete Kristalle hinsichtlich ihrer Qualität um den Faktor ~3 von den bisherigen Einkristallen bekannt aus der Literatur.
Durch die Ermittlung des reellen Fluorgehalts der Proben mittels WDX in Kombination mit elektrischen Widerstandsmessungen wurde ein vorläufiges Phasendiagramm erstellt.
Magnetische Messungen unter Normaldruck und Hochdruckbedingungen ermöglichten es die Anisotropie zwischen der ab- Ebene und der c-Ebene zu messen, sowie das Verhalten des elektrischen Widerstandes in Abhängigkeit vom Druck.
Es zeigte sich dabei, dass ab einem Druck von etwa 22.9 GPa die Supraleitung in diesen Kristallen nicht mehr vorhanden ist, und der Kristall wieder normalleitend ist. Mit weiter steigendem Druck steigen die Absolut-Widerstandswerte ebenfalls wieder an, was auf eine mögliche ferromagnetische Ordnung deutet.
Im zweiten Teil der Arbeit lag der Fokus auf einer Verbindung aus der 122-Familie der Pniktide: SrFe2As2. Zu Beginn wurde untersucht, welches der drei gewählten Tiegelmaterialien BN, Al2O3 oder Glaskohlenstoff, für Züchtungen dieser Phase am geeigneten ist. In allen Versuchen konnte die gewünschte Zielphase stabilisiert werden, jedoch kam es bei der Verwendung von Glaskohlenstoff zu Diffusion von Kohlenstoff aus dem Tiegel in die Probe hinein, sodass C-haltige Phasen nachweisbar waren. Ebenso zeigte sich, dass es auch eine Diffusion vom Material in den Tiegel hinein gegeben hat. Diese Probleme traten auch bei der Verwendung von Al2O3 auf. Durch ein Röntgenpulverdiffrakgtogramm konnte eine Al-haltige Verbindung in der Probe nachgewiesen werden. Ein weiterer Nachteil dieses Materials ist die Benutzung des Tiegels durch die Schmelze. Von den drei Materialien erwies sich BN als am besten geeignetes Tiegelmaterial. Es kommt zu keiner Benetzung oder Diffusion, auch der Fremdphasenanteil ist sehr gering in dieser Probe.
Mit diesem Wissen wurde im weiteren Verlauf ein quasi-binäres Phasendiagramm des Systems SrFe2As2-FeAs erstellt. Die intermetallische Verbindung FeAs fungiert hierbei als Flussmittel. Eine wichtige Frage in diesem Zusammenhand ist die Frage ob das System kongruent erstarrend ist. Diese Frage lässt sich anhand der vorhandenen DTA-kurven nicht eindeutig beantworten, zeigte das System bei Aufheizen keine zusätzlichen Schmelzprozesse, es scheint allerdings, dass es in der Schmelze zu einem Abdampfen von Arsen kommt. Somit verschiebt sich die Zusammensetzung der Schmelze und beim Abkühlen treten zusätzliche Erstarrungsprozesse auf. Die Schmelztemperatur TM wurde so auf T = 1320 °C bestimmt. Mit steigendem Flussmittelanteil verschob sich diese Temperatur zu niedrigeren Temperaturen unter 1200 °C, was eine Züchtung in Quarzampullen wieder möglich macht.
Die Ergebnisse in dieser Arbeit liefern eine fundierte Grundlage für weitere Optimierungen. So ist zum Beispiel der Frage nach dem am besten geeigneten Sauerstoffspender nicht auf die Selten-Erd-Oxide eingegangen worden. Auch ob die Verwendung eines anderen Salzes, wie zum Beispiel den Iodiden für die Züchtung bessere Resultate liefert kann weiterhin untersucht werden.
Nachdem der Schmelzpunkt von SrFe2As2 bestimmt wurde und im quasi-binärem Phasendiagramm ein Eutektikum vorhanden ist, kann mit den weiteren Optimierungsschritten für die Kristallzüchtung dieses Systems begonnen werden. Dazu gehört die Entwicklung eines Temperatur-Zeit-Profils, sowie im nächsten Schritt Züchtungen von dotierten Verbindungen.
Diese Arbeit behandelt die Züchtung von La 1 x Sr x MnO 3 -Einkristallen. Auf- grund des hohen Schmelzpunktes und der Agressivität der Schmelze muss bei der Züchtung aus der Schmelze mit tiegelfreien Verfahren gearbeitet werden. Diese Bedingung wird von beiden in dieser Arbeit eingesetzten Züchtungsver- fahren erfüllt. Mit dem Skullverfahren, das Hochfrequenzheizung mit einem geschlossenen Eigentiegel aus dem zu schmelzenden Material kombiniert, werden mit einer Arbeitsfreuqenz von 100 kHz LaMnO 3 -Einkristalle mit einer Grösse von bis zu 5x5x5 mm 3 gezüchtet. Bei der Züchtung von La 1 x Sr x MnO 3 mit dem Skull- verfahren kommt es jedoch zu einem ungleichmässigen Einbau von Stronti- um. Dies ist auf einen Verteilungskoeffizienten von k eff < 1 für Strontium in La 1 x Sr x MnO 3 zurückzuführen. Für die Kristallzüchtung von La 1 x Sr x MnO 3 mit x > 0 wird ein lasergeheiztes tiegelfreies vertikales Zonenschmelzen eingesetzt. Dazu ist es nötig die Spiegel- optik einer für Materialien mit niedrigeren Schmelztemperaturen bereits ein- gesetzten Anlage für Materialien mit einem Schmelzpunkt von etwa 2200K zu optimieren. Dies wird durch eine Spiegelanordnung erreicht, die das Laserlicht senkrecht und homogen auf die Probe fokussiert. Der fokussierende Spiegel ist auswechselbar, so dass leicht Kristalle aus Materialien mit einem noch höheren Schmelzpunkt gezüchtet werden können. Dies macht die Anlage flexibel ein- setzbar. Mit einem Sinterverfahren gelingt es, die für das Laserzonenschmelzen benötigten geraden und homogenen keramischen Fütterstäbe herzustellen. Die aus diesen Stäben mit dem Laser gezüchteten La 1 x Sr x MnO 3 -Kristalle sind zy- linderförmig mit einem Durchmesser von etwa 2,5 mm und eine Länge von bis zu 35 mm und haben einen konstanten Strontiumgehalt. Mit dem Laserzonenschmelzen wird der Ein uss des Sauerstoffgehaltes der Züchtungsatmosphäre auf die Kristallzüchtung von LaMnO 3 untersucht. Es zeigt sich, dass Kristalle, die in Argonatmosphären mit einem Sauerstoffpar- tialdruck von 10 5 mbar und 10 2 mbar gezüchtet werden, Einschlüsse eines LaMnO 3 -MnO-Eutektikums enthalten. Solche Einschlüsse werden in Kristallen, die in Luft gezüchtet werden, nicht gefunden. Der für die Bestimmung des Mn 4 /Mn 3 -Verhältnisses wichtige Sauerstoffgehalt der Kristalle wird mittels Thermogravimetrie in einer reduzierenden Atmosphäre bestimmt. Der Sauer- stoffgehalt y der in Luft gezüchteten LaMnO y -Kristalle beträgt y=3,00 - 0,03. Die aus der Schmelze hergestellten Kristalle sind verzwillingt. Die einzelnen Domänen lassen sich mit Polarisations- und Ultraschallmikroskopie nachwei- sen. Zusammen mit Röntgendiffraktometrie und Laueverfahren wird die (112)- Ebene in orthorhombischen LaMnO 3 -Kristallen als Zwillingsebene identifiziert. In rhomboedrischen La 1 x Sr x MnO 3 -Kristallen findet man mit den gleichen Verfahren, dass die Zwillingsebenen parallel zu den pseudokubischen (100)- Ebenen liegen. Die für die Entstehung der Zwillinge verantwortlichen Phasenübergänge wer- den mit Röntgendiffraktometrie und Polarisationsmikroskopie bei hohen Tem- peraturen untersucht. Der strukturelle Übergang von orthorhombisch nach rhomboedrisch lässt sich mit Röntgendiffraktometrie nachweisen. Der Über- gang zu einer kubischen Phase in LaMnO 3 wird bis zu einer Temperatur von 1520 o C nicht gefunden.
l-(1520)-Produktion in Proton-Proton- und zentralen Blei-Blei-Reaktionen bei 158-GeV-pro-Nukleon
(2000)
In ultrarelativistischen Schwerionenkollisionen ist es möglich, Dichten und Temperaturen von hochangeregter Kernmaterie zu erreichen, die einen Übergang einer hadronischen Phase in eine partonische Phase zur Folge haben. Der Einschluss von Quarks und Gluonen in den Hadronen hebt sich auf, so dass sie sich quasi frei bewegen (Quark-Gluon-Plasma). Gitter-QCD-Rechnungen zu Folge kann dieser Zustand bei einer zentralen 208 Pb 208 Pb-Kollision am CERN-SPS mit den dort zur Verfügung stehenden Einschussenergien erreicht werden. Ziel dieser Arbeit ist die Untersuchung der Delta(1520)Produktion in p p und zentralen Pb Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des NA49-Experimentes durchgeführt und basiert auf den Analysemethoden zur Rekonstruktion der invarianten Masse anhand von jeweis 400000 p p und Pb Pb-Ereignissen. Die gesamte Phasenraum-Akzeptanz der NA49-Spurendriftkammern liegt bei etwa 1200 nachgewiesenen geladenen Reaktionsprodukten, für das Delta(1520), das zu 22.5 % in ein Proton und ein negativ geladenes Kaon zerfällt, bei etwa 80 %. Da der Endzustand zu 90 % aus Pionen besteht, wird eine Teil chenidentifikation zur Reduzierung des kombinatorischen Untergrundes notwendig. Der mit einer Auflösung von besser als 5 % gemessene spezifische Energieverlust erlaubt eine Reduktion der Kombinationen um einen Faktor 11 bei einem Signal verlust von einem Faktor 2. Zur Extraktion des Signals vom kombinatorischen Untergrund wird dieser durch ein Mischverfahren erzeugt, bei dem die Kandidaten aus unterschiedlichen Ereignissen miteinander kombiniert werden und vom Origi nalspektrum subtrahiert werden. Die Analyse der Pb PbDaten stellt eine große Herausforderung an das Verfahren, da das SignalzuUntergrundverhältnis von et wa 1/600 im Vergleichz u der p pDatenanalyse sehr klein ist, bei der es bei 1/6 liegt, und somit das subtrahierte Spektrum von der genauen Beschreibung des kombinatorischen Untergrundes abhängt. Dabei hat sich gezeigt, dass ein für die p pAnalyse entwickeltes spurmultiplizitätsabhängiges Mischen die Form des Untergrundes im Maximum der Verteilung besser beschreiben kann als ein Mischen der nur benachbarten Ereignisse. Dies lässt sich jedoch nicht auf die Pb PbAnalyse übertragen. Nach vielen Untersuchungen bleibt in dem Signalspektrum eine syste matische Struktur zurück, die allein von der Anzahl der Kombinationen abhängt und durch die Mischmethode und die Form des Originalspektrums gegeben ist. Eine große Herausforderung der Pb PbAnalyse ist das Nichtvorhandensein ei nes signifikanten Signals im invarianten Massenspektrum, so dass der Einfluss der nötigen Qualitäts und Auswahlkriterien nicht direkt an dem Verhalten des Signals untersucht werden kann. Die Teilchenidentifikationskriterien wurden zur sinnvollen Optimierung des SignalzuUntergrundverhältnisses aus den dE/dxSpektren her geleitet und zur Kontrolle an dem #Signal überprüft. Die Optimierung von Signal S zu Untergrund BG erfolgt über die Signifikanz, die sich nach S/Wurzel aus B*G berechnet. Die Einträge des Signals werden mit den Korrekturfaktoren aus einer Simulati on auf die gesamte PhasenraumAkzeptanz zu einer totalen Multiplizität hochgerechnet. Dabei ergibt sich aus der p pDatenanalyse eine totale Multiplizät des Delta(1520) von 0.0121 ± 0.0020 ± 0.0010, die in guter Übereinstimmung mit den bisher veröffentlichten Literaturdaten liegt. Die Pb PbDatenanalyse liefert für die Multiplizät eine Abschätzung der oberen Grenze von 1.4 bei einem Confidence Level von 95 % (2#). Aus den Modellvorhersagen von Becattini ergibt sich eine Multiplizät von 3.5 für den chemischen Freezeout. Nach den Rechnungen von UrQMD erfahren die Zer fallsprodukte des Delta(1520) bis zum thermischen Freezeout noch Wechselwirkungen unter Energie und Impulsaustausch. Dies führt dazu, dass sich diese Teilchen nicht mehr zur invarianten Massen des Delta(1520) rekonstruieren lassen, was einen Verlust von 50 % darstellt. Damit hätten wir laut Becattini 1.7 nachweisbare Delta(1520). Eine weitere Möglichkeit liegt in der Theorie des dichten Mediums, in der die d Welle der Delta(1520)Resonanz an das Medium koppelt und somit ihren Charakter verändert, was eine Verbreiterung oder eine Verschiebung des Signals zur Folge haben kann. Eine solche Signaländerung kann durch den direkten Vergleich der Si gnale der p pAnalyse mit der Pb PbAnalyse im Bereich des statistischen Fehlers nicht bestätigt werden. Von der Experimentseite ist in ein paar Wochen noch mit der Verdopplung der Pb PbDatenz u rechnen, so dass diese Fragestellung mit besserer Statistik untersucht werden kann. Unter anderem kann auch die Phasenraumverteilung der Delta(1520)Resonanz bestimmt werden, für die es bis jetzt noch keine Messung gibt. Zum zeitlichen Ende dieser Arbeit wurde mit vielen Spurfindungs und dE/dx Verbesserungen von 4.5 % auf etwa 3.5 % der dE/dxAuflösung der Datensatz neu erstellt, der dann mit der hier angepassten Analyse untersucht wurde. Die Ana lyse brachte ein Delta(1520)Signal mit einer Signifikanz von 6 hervor, aus dem sich eine Multiplizität von 1.45 ± 0.29 ± 0.14 berechnen ließ. Im wesentlichen zeigt dies, dass die hier besprochene Vorgehensweise der Optimierung eines nicht signi fikanten Signals erfolgreich ist, da sie direkt auf den neuen Datensatz übertragen werden konnte, um die beste Signifikanz des Signals zu erhalten. Die obere Grenzabschätzung ohne Signal und die neu berechnete Multiplizität aus dem Signal sind im Bereich ihrer Fehler konsistent, so dass die am Ende folgende Diskussion sich nicht unterscheidet, und dieses Signal einen schönen Abschluss gibt und die vorher berechnete obere Grenze bestätigt. Die Analyse von Delta(1520) war der Auslöser der Idee, open charmTeilchen in NA49 zu messen. Der ebenfalls kleine Wirkungsquerschnitt der DMesonen liegt in der Größenordnung der Delta(1520)Resonanz. Anhand einer Simulation wurde unter Ver wendung der gleichen Analysemethode, die zur Bestimmung der Multiplizität der Delta(1520) verwendet wurde, die Signifikanz für ein Signal oder eine obere Grenze abgeschätzt [Gaz00]. Dies führte weiterhinz u dem Vorschlag mit dem NA49 Experiment eine größere Statistik an Pb PbEreignissen aufzuzeichnen, um das Programm der Delta(1520) und der open charmMessung fortzusetzen [Bot00], worauf in der Strahlzeit Herbst 2000 3.5 Millionen Ereignisse aufgezeichnet wurden.
Die vorliegende Arbeit befasst sich mit der Untersuchung der Transporteigenschaften inklusive Ladungsträgerdynamik von quasi-zweidimensionalen organischen Ladungstransfersalzen. Diese Materialien besitzen eine Schichtstruktur und weisen eine hohe Anisotropie der elektrischen Leitfähigkeit auf. Aufgrund der geringen Bandbreite und der niedrigen Ladungsträgerkonzentration gehören die Materialien zu den stark-korrelierten Elektronensystemen, wobei sich die elektronischen Eigenschaften leicht durch chemische Modifikationen oder äußere Parameter beeinflussen lassen. Die starken Korrelationen resultieren in Metall-Isolator-Übergängen, die sich beim Mott-isolierenden Zustand in einer homogenen Verteilung und beim ladungsgeordneten Zustand in einer periodischen Anordnung der lokalisierten Ladungsträger manifestieren.
Mithilfe der Fluktuationsspektroskopie, die sich mit der Analyse der zeitabhängigen Widerstandsfluktuationen befasst, konnten im Rahmen dieser Arbeit neue Erkenntnisse über die Ladungsträgerdynamik in den verschiedenen elektronischen Zuständen gewonnen werden. Die Metall-Isolator-Übergänge in den untersuchten Systemen, die auf den Molekülen BEDT-TTF (kurz: ET) bzw. BEDT-TSF (kurz: BETS) basieren, sind von der Stärke der strukturellen Dimerisierung abhängig und wurden durch die Kühlrate, eine Zugbelastung sowie durch die Ausnutzung des Feldeffekts beeinflusst.
In den Systemen κ-(BETS)₂Mn[N(CN)₂]₃, κ-(ET)₂Hg(SCN)₂Cl und κ-(ET)₂Cu[N(CN)₂]Br sind die Donormoleküle als Dimere angeordnet, sodass aufgrund der effektiv halben Bandfüllung bei genügender Korrelationsstärke häufig ein Mott-Übergang auftritt. In κ-(ET)₂Hg(SCN)₂Cl führt eine schwächere Dimerisierung jedoch zu einem Ladungsordnungsübergang, der mit elektronischer Ferroelektrizität einhergeht. Dabei wird die polare Ordnung durch eine Ladungsdisproportionierung innerhalb der Dimere verursacht. Die Widerstandsfluktuationen zeigen am ferroelektrischen Übergang einen starken Anstieg der spektralen Leistungsdichte, eine Abhängigkeit vom angelegten elektrischen Feld sowie Zeitabhängigkeiten, die auf räumliche Korrelationen der fluktuierenden Prozesse hindeuten. Diese Eigenschaften wurden ebenfalls für das System κ-(BETS)₂Mn[N(CN)₂]₃ beobachtet. Hierbei wurden mithilfe der dielektrischen Spektroskopie ebenfalls Hinweise auf Ferroelektrizität gefunden, während durch die Analyse der stromabhängigen Widerstandsfluktuationen die Größe der polaren Regionen abgeschätzt werden konnte. Das System κ-(ET)₂Cu[N(CN)₂]Br, das in einer Feldeffekttransistor-Struktur vorliegt, erlaubt neben der Untersuchung des Bandbreiten-getriebenen Mott-Übergangs durch die Zugbelastung eines Substrats auch die Beeinflussung der elektronischen Eigenschaften durch die Änderung der Bandfüllung mittels elektrostatischer Dotierung. Hierbei wurden starke Abhängigkeiten des Widerstands von der Gatespannung beobachtet und Ähnlichkeiten der Ladungsträgerdynamik zu herkömmlichen Volumenproben gefunden.
Bei den Systemen θ-(ET)₂MM'(SCN)₄ mit MM'=CsCo, RbZn, TlZn tritt ein Ladungsordnungsübergang auf, der eine starke Abhängigkeit von der Kühlrate zeigt. Durch schnelles Abkühlen lässt sich der Phasenübergang erster Ordnung kinetisch vermeiden, wodurch ein Ladungsglaszustand realisiert wird. Dieser metastabile Zustand zeigt neuartige physikalische Eigenschaften mit Ähnlichkeiten zu herkömmlichen Gläsern und wurde als Folge der geometrischen Frustration der Ladung auf einem Dreiecksgitter diskutiert. Im Rahmen dieser Arbeit konnte die Ladungsträgerdynamik in den verschiedenen Ladungszuständen von unterschiedlich frustrierten Systemen verglichen werden. Zur Realisierung sehr schneller Abkühlraten wurde dafür eine Heizpulsmethode verwendet und weiterentwickelt. Der Ladungsglaszustand zeigte dabei für verschiedene Systeme ein deutlich niedrigeres Rauschniveau als der ladungsgeordnete Zustand. In Kombination mit Messungen der thermischen Ausdehnung und kühlratenabhängiger Transportmessungen wurde in den Systemen mit der stärksten Frustration die Existenz eines strukturellen Glasübergangs nachgewiesen, der von einer starken Verlangsamung der Ladungsträgerdynamik begleitet wird. Diese Erkenntnisse werfen ein neues Licht auf die bisherige rein elektronische Interpretation des Ladungsglaszustands und heben den Einfluss der strukturellen Freiheitsgrade hervor.
Im Rahmen dieser Promotionsarbeit wurden fünf verschiedene Experimente mit der Schwerionen-Mikrosonde der GSI durchgeführt. Vier dieser Experimente waren erfolgreich, bei einem Experiment wurden nicht die erhofften Ergebnisse erzielt. Alle Experimente haben Ziele und Fragestellungen verfolgt, die vornehmlich mit einer Ionen-Mikrosonde bearbeitet werden können. Es wurde gezeigt, dass durch die Anwendung fein fokussierter Ionenstrahlen physikalische und technische Probleme im Mikrometerbereich sehr effizient und erfolgreich aufgeklärt werden können. Die hohe örtliche Auflösung der Mikrosonde in Verbindung mit den bekannten auf Ionenstrahlen basierenden Analysemethoden ermöglicht den Zugriff auf Informationen, die auf anderem Wege gar nicht oder nur schwer zugänglich sind. Das erste der fünf Experimente an der Mikrosonde untersuchte die Eigenschaften von polykristallinem CVD Diamant, bei der Verwendung dieses Materials als Detektor für Schwerionen. Der große Nachteil dieses Detektormaterials ist die geringe Fähigkeit, im Detektor erzeugte Ladungsträger verlustfrei zu den Elektroden zu transportieren, um sie dort zu sammeln. Häufig werden bei diesem Transportprozess vom Entstehungsor t der Ladungsträger zu den Elektroden über 90 % der ursprünglich vorhandenen Ladungsträger von Ladungsträgerfallen im Diamantmaterial eingefangen. Es bestand der starke Verdacht, dass diese Fallen vorwiegend in den Korngrenzen zwischen den Diamanteinkrista llen lokalisiert sind. Aus diesem Verdacht begründete sich die Hoffnung, dass die Einkristalle im CVD Diamant ein wesentlich besseres Ladungssammlungsverhalten zeigen würden. Da die Ionenmikrosonde einen Ionenmikrostrahl mit einem lateralen Fokusdurchmesser von ca. 0,5 µm über eine Targetfläche von 1 x 1 mm² rastern kann und dabei Punkt für Punkt die Reaktion des Targetmaterials nachweisen kann, ist sie das geeignete Werkzeug zur Untersuchung von Ladungssammlungsprozessen im Bereich der Einkristalle und der Korngrenzen. Bei der Auswertung der Ergebnisse des Experiments ist aufgefallen, dass man für das CVD Diamantmaterial innerhalb der Ionenbestrahlung zwei verschiedene Zustände unterscheiden muss. Ein unbestrahlter CVD Diamant verhält sich in Bezug auf die Ladungssammlungs- eigenschaften wesentlich anders als ein bestrahlter CVD Diamant, der schon eine gewisse Ionendosis akkumuliert hat. Beim unbestrahlten Diamant ist zu beobachten, dass sowohl in den Einkristallen als auch in den Korngrenzen sehr effektive Ladungsträge rfallen existieren. Die generelle Aussage, dass Diamanteinkristalle eine bessere Ladungssammlung zeigen, kann hier nicht bestätigt werden. Es konnte aber gezeigt werden, dass es, im etwa 300 x 350 µm großen Scannfeld, Bereiche mit sehr guten Ladungssammlungseigenschaften (Effizienz über 90 % im Maximum der Verteilung) gibt und in unmittelbarer Nähe Bereiche mit geringster Ladungssammlungs- effizienz (etwa 8 % im Maximum der Verteilung) existieren. Es konnte nicht geklärt werden, ob diese Bereiche aus Einkristallen bestehen oder sich über Korngrenzen ausdehnen. Die beobachtete 90%ige Ladungssammlungseffizienz ist jedoch ein eindeutiger Nachweis der Möglichkeit, die Detektoreigenschaften dieses Materials wesentlich verbessern zu können, wenn es gelingt, die Besonderheiten dieses hocheffizienten Bereichs aufzuklären. CVD Diamantdetektoren, die schon eine gewisse Ionendosis akkumuliert haben, werden auch als gepumpte Detektoren bezeichnet. Das Pumpen des Detektors kann dabei auch durch andere Formen der Energiezufuhr, beispielsweise mit Hilfe eines Lasers erfolgen, wichtig ist nur, dass eine große Zahl der Ladungsträgerfallen mit Ladungsträgern gefüllt sind. Da diese Fallen im CDV Diamant relativ tief sind, werden gefüllte Fallen nicht schnell entleert und sie stören, so lange sie gefüllt sind, die Ladungssammlung nicht mehr. Die Ladungs- sammlungseffizienz gepumpter Diamantdetektoren verbessert sich sehr stark im Vergleich zum ungepumpten Material. Das Maximum der Verteilung des Ladungssammlungsspektrums verschob sich von etwa 15 % Effizienz beim ungepumpten Detektor zu mehr als 50 % Effizienz beim gepumpten Detektor gemittelt über das gesamte Scannfeld. Bei der Betrachtung des Einflusses der Korngrenzen im gepumpten Material konnte festgestellt werden, dass die Einkristalle nun tatsächlich wesentlich weniger zum Verlust der Ladungsträger beitragen als die Korngrenzen. Die Korngrenzen zeichneten sich beim gepumpten CVD Diamant deutlich als dominante Bereiche des Ladungsträgerverlustes ab. Somit haben wir die bestehende Vermutung über den dominierenden Ladungsträgereinfang in den Korngrenzen für den gepumpten CVD Diamanten bestätigen können, beim ungepumpten Material hingegen verwerfen müssen. Eine weitere Aufklärung der Unterschiede zwischen den beiden Zuständen wür de hier zu einem besseren Verständnis der Vorgänge führen. Zudem wurde am CVD Diamant eine Hochdosisbestrahlung vorgenommen, bei der bestimmt werden sollte ab, welcher Ionendosis das Material soweit geschädigt ist, dass eine Trennung der Detektorsignale von den Rauschsignalen nicht mehr möglich ist. Für einen 8,3 MeV/u 12C-Strahl war diese Trennung ab einer Dosis von 8,0 x 1013 Ionen/cm² nicht mehr möglich, was bedeutet, dass der Detektor hier seine Verwendbarkeit verliert. Eine weitere Gruppe von drei Experimenten befasste sich mit der Wirkung von schnellen, schweren Ionen auf Halbleiterbauelemente. Diese anwendungsorientierten Experimente sollten Ursachen für das Fehlverhalten mikroelektronischer Bauelemente bei Ionentreffern an bestimmten Orten und zu bestimmten Zeitpunkten untersuchen, beziehungsweise Grundlagen für die theoretische Betrachtung der Vorgänge liefern. Beim ersten der drei Experimente wurde das Auftreten von Single Event Upsets in Verbindung mit Single Event Latchups in SRAM Bausteinen untersucht. Die Latchups werden bei den üblichen Testverfahren durch einen Spannungsabfall an einem externen Widerstand in der Versorgungsleitung erkannt. Mit Hilfe der Mikrosonde wurde nachgewiesen, dass diese Methode der Latchupdetektion unzureichend sein kann. Da die internen Versorgungsleitungen in der Halbleiterstruktur selber Widerstände bilden, kann der Latchup am äußeren Widerstand unter bestimmten Bedingungen nicht erkannt werden. Hier spielt die Länge der integrierten Versorgungsleitung eine wesentliche Rolle. Die bild- gebenden Verfahren der Mikrosonde bei der simultanen Messung von Latchups und Upsets können hier Latchups entdecken, die im üblichen Testverfahren nicht erkennbar waren. Das zweite dieser drei Experimente hatte das Ziel, die Upsetempfindlichkeit einer getakteten CMOS- Struktur im Bereich der Schaltflanken zu bestimmen. Hierzu wurden die Schaltzeit- punkte des ICs mit dem vom UNILAC gelieferten Ionenstrahl synchronisiert. Einzelne Ionen trafen den Schaltkreis nur innerhalb eines Zeitfensters von 2 nsec um die Schaltflanke. Da der getaktete integrierte Schaltkreis im Bereich der Schaltflanken besonders empfindlich auf die vom Ion erzeugten zusätzlichen Ladungsträger reagiert, sollten die Upsetwahrscheinlichkeiten innerhalb des Schaltprozesses mit möglichst hoher zeitlicher Auflösung vermessen werden. Die Bestimmung der Trefferzeitpunkte mit einer zeitlichen Genauigkeit von 1 ns oder besser brachte jedoch eine Vielzahl von Problemen mit sich, die letztlich dazu führten, dass dieses Experiment nicht erfolgreich abgeschlossen werden konnte. Auf Grund seiner hohen technischen Bedeutung wurde es in dieser Arbeit aber beschrieben und sollte nach der Verbesserung der Treffererkennung erneut durchgeführt werden. Es wäre das erste Experiment, in dem die Empfindlichkeit einer CMOS- Struktur gegen Ionenstrahlen mit hoher örtlicher und zeitlicher Auflösung gemessen wird. Das dritte Experiment dieser Serie befasste sich mit der für theoretische Vorhersagen wichtigen Größe des elektronischen Durchmessers der Ionenspur. Aus der vom Schwerion erzeugten Spur breitet sich eine elektronische Stoßkaskade aus. Diese freien Ladungsträger können ungewollte Schaltvorgänge in integrierten Schalkreisen auslösen. Da die Integrationsdichte in modernen Baugruppen immer höher wird, kann die vom Ion erzeugte Spur aus freien Ladungsträgern mehrere Transistoren beeinflussen. Die Ausdehnung dieser Spur kann nicht mehr als vernachlässigbare Größe eingestuft werden. Um den Durchmesser der Spur zu bestimmen, wurde ein fein fokussierter 5,9 MeV/u Nickel-Strahl über eine Probe aus Mikrostreifen gerastert, und die in den Streifen gesammelten Ladungssignale wurden gemessen. Trotz einiger Probleme mit der kapazitiven Kopplung von Signalen zwischen den Streifen und dem Substrat und de n Streifen untereinander konnte der Durchmesser der elektronischen Spur bei diesem Test zu etwa 1,2 µm bestimmt werden. Es sollte der Versuch unternommen werden, diesen ersten experimentellen Wert durch weitere verfeinerte Messungen zu bestätigen und vor allem sollte versucht werden, das Dichteprofil der Elektronen in der Ionenspur mit dieser Technik zu bestimmen. Diese Informationen wären von großem Wert für theoretische Modelle zur Empfindlichkeit von integrierten Elektroniken gegen die Effekte einzelner Ionen. Im fünften und letzten Experiment dieser Arbeit wurde die Ionen-Mikrosonde als Werkzeug zur Strukturierung eines Hochtemperatur Dünnfilm Supraleiters eingesetzt. In der sogenannten Shubnikov-Phase können magnetische Flussquanten in den Supraleiter eindringen, obwohl der Zustand der Supraleitung noch vorhanden ist. Diese Flussquanten können durch säulenartige korrelierte Defekte im Supraleiter gebunden werden. Die Spuren schwerer Ionen bilden solche kolumnaren Defekte, die mit Hilfe der Mikrosonde aufgeprägt werden können. Da bei dieser Strukturierung eine hohe Defektdichte erforderlich war, konnte aus Zeitgründen eine Strukturierung mit dem schreibenden Ionenstrahl nicht realisiert werden. Stattdessen wurde eine Schlitzmaske verwendet, die mit Hilfe der Mikrosonde verkleinert auf der Oberfläche des Supraleiters abgebildet wurde. Auf diese Weise wur de dem Supraleiter eine Defektstruktur aus Stegen, die in einem bestimmten Winkel orientiert waren, aufgeprägt. An dem so erzeugten Supraleiter wurden dann an der Universität Mainz die elektrischen Transporteigenschaften des Materials unter dem Einfluss eines gepinnten magnetischen Feldes gemessen. Da die erwarteten Effekte aus dem Pinning der magnetischen Flussquanten erst dann eine messbare Größe annehmen, wenn dem Supraleiter Defektstrukturen in der Größenordnung von einigen µm aufgeprägt werden, ist auch hier die Ionen-Mirkrosonde das einzige verfügbare Instrument für diese Aufgabe. Mit dieser Arbeit wurde deutlich gemacht, dass eine Ionen-Mikrosonde ein vielseitig einsetzbares Instrument ist, das vor allem aufgrund der hohen Bedeutung von miniaturisierten Systemen in der modernen Forschung und Technik ein hohes Verwendungspotential besitzt. Alle hier vorgestellten Experimente wären ohne den Einsatz der Mikrosonde nicht durchführbar gewesen. Neben diesen Experimenten werden an der GSI noch eine Reihe weiterer Experimenten zum Beispiel im Bereich der Biophysik bearbeitet, die ihrerseits von der einzigartigen Möglichkeit der µm-genauen Platzierung schwerer Ionen profitieren.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.
The subatomic world is governed by the strong interactions of quarks and gluons, described by Quantum Chromodynamics (QCD). Quarks experience confinement into colour-less objects, i.e. they can not be observed as free particles. Under extreme conditions such as high temperature or high density, this constraint softens and a transition to a phase where quarks and gluons are quasi-free particles (Quark-Gluon-Plasma) can occur. This environment resembles the conditions prevailing during the early stages of the universe shortly after the Big Bang.
The phase diagram of QCD is under investigation in current and future collider experiments, for example at the Large Hadron Collider (LHC) or at the Facility for Antiproton and Ion Research (FAIR). Due to the strength of the strong interactions in the energy regime of interest, analytic methods can not be applied rigorously. The only tool to study QCD from first principles is given by simulations of its discretised version, Lattice QCD (LQCD).
These simulations are in the high-performance computing area, hence, the numerical aspects of LQCD are a vital part in this field of research. In recent years, Graphic Processing Units (GPUs) have been incorporated in these simulations as they are a standard tool for general purpose calculations today.
In the course of this thesis, the LQCD application cl2qcd has been developed, which allows for simulations on GPUs as well as on traditional CPUs, as it is based on OpenCL. cl2qcd constitutes the first application for Wilson type fermions in OpenCL.
It provides excellent performance and has been applied in physics studies presented in this thesis. The investigation of the QCD phase diagram is hampered by the notorious sign-problem, which restricts current simulation algorithms to small values of the chemical potential.
Theoretically, studying unphysical parameter ranges allows for constraints on the phase diagram. Of utmost importance is the clarification of the order of the finite temperature transition in the Nf=2 chiral limit at zero chemical potential. It is not known if it is of first or second order. To this end, simulations utilising Twisted Mass Wilson fermions aiming at the chiral limit are presented in this thesis.
Another possibility is the investigation of QCD at purely imaginary chemical potential. In this region, QCD is known to posses a rich phase structure, which can be used to constrain the phase diagram of QCD at real chemical potential and to clarify the nature of the Nf=2 chiral limit. This phase structure is studied within this thesis, in particular the nature of the Roberge-Weiss endpoint is mapped out using Wilson fermions.
Lattice simulation of a center symmetric three dimensional effective theory for SU(2) Yang-Mills
(2010)
We present lattice simulations of a center symmetric dimensionally reduced effective field theory for SU(2) Yang Mills which employ thermal Wilson lines and three-dimensional magnetic fields as fundamental degrees of freedom. The action is composed of a gauge invariant kinetic term, spatial gauge fields and a potential for the Wilson line which includes a "fuzzy" bag term to generate non-perturbative fluctuations between Z(2) degenerate ground states. The model is studied in the limit where the gauge fields are set to zero as well as the full model with gauge fields. We confirm that, at moderately weak coupling, the "fuzzy" bag term leads to eigenvalue repulsion in a finite region above the deconfining phase transition which shrinks in the extreme weak-coupling limit. A non-trivial Z(N) symmetric vacuum arises in the confined phase. The effective potential for the Polyakov loop in the theory with gauge fields is extracted from the simulations including all modes of the loop as well as for cooled configurations where the hard modes have been averaged out. The former is found to exhibit a non-analytic contribution while the latter can be described by a mean-field like ansatz with quadratic and quartic terms, plus a Vandermonde potential which depends upon the location within the phase diagram. Other results include the exact location of the phase boundary in the plane spanned by the coupling parameters, correlation lengths of several operators in the magnetic and electric sectors and the spatial string tension. We also present results from simulations of the full 4D Yang-Mills theory and attempt to make a qualitative comparison to the 3D effective theory.
In the course of this thesis we discuss a certain kind of supersolid, the lattice-supersolid, which can be realized using quantum gases in an optical lattice trap. The lattice-supersolid, which simultaneously possesses off-diagonal and diagonal long-range order in its density matrix and also breaks the discrete translational symmetry of an underlying lattice, is induced by self-ordering of the gas due to strong long-range van der Waals interactions. In the considered scenario, the interactions are facilitated by the excitation of atomic Rydberg states, which exhibit enhanced van der Waals forces.
In the first part of this thesis (chapters 1-3), we review the relevant basics of quantum gases, Rydberg physics and introduce the extended Bose-Hubbard model. We start with the relevant methods and devices of the vast toolbox available in common quantum gas experiments, as well as consider the main concepts behind superfluidity and supersolidity. This is followed by an introduction of some basic concepts of Rydberg atoms in quantum many-body systems, with a focus on the facilitation of long-range interactions and the implementation in a theoretical model. Thereafter a brief introduction is given, on the realization of the Bose-Hubbard model in optical lattice systems and its extension to include Rydberg states, which concludes the introductory part of this thesis.
In the following part (chapters 4-6), we introduce the theoretical tools used to derive the results presented in the final part. First, an introduction to a real-space extension of bosonic dynamical mean-field theory (RB-DMFT) for bosonic systems with long-range interactions in the Hartree approximation is given. This method is based on the non-perturbative self-consistent evaluation of the lattice Green’s function, which also incorporates the effect of nearest neighbor correlations due to the non-condensed particles. Then we focus on a quasiparticle expansion of the Bose-Hubbard model, which has its foundation in linearized fluctuations of a static mean-field ground-state, allowing for the prediction of a vast range of experimentally relevant observables. Lastly, we introduce an efficient truncation scheme for the local bosonic Fock-basis, which allows for the simulation of phases with high condensate density at a vastly reduced computational effort.
In the final part (chapters 7 and 8), we discuss the application of both methods to itinerant bosonic gases in two-dimensional optical lattices, in order to predict the equilibrium ground-state phases, as well as the signatures of supersolidity and its formation in spectral functions and the dynamic and static structure factor. Specifically, we focus on two limiting cases. Firstly, we consider a two-component gas, as realized by two hyperfine ground states, for example, of rubidium-87, where one component is off-resonantly excited to a Rydberg state, which generates a soft-core shaped interaction potential. Secondly, we discuss the opposing limit, using near-resonant excitations
of Rydberg states, where the interacting component now directly corresponds to the Rydberg state, which interacts via a van der Waals potential. In both cases we discuss the rich variety of supersolid phases, which are found for a wide range of parameters. We also discuss how some of these phases can be realized in experiment.
In the subsequent appendices (A to D) we discuss some methodological details. Most notably, we consider the possible Fock-extension of the Hartree approximation (appendix A), introduced in the RB-DMFT treatment of the extended Bose-Hubbard model.
In our daily life, we carry out lots of tasks like typing, playing tennis, and playing the piano, without even noticing there is sequence learning involved. No matter how simple or complex they are, these tasks require the sequential planning and execution of a series of movements. As an ability of primary importance in one’s life, and an ability that everyone manages to learn, action-sequence learning has been studied by researchers from different fields: psychologists, neurophysiologists as well as roboticists. In the concept of sequence learning, perceptual learning and motor learning, implicit and explicit learning have been studied and discussed independently.
We are interested in infancy research, because infants, with underdeveloped brain functions and with limited motor ability, have little experience with the world and not yet built internal models as presumption of how to interpret the world. A series of infant experiments in the 1980s provided evidence that infants can rapidly develop anticipatory eye movements for visual events. Even when infants have no control of those spatial-temporal patterns, they can respond actually prior to the onset of the visual event, referred as "Anticipation".
In this work, we applied a gaze-contingent paradigm using real-time eye tracking to put 6- and 8-month-old infants in direct control of their visual surroundings. This paradigm allows the infant to change an image on a screen by looking at a peripheral red disc, which functions as a switch. We found that infants quickly learn to perform eye movements to trigger the appearance of new stimuli and that they anticipate the consequences of their actions in an early stage of the experiment.
Attention-shift from learning one stimulus to the next novel stimulus is important in sequence learning. In the test phase of infant visual habituation with two objects, we propose a new theory of explaining the familiarity-to-novelty shift. In our opinion an infant’s interest in a stimulus is related to its learning progress, the improvement of performance. As a consequence, infants prefer the stimulus which their current learning progress is maximal for, naturally giving rise to a familiarity-to-novelty shift in certain situations. Our network model predicts that the familiarity-to-novelty-shift only emerges for complex stimuli that produce bell-shaped learning curves after brief familiarization, but does not emerge for simple stimuli that produce exponentially decreasing learning curves or for long familiarization time, which is consistent with experimental results. This research suggests the infant's interest in a stimulus may be related to its current learning progress. This can give rise to a dynamic familiarity-to-novelty shift depending on both the infant's learning efficiency and the task complexity.
We know that for both infants and adults, the performance on certain motor-sequence tasks can be improved through practice. However, adults usually have to perform complex tasks in complicated environments; for example, learning multiple tasks is unavoidable in our daily life. In existing research, learning multiple tasks showed puzzling and seemingly contradictory results. On the one hand, a wide variety of proactive and retroactive interference effects have been observed when multiple tasks have to be learned. On the other hand, some studies have reported facilitation and transfer of learning between different tasks.
In order to find out the interaction between multiple-task learning, and to find an optimal training schedule, we use a recurrent neural network to model a series of experiments on movement sequence learning. The network model learns to carry out the correct movement sequences through training and reproduces differences between training schedules such as blocked training vs. random training in psychophysics experiments. The network model also shows striking similarity to human performance, and makes prediction for tasks similarity and different training schedules.
In conclusion, the thesis presents learning sequences of actions in infants and recurrent neural networks. We carried out a gaze-contingent experiment to study infants’ rapid anticipation of their own action outcomes, and we also constructed two recurrent neural network models, with one model explaining infant attention shift in visual habituation, and the other model directing to task similarity and training schedule in motor sequence control in adults.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
The small photoreceptor Photoactive Yellow Protein (PYP) enters a reversible photocycle after excitation with blue light. The intermediate states are formed on timescales ranging from femtoseconds to seconds including chromophore isomerization and protonation as well as large structural rearrangements. To obtain local dynamic information the vibrational label thiocyanate (SCN) can be inserted site-specifically at any desired position in the protein by cysteine mutation and cyanylation. The label's CN stretch vibration is highly sensitive to polarity, hydrogen bonding interactions and electric fields and is spectrally well separated from the overlapping protein absorptions. During the course of this thesis it was impressively demonstrated that the successful incorporation of the SCN label at selected positions in PYP provides a powerful tool to study structure changes and dynamics during the photocycle and enhance the local information that are obtained by infrared (IR) spectroscopic methods. Hence the SCN-labeled protein mutants were studied under equilibrium (steady-state) and non-equilibrium conditions.
Examination of the SCN absorption by FTIR spectroscopy showed the influence of various local environments on the label for different locations in the dark state. The response of the label under illumination with blue light reveals information about structural changes in the signaling state. Additional information for both states were obtained by the vibrational lifetime of the CN vibration measured via ultrafast IR-pump-IR-probe experiments. This observable is particularly sensitive for solvent exposure of the label. Time-resolved IR spectroscopy proved to be an excellent method to follow the protein dynamics throughout most part of the photocycle on a hundreds of femtoseconds to milliseconds timescale. By close inspection of protein and chromophore dynamics in wildtype-PYP over nine decades in time, new insights into the changes leading to the proposed photocycle intermediates were obtained. The investigation of the SCN label allowed to follow the different transient structure changes with high local resolution. Depending on its position within the protein the response of the label provided additional information on the photocycle transitions.
The insights that are obtained by the different observables in the steady-state and by the reaction of the SCN label to formation of the different intermediate states during the photocycle contribute to an improved understanding of local, light-induced structure changes in the photoreceptor PYP. This comprehensive study demonstrated the potential provided by the application of SCN as IR label for investigation of protein dynamics.
Starting from the first observation of the halo phenomenon 20 years ago, more and more neutron-rich light nuclei were observed. The study of unstable nuclear systems beyond the dripline is a relatively new branch of nuclear physics. In the present work, the results of an experiment at GSI (Darmstadt) with relativistic beams of the halo nuclei 8He, 11Li and 14Be with energies of 240, 280 and 305 MeV/nucleon, respectively, impinging on a liquid hydrogen target are discussed. Neutron/proton knockout reactions lead to the formation of unbound systems, followed by their immediate decay. The experimental setup, consisting of the neutron detector LAND, the dipole spectrometer ALADIN and different types of tracking detectors, allows the reconstruction of the momentum vectors of all reaction products measured in coincidence. The properties of unbound nuclei are investigated by reconstructing the relative-energy spectra as well as by studying the angular correlations between the reaction products. The observed systems are 9He, 10He, 10Li, 12Li and 13Li. The isotopes 12Li and 13Li are observed for the first time. They are produced in the 1H(14Be, 2pn)12Li and 1H(14Be, 2p)13Li knockout reactions. The obtained relative-energy spectrum of 12Li is described as a single virtual s-state with a scattering length of as = -22;13.7(1.6) fm. The spectrum of 13Li is interpreted as a resonance at an energy of Er = 1.47(13) MeV and a width of Gamma ~ 2 MeV superimposed on a broad correlated background distribution. The isotope 10Li is observed after one-neutron knockout from the halo nucleus 11Li. The obtained relative-energy spectrum is described by a low-lying virtual s-state with a scattering length as = -22.4(4.8) fm and a p-wave resonance with Er = 0.566(14) MeV and Gamma = 0.548(30) MeV, in agreement with previous experiments. The observation of the nucleus 8He in coincidence with one or two neutrons, as a result of proton knockout from 11Li, allows to reconstruct the relative-energy spectra for the heavy helium isotopes, 9He and 10He. The low-energy part of the 9He spectrum is described by a virtual s-state with a scattering length as = -3.16(78) fm. In addition, two resonance states with l 6= 0 at energies of 1.33(8) and 2.4 MeV are observed. For the 10He spectrum, two interpretations are possible. It can be interpreted as a superposition of a narrow resonance at 1.42(10) MeV and a broad correlated background distribution. Alternatively, the spectrum is being well described by two resonances at energies of 1.54(11) and 3.99(26) MeV. Additionally, three-body energy and angular correlations in 10He and 13Li nuclei at the region of the ground state (0 < ECnn < 3 MeV) are studied, providing information about structure of these unbound nuclear systems.
Energy and environment are two major concerns in the 21st century. At present, the energy required for the daily life still mainly relies on the traditional fossil fuel resources, but the caused air pollution problem and greenhouse effect have seriously threatened the sustainable development of mankind. Another adopted energy source which can provide a large fraction of electricity for the world is the nuclear fission reaction. However, the increasing high-radioactive spent nuclear fuels, which half-lives are usually >1 million years, are becoming the hidden perils to the earth. A great advance in accelerator physics and technology opens an opportunity to solve this dilemma between man and nature, because powerful accelerator-based neutron sources can play important roles for clean nuclear power production, for example: - The Accelerator-Driven System (ADS) can serve as an easy control of a sub-critical fission reactor so that the nuclear fuels will be burnt more completely and safely. - The EUROTRANS project launched by EU is investigating another application of the ADS technology to reduce the radiotoxicity and the volume of the existing nuclear waste greatly and quickly in a transmutation way. - The developing international IFMIF plant will be used to test and qualify reactor materials for future fusion power stations, which can produce much cleaner nuclear electricity more efficiently than the fission ones. Therefore, the R&D of high-power driver linacs (HPDL) is of a worldwide importance. As the proverb said, "everything is hard at the beginning", the front end is the most difficult part for realizing an HPDL machine. Based on the RFQ and H-type DTL structures, this dissertation is dedicated to study the beam dynamics in the presence of significantly strong space-charge effects while accelerating intense hardon beams in the low- and medium-beta-region. Besides the 5mA/30mA, 17MeV proton injector (RFQ+DTL) and the 125mA, 40MeV deuteron DTL of the above-mentioned EUROTRANS and IFMIF facilities, a 200mA, 700keV proton RFQ has been also intensively studied for a small-scale but ultra-intense neutron source FRANZ planned at Frankfurt University. The most remarkable properties of the FRANZ RFQ and the IFMIF DTL are the design beam intensities, 200mA and 125mA, which are the record values for the proton and deuteron linacs, respectively. Though the design intensities for the two development stages, XT-ADS (5mA) and EFIT (30mA), of the EUROTRANS injector are well within the capability of the modern RF linac technology, the special design concept for an easy upgrade from XT-ADS to EFIT brings unusual challenges to realize a linac layout which allows flexible operation with different beam intensities. To design the 200mA FRANZ RFQ and the two-intensity EUROTRANS RFQ, the classic LANL (Los Alamos National Laboratory) Four-Section Procedure, which was developed by neglecting the space-charge forces, is not sufficient anymore. Abandoning the unreasonable constant- B (constant-transverse-focusing-strength) law and the resulting inefficient evolution manners of dynamics parameters adopted by the LANL method, a new design approach so-called "BABBLE", which can provide a "Balanced and Accelerated Beam Bunching at Low Energy", has been developed for intense beams. Being consistent with the beam-development process including space-charge effects, the main features of the "BABBLE" strategy (see Pages 55-58) are: 1) At the entrance, the synchronous phase is kept at = phi s = -90° while a gradual increase in the electrode modulation is started so that the input beam can firstly get a symmetrical and soft bunching within a full-360° phase acceptance. 2) In the following main bunching section, B is increasing to balance the stronger and stronger transverse defocusing effects induced by the decreasing bunch size so that the bunching speed can be fast and safely increased. 3) When the real acceleration starts, the quickly increased beam velocity will naturally weaken the transverse defocusing effects, so B is accordingly falling down to avoid longitudinal emittance growths and to allow larger bore apertures. Taking advantage of the gentle initial bunching and the accelerated main bunching under balanced forces enabled by the "BABBLE" strategy, a 2m-long RFQ with beam transmission in excess of 98% and low emittance growths has been designed for FRANZ, and a 4.3m-long RFQ with almost no beam losses and flat emittance evolutions at both 5mA and 30mA has been designed for EUROTRANS. All design results have proven that the "BABBLE" strategy is a general design approach leading to an efficient and robust RFQ with good beam quality in a wide intensity-range from 0mA to 200mA (even higher). To design the IFMIF DTL and the injector DTL part of the EUROTRANS driver linac, which have been foreseen as the first real applications of the novel superconducting CH-DTL structure, intensive attempts have been made to fulfill the design goals under the new conditions, e.g. long drift spaces, SC transverse focusing elements and high accelerating gradients. For the IFMIF DTL, the preliminary IAP design has been considerably improved with respect to the linac layout as well as the beam dynamics. By reserving sufficient drift spaces for the cryosystem, diagnostic devices, tuner and steerer, introducing SC solenoid lenses and adjusting the Linac Design for Intense Hadron Beams accelerating gradients and accordingly other configurations of the cavities (see Pages 78-80), a more realistic, reliable and efficient linac system has been designed. On the other hand, the specifications and positions of the transverse focusing elements (see Pages 81-82) as well as the phase- and energy-differences between the bunch-center particle and the synchronous particle at the beginning of the phi s=0° sections have been totally redesigned (see Pages 83-84) resulting in good beam performances in both radial and longitudinal planes. For the EUROTRANS injector DTL, in addition to the above-mentioned procedures, extra optimization concepts to coordinate the beam dynamics between two intensities, such as employing short adjustable rebunching cavities with phi s = -90° (see Page 116), have been applied. ...
Low-energy effective models for two-flavor quantum chromodynamics and the universality hypothesis
(2014)
Die Untersuchung der Natur auf extremen Längenskalen hat seit jeher zu bahnbrechenden Einsichten und Innovationen geführt. Insbesondere zu unserem heutigen Verständnis, dass Nukleonen (Protonen und Neutronen) aus Quarks zusammengesetzt sind, die infolge der starken Wechselwirkung, vermittelt durch Gluonenaustausch, gebunden sind. Mit dem Aufkommen des Quarkmodells wurde bald die Quantenchromodynamik (QCD) erfolgreich in der Beschreibung vieler messbarer Eigenschaften der starken Wechselwirkung. Um es mit Goethe zu sagen: mit den modernen Hochenergie-Beschleuniger-Experimenten wird versucht unser Verständnis davon zu verbessern, was die Welt im Innersten zusammenhält. Am Large Hadron Collider (LHC) werden beispielsweise Protonen derart beschleunigt und miteinander zur Kollision gebracht, dass bislang unerreichte Energiedichten auftreten, infolge derer Temperatur und baryochemisches Potential Werte annehmen, die mit denen des frühen Universums vergleichbar sind. Es gibt sowohl theoretische als auch experimentelle Hinweise darauf, dass hadronische Materie mit zunehmender Temperatur und/oder zunehmendem baryochemischen Potentials einen Phasenübergang durchläuft, hin zu einem exotischen Zustand, der als Quark-Gluon-Plasma bekannt ist. Dieser Übergang wird begleitet von einem sogenannten chiralen Übergang. Es ist eine wichtige Frage, ob es sich bei diesem chiralen Übergang um einen echten Phasenübergang (von erster bzw. zweiter Ordnung) handelt, oder ob ein sogenannter crossover vorliegt. Einige Resultate deuten auf einen crossover für verschwindendes baryochemisches Potential und einen Phasenübergang erster Ordnung für verschwindende Temperatur hin, lassen jedoch noch keinen endgültigen Schluss zu, ob dies tatsächlich der Realität entspricht. Wenn ja, so liegt die Annahme nahe, dass ein kritischer Endpunkt existiert, an dem der chirale Übergang von zweiter Ordnung ist. In der Tat existiert ein kritischer Endpunkt in einigen theoretischen Zugängen zur Beschreibung des chiralen Phasenübergangs, deren Aussagekraft seit jeher lebhaft diskutiert wird. Ein zentrales Ziel des zukünftigen CBM-Experiments an der GSI in Darmstadt ist es, die Existenz im Experiment zu überprüfen.
In der Nähe des QCD-(Phasen)übergangs ist es die Abwesenheit jeglicher perturbativer Entwicklungsparameter, die exakte analytische Berechnungen verbietet. Das gleiche gilt für realistische effektive Modelle für QCD. Nichtperturbative Methoden sind daher unverzichtbar für die Untersuchung des QCD-Phasendiagramms. Zu den populärsten dieser Zugänge gehören Gitter-QCD, Resummierungsverfahren, der Dyson-Schwinger-Formalismus, sowie die Funktionale Renormierungsgruppe (FRG). All diese Methoden ergänzen sich gegenseitig und werden zum Teil auch miteinander kombiniert. Eine der Stärken der FRG-Methode ist, dass sie nicht nur erfolgreich auf effektive Modelle angewendet werden kann, sondern auch auf QCD selbst. Für letztere Ab-Initio-Rechnungen sind die aus effektiven Modellen für QCD gewonnenen Resultate von grossem Wert.
Der Schwerpunkt der vorliegenden Arbeit liegt auf der Fragestellung von welcher Ordnung der chirale Phasenübergang im Fall von genau zwei leichten Quarksorten ist. Problemstellungen wie die Suche nach einer Antwort auf die Frage nach den Bedingungen für die Existenz eines Phasenübergangs zweiter Ordnung, die Bestimmung der Universalitätsklasse in diesem Fall etc. erfordern Wissen aus verschiedenen Gebieten.
Kapitel 1 besteht aus einer allgemeinen Einleitung.
In Kapitel 2 stellen wir zunächst einige allgemeine Aspekte von Phasenübergängen dar, die von besonderer Relevanz für das Verständnis des Renormierungsgruppen-Zugangs zu ebendiesen sind. Unser Fokus liegt hierbei auf einer kritischen Untersuchung der Universalitätshypothese. Insbesondere die Rechtfertigung des linearen Sigma-Modells als effektive Theorie für den chiralen Ordnungsparameter beruht auf der Gültigkeit selbiger.
Kapitel 3 beschäftigt sich mit dem chiralen Phasenübergang von einem allgemeinen Standpunkt aus. Wir ergünzen wohlbekannte Fakten durch eine detaillierte Diskussion der sogenannten O(4)-Hypothese. Die Überprüfung der Gültigkeit selbiger wird schließlich in Kapitel 6 und 7 in Angriff genommen.
In Kapitel 4 stellen wir die von uns benutzte FRG-Methode vor. Außerdem diskutieren wir den Zusammenhang zwischen effektiven Theorien für QCD und der QCD selbst.
Kapitel 5 behandelt ein mathematisches Thema, das für alle unserer Untersuchungen unabdingbar ist, nämlich die systematische Konstruktion polynomialer Invarianten zu einer gegebenen Symmetrie. Wir präsentieren einen einfachen, jedoch neuartigen, Algorithmus für die praktische Konstruktion von Invarianten einer gegebenen polynomialen Ordnung.
Kapitel 6 widmet sich Renormierungsgruppen-Studien einer Reihe dimensional reduzierter Theorien. Von zentralem Interesse ist hierbei das lineare Sigma-Modell, insbesondere in Anwesenheit der axialen Anomalie. Es stellt sich heraus, dass die Fixpunkt-Struktur des letzteren vergleichsweise kompliziert ist und ein tieferes Verständnis der zugrundeliegenden Methode sowie ihrer Annahmen erfordert. Dies führt uns zu einer sorgfältigen Analyse der Fixpunkt-Struktur von Modellen verschiedenster Symmetrien. Im Zusammenhang mit der Untersuchung des Einflusses von Vektor- und Axial-Vektor-Mesonen stoßen wir hierbei auf eine neue Universalitä}tsklasse.
Während wenig Spielraum für die Wahl der Symmetriegruppe der effektiven Theorie für den chiralen Ordnungsparameter besteht, ist die Identifizierung der Ordnungsparameter-Komponenten mit den relevanten mesonischen Freiheitsgraden hochgradig nichttrivial. Diese Wahl entspricht der Wahl einer Darstellung der Gruppe und kann zur Zeit nicht eindeutig aus der QCD hergeleitet werden. Es ist daher unerlässlich, verschiedene Möglichkeiten auszutesten. Eine wohlbekannte Wahl besteht darin, das Pion und seinen chiralen Partner, das Sigma-Meson, der O(4)-Darstellung für SU(2)_A x SU(2)_V zuzuordnen, welche einen Phasenübergang zweiter Ordnung erlaubt. Dieses Szenario ist jedoch nur dann sinnvoll, wenn nahe der kritischen Temperatur alle anderen Mesonen entsprechend schwer sind. Im Fall von genau zwei leichten Quarkmassen erfordert dies eine hinreichend große Anomaliestärke. Berücksichtigt man zusätzlich zum Pion und Sigma-Meson auch das Eta-Meson und das a_0-Meson, liefern unsere derzeitigen expliziten Rechnungen keinen Nachweis für die Existenz eines Phasenübergang zweiter Ordnung. Stattdessen spricht die Abwesenheit eines physikalischen (hinsichtlich der Massen) infrarot-stabilen Fixpunktes für einen fluktuationsinduzierten Phasenübergang erster Ordnung. Dieses Ergebnis ist auch zu erwarten (jedoch nicht impliziert), allein durch die Existenz zweier quadratischer Invarianten. Es besteht jedoch immer noch eine hypothetische Chance auf einen Phasenübergang zweiter Ordnung in der SU(2)_A x U(2)_V -Universalitätsklasse. Dies wäre der Fall, wenn der entsprechende von uns gefundene unphysikalische infrarot-stabile Fixpunkt physikalisch werden sollte in höherer Trunkierungsordnung. Interessanterweise finden wir bei endlicher Temperatur für gewisse Parameter einen Phasenübergang zweiter Ordnung. Es ist unklar, ob diese Wahl der Parameter in den Gültigkeitsbereich der dimensional reduzierten Theorie fällt.
Erst vor kurzem (Ende September 2013) wurde die Existenz eines infrarot-stabilen U(2)_A x U(2)_V-symmetrischen Fixpunkts durch Pelissetto und Vicari verifiziert (die zugehörige anomale Dimension ist mit 0.12 angegeben). Dieses Resultat war sehr
überraschend, da für zwei leichte Quarksorten und abwesende Anomalie ein Phasenübergang erster Ordnung relativ gesichert erschien, insbesondere durch die Epsilon-Entwicklung. Offensichtlich versagt letztere jedoch im Limes D=3, also für drei räumliche Dimensionen, da lediglich Fixpunkte gefunden werden können, die auch nahe D=4 existieren. Inspiriert durch diesen wichtigen Fund führen wir eine FRG-Fixpunktstudie in lokaler Potential-Näherung und hoher Trunkierungsordnung (bis zu zehnter Ordnung in den Feldern) durch. Die Stabilitätsanalyse besitzt jedoch leider keine Aussagekraft, da die Stabilitätsmatrix für den Gaußschen Fixpunkt marginale Eigenwerte besitzt. Wir sind überzeugt davon, dass dies nicht mehr der Fall ist, wenn man über die lokale Potential-Näherung hinausgeht und eine nichtverschwindende anomale Dimension zulässt. Die bisherigen Resultate verdeutlichen die Limitierungen der lokalen Potential-Näherung und der Epsilon-Entwicklung, auf denen unsere Untersuchungen zur Universalitätshypothese in weiten Teilen beruhen. Systematische Untersuchungen der Fixpunktstruktur von Modellen mit acht Ordnungsparameter-Komponenten wurden in der Literatur im Rahmen der Epsilon-Entwicklung durchgeführt und im Rahmen dieser Dissertation innerhalb der lokalen Potential-Näherung. Die meisten der Vorhersagen der Epsilon-Entwicklung konnten bestätigt werden, einige hingegen werden in Frage gestellt durch das Auftauchen marginaler Stabilitätsmatrix-Eigenwerte.
Einige wichtige Fragestellungen können nicht im Rahmen einer dimensional reduzierten Theorie behandelt werden, da die explizite Temperaturabhängigkeit in diesem Fall eliminiert wurde.
Insbesondere ist es in diesem Fall nicht möglich, die Stärke eines Phasenübergangs erster Ordnung vorherzusagen, da diese von Observablen (Meson-Massen und die Pion-Zerfallskonstante im Vakuum) abhängen, an die man bei verschwindender Temperatur fitten muss. Dieser Umstand führt uns zu solchen FRG-Studien, in denen die Temperatur als expliziter Parameter verbleibt.
Ein beträchtlicher Teil der für die vorliegende Dissertation zur Verfügung stehenden Arbeitszeit wurde darauf verwendet, eigene Implementierungen geeigneter Algorithmen zur numerischen Lösung der auftretenden partiellen Differentialgleichungen zu finden. Exemplarische Routinen (welche ausschließlich wohlbekannte Methoden nutzen) sind in einem Anhang zur Verfügung gestellt. Das Hauptziel der vorliegenden Arbeit, die Anwendung auf effektive Modelle für QCD, wird in Kapitel 7 präsentiert. Unsere (vorläufigen) FRG-Studien des linearen Sigma-Modells mit axialer Anomalie bei nichtverschwindender Temperatur erlauben verschiedene Szenarien. Sowohl einen extrem schwach ausgeprägten, als auch einen sehr deutlichen Phasenübergang erster Ordnung, ganz abhängig von der Wahl der Ultraviolett-Abschneideskala und oben genannter Parameter. Sogar ein Phasenübergang zweiter Ordnung scheint möglich für gewisse Parameterwerte. Um verlässliche Schlussfolgerungen zu ziehen, sind weitere Untersuchungen nötig und bereits im Gange. In Kapitel 7 verifizieren wir außerdem bereits bekannte numerische Resultate für das Quark-Meson-Modell.
The main focus of research in the field of high-energy heavy-ion physics is the study of the quark-gluon plasma (QGP). Topic of the present work is the measurement of electron-positron pairs (dielectrons), which grant direct access to some of the key properties of this state of matter, since after their formation they leave the hot and dense medium without significant interaction. In particular, the measurement of the initial QGP temperature is considered a "holy grail" of heavy-ion physics. Therefore, in addition to the analysis of existing data, a feasibility study has been conducted to determine to which extent this goal would be achievable by upgrading the ALICE experiment at CERN.
Dielectrons are produced during all stages of a heavy-ion collision, with their invariant mass reflecting the amount of energy available at the time of their formation. Dielectrons of highest mass are thus produced in the initial scatterings of the colliding nuclei by quark-antiquark annihilation. Correlated electron-positron pairs can also emerge from the decay chains of early-produced pairs of heavy-flavour (HF) particles. During the QGP stage and at the beginning of the hadronic phase, the system emits thermal radiation in the form of photons and dielectrons, which carry information about the medium temperature to the observer. In the final stage of the collision, decays of light-flavour (LF) hadrons produce additional contributions to the dielectron spectrum.
The present work is based on early data from the ALICE experiment recorded from lead-lead collisions at a center-of-mass energy of 2.76 TeV. Due to the limited amount of data, a focus is placed on achieving high efficiencies throughout the analysis. To this end, a special electron identification strategy is developed and a custom track selection applied, together resulting in a tenfold increase in pair efficiency. The dielectron spectrum is evaluated on a statistical basis, using a pair prefilter, which is optimized based on two signal quality criteria, to reduce the fraction of electrons and positrons from unwanted sources at minimum signal loss. In addition, an artifact of the track reconstruction is exploited to suppress pairs from photon conversions and to correct the dielectron yield for a contribution from different-conversion pairs. The main signal uncertainty is extracted from the deviation between results of 20 analysis settings and amounts to 20% in most of the studied kinematic range.
For comparison with the analysis results, a hadronic cocktail consisting of the LF and HF contributions is simulated, which can reasonably well describe the measured dielectron production, with a hint of an enhancement at low invariant mass. Two approaches to model the in-medium modification of the heavy-flavour are followed, resulting in up to 50% suppression, which creates some additional space for a thermal contribution at intermediate mass.
For a complete comparison between experimental data and theoretical expectation, two model calculations are consulted. The Thermal Fireball Model provides predictions for thermal dielectron radiation from the QGP and hadron gas. The data tends to be better described with these additional thermal contributions. For a comparison with a prediction by the UrQMD model, the HF component of the cocktail is subtracted from the data. This results in better agreement if the HF suppression by in-medium effects is taken into account.
The feasibility study in this work has served as a physical motivation for the ALICE upgrade for LHC Run 3. The precision with which the early temperature of the QGP can be determined via dielectrons is chosen as key observable. A multitude of individual contributions are merged into a fully modeled dielectron analysis. The resulting signal-to-background ratio represents some of the expected systematic uncertainties, while from the significance combined with the planned number of lead-lead collisions a realistic "measurement" with statistical fluctuations around the expected dielectron signal is generated using a Poisson sampling technique. Since the HF yield exceeds the QGP thermal radiation by about an order of magnitude, an additional analysis step exploiting the enhanced track reconstruction is introduced to reduce its contribution by up to a factor of five. The resulting reduction in pair efficiency is overcompensated by an up to hundred times higher collision rate. The entire cocktail is then subtracted from the sampled data to isolate the thermal excess yield. The final analysis of this spectrum shows that the inverse slope of the model prediction, which depends directly on the QGP temperature, can be reproduced within statistical and systematic uncertainties of about 10%.
The promising results of this study have contributed on the one hand to the realization of the ALICE upgrade and to a design decision for the new Inner Tracking System, and at the same time represent exciting predictions for upcoming measurements.