Refine
Year of publication
Document Type
- Doctoral Thesis (593) (remove)
Has Fulltext
- yes (593)
Is part of the Bibliography
- no (593) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (593) (remove)
The Standard Model is one of the greatest successes of modern theoretical physics. Itl describes the physics of elementary particles by means of three forces, the electro-magnetisc, the weak and the strong interactions. The electro-magnetic and the weak interaction are rather well understood in comparison to the strong interaction.
The latest is as fundamental as the others, it is responsible for the formation of all hadrons which are classified into mesons and baryons. Well-known examples of the former is the pion and of the latter is the proton and the neutron, which form the nucleus of every atom. This fundamental force is believed to be described by the Quantum Chromodynamics (QCD) theory. According to this theory, hadrons are not elementary particles but are composed of quarks and gluons. The latter are the vector particles of the force and so are bosons of spin 1 and the former constitute the matter and are fermions with spin 1/2. To describe the interaction a new quantum number had to be introduced: the color charge which exists in three different types (blue, green and red). The name has not been chosen arbitrary as elements created from three quarks of different colors are colorless in the same way that mixing the three primary colors leads to white. However, experimentally no colored structure has ever been observed. The quarks and the gluons seem to be confined in colorless hadrons. This property of QCD is called confinement and results from a large coupling constant at low energy (or large distance). For high energy (or small distance), the perturbative analysis of QCD permits to establish the coupling constant to be small and quarks and gluons are almost free. This property is called asymptotic freedom. The possibility for QCD to describe both behaviors is one of its amazing characteristics. However, both phenomena are not well understood and one needs a method to study both the pertubative and the confining regime.
The only known method which fulfills the above criteria is Lattice QCD and more generally Lattice Quantum Field Theory (LQFT). It consists of a discretization of the spacetime and a formulation of QCD on a four-dimensional Euclidean spacetime grid of spacing a. In this way, the theory is naturally regularized and mathematically well-defined. On the other hand, the path integral formalism allows the theory to be treated as a Statistical Mechanics system which can be evaluated via a Markov chain Monte-Carlo algorithm. This method was first suggested by Wilson in 1974 [1] and shortly after Creutz performed the first numerical simulations of Yang-Mills theory [2] using a heath-bath Monte-Carlo algorithm. It appears that this method is extremely demanding in computational power. In its early days the method was criticized as the only feasible simulations involved non-physical values such as extremely large quark masses, large lattice spacing a and no dynamical quarks. With the progress of the computers and the appearance of the super-computer, the studies have come close to the physical point. But one still needs to deal with discrete space time and finite volume. Several techniques have been developed to estimate the infinite volume limit and the continuum limit. The smaller the lattice spacing and the larger the volume, the better the extrapolation to continuum and infinite volume limits is. The simulations are still very expensive and for the moment a typical length of the box is L ≈ 4fm and a ≈ 0.08fm. However, it has been realized simulating pure Yang-Mills theory and other lower dimensional models that the topology is freezing at small a [3]. It was also observed recently on full QCD simulations [4,5].
The typical lattice spacing for which this problem appears in QCD is a ≈ 0.05fm but this value depends on the quark mass used and on the algorithm. The freezing of topology leads to results which differ from physical results. Solving this issue is important for the future of LQCD [6]. Recently several methods to overcome the problem have been suggested, one of the most popular is the used of open boundary conditions [7] but this promising method has still its own issues, mainly the breaking of translation invariance.
Bei den Projekten wie der Europäischen und der Amerikanischen Spallationsneutronenquelle aber auch den geplanten aktuellen Großprojekten wie dem Upgrade von CERN oder ISIS werden negative Ionen benötigt. Bei solchen Anlagen werden am Ende des üblichen linearen Beschleunigers Speicherringe eingesetzt, die den Teilchenstrom akkumulieren und danach longitudinal komprimieren. Durch die Verwendung eines Strahls aus negativen Ionen kann die Injektion in den Speicherring wesentlich vereinfacht werden. In der vorliegenden Dissertation wurde die Extraktion und der Transport von negativen Wasserstoffionen für den ersten Abschnitt eines Linearbeschleunigers, bestehend aus Quelle, Extraktion und niederenergetischem Strahltransport (LEBT), sowohl experimentell als auch theoretisch untersucht. In dieser Sektion wird der grundlegende Strahlstrom und die Strahlqualität eines Linearbeschleunigers definiert. Eine komplette Untersuchung dieses Abschnitts lag bis dato für negative Ionen nicht vor. Um die Unterschiede aufzudecken und die einflußnehmenden Größen zu bewerten, mußten alle Experimente sowohl mit positiven als auch mit negativen Ionen durchgeführt werden. In allen Sektionen führen verschiedene Faktoren zu Strahlstromverlusten und Qualitätsverschlechterung, sprich Emittanzvergrößerung. Im Zuge dieser Arbeit wurde eine Quelle für negative Ionen entwickelt und gebaut und eine neue Methode zur Produktionssteigerung von negativen Ionen entwickelt. Die Innenwand der Plasmakammer der Ionenquelle wurde mit dem Edelmetallkatalysator Platin beschichtet. Die Plasmazusammensetzung innerhalb der Quelle verlagerte sich dadurch auf 80–90% H3 , 5-10% H2 und nur noch ein geringer Anteil an Protonen. Dieser hohe molekulare Anteil war über eine große Spanne aller Plasmaparameter stabil und führt zu einer drastischen Produktionssteigerung von angeregtem H2 und H- . Zur Formierung des Ionenstrahls wurde von mir ein sogenannter stromtoleranten Extraktor entwickelt. Trotz einer Veränderung des extrahierten Stroms um den Faktor 5 kommt es mit diesem Extraktor zu keinem nennenswerten Emittanzwachstum. Dieser eignet sich allgemein für die Extraktion gepulster Ionenstrahlen, im Besonderen aber für die Extraktion von negativen Ionen, da hierbei gleichzeitig Elektronen mit extrahiert werden. Dieser meist hohe Strahlanteil aus hochenergetischen Elektronen muß vor dem Einschuß der negativen Ionen in den RFQ durch ein geeignetes System aus dem Strahl ausgelenkt und abgeführt werden. Grundlagen, Entwicklung und Einflüsse dieser sogenannten Dumpingsysteme werden in Kap. 5 beschrieben. Für die Realisierung einer Niederenergietransportstrecke für negative Ionen stehen die beiden Möglichkeiten des magnetischen LEBT (Kap. 6) und des elektrostatischen LEBT (Kap. 7) zu Verfügung. Mit verschiedenen Meßaufbauten werden im anschließenden Kap. 8 die in den vorigen Kapiteln aufgeführten relevanten Größen der Erzeugung, der Extraktion und des Transport experimentell untersucht. Zusätzlich zu den bekannten klassischen Analyseverfahren kommen im Rahmen dieser Arbeit entwickelte optische Meßmethoden zum Einsatz, mit deren Hilfe man Plasmatemperatur und Plasmaverteilung innerhalb der Ionenquelle bestimmen kann. Mit Hilfe der Untersuchungen gelang es, die Unterschiede zwischen der Extraktion von negativen Ionen und von positiven Ionen aufzuzeigen und mit Hilfe der experimentellen Beobachtungen ein neues Modell für die Extraktion von negativen Ionen zu entwickeln. Mit der vorliegenden Arbeit wurde zudem gezeigt: - Der extrahierbare negative Strom ist hauptsächlich abhängig vom Diffusionsprozeß der Teilchen durch einen positiven Potentialwall innerhalb der Ionenquelle. - Durch Kompensation der magnetischen Felder in der Extraktionsregion wird die Emittanz reduziert und der Strom gesteigert. - Der beobachtete planare Plasmameniskus wird maßgeblich durch die rückfließenden Restgasionen beeinflußt. - Der Transport der negativen Ionen mit einer magnetischen LEBT stellt kein wesentliches Problem dar, da eine hinreichende Anzahl an positiven Restgasionen für den raumladungs-kompensierten Transport vorliegt.
High resolution gamma spectroscopy with sophisticated detector arrays significantly contributes to nuclear structure physics. The Advanced Gamma Tracking Array (AGATA) combines gamma tracking and pulse shape analysis to achieve an efficiency and quality of the spectra that could not be reached with spectrometers of the previous generation. Tracking of the photons interacting in the detector requires a precise knowledge of the individual interaction positions. The task of the pulse shape analysis is to provide a position resolution of better than $5mm$ FWHM, a value that could not be achieved by segmentation of the detector alone. As the signals induced on the electrodes of the detectors depends on the position of interaction, the charge pulses can be used to infer the interaction position. To be able to handle high rates, algorithms that are used have to be optimized to be able to process the data in real-time. Pulse shape analysis is the most involved part of the real-time processing and requires further improvement. This work is dealing with optimizations and improvements of pulse shape analysis algorithms. The Grid Search algorithm localizes the interaction position by comparing the measured pulse shape with precomputed shapes in a database to find the best fit. Two linear filters based on orthogonal transformations have been compared and it could be concluded that the one based on a singular value decomposition of the pulse shapes works best. It speeds up the pulse shape analysis by a factor of roughly $2-3$ (depending on how it is combined with the other modifications). Further, a new method to exclude most signals from the database as best fit has been developed based on the principle of lateration. Most interaction positions can be excluded by means of a fast check and for single interactions on average only $34.8\%$ of all signals from the database have to be compared to the measured one. The overhead introduced by the method is negligible and the reduced number of comparisons almost direclty translates into increased efficiency of the algorithm. A similar method could also be applied for double interactions. Two or more interactions taking place in the same segment require special treatment as the measured signals cannot be directly compared to signals from the database. A new method to calculate the figure of merit that quantifies the fit in case of a double interaction has been introduced. Compared to the unmodified algorithm the new method finds the best fit for double interactions roughly two orders of magnitude faster. Actually, the time required to localize double interactions is almost the same as for single interactions. Apart from optimizing the algorithm, also the achievable position resolution was investigated. It strongly varies inside the volume of the detector and it crucially depends on the shape of all signals in the database and the amplitude of the noise present in the measured signals. As a first step towards a precise analytic expression for the position resolution, an estimate for the probability to find the correct position has been derived.
Heavy-ion collisions at ultra-relativistic energies allow access to the Quark-Gluon Plasma, the deconfined phase of the strong interaction, a state which is believed to have existed fractions of seconds after the big bang. Two-particle correlations at small relative momenta, and particularly their dependence on pair transverse mass, are distinctly sensitive to the reaction dynamics of the fireball created in heavy-ion collisions.
Being the heaviest system to extract a size of the particle emitting source, proton-lambda correlations extend the studied range in pair transverse mass and are therefore well suited to explore the dynamical behavior of the matter created in Pb-Pb collisions at the Large Hadron Collider. The centrality dependence of the extracted source radii affirms the expectations of a larger source for more central collisions. Source radii were attained over a span of more than 0.9 GeV/c2 in mean pair transverse mass with a source radius extracted for a mean transverse mass as high as 2.18 GeV/c2. The source radii decrease with increasing pair transverse mass, as expected in a hydrodynamical picture. The comparison with radii obtained from other particle species exhibits the clear breaking of an elsewhere proposed scaling behavior of source radii with mean pair transverse mass for all particle species.
Gamma-gamma correlations possibly allow to look past the barrier of kinetic freeze-out. Additionally, they bear the potential to solve the puzzling observation in heavy-ion collisions of an excess of photons with a large temperature-like inverse slope parameter on the one hand and an elliptic flow coefficient of photons comparable to the one of hadrons on the other hand. A striking signal in the two-photon correlation function is observed; however it seems likely to not be of quantum statistical origin. A path for further studies is laid out.
In this thesis, we presented the theoretical description of the magnetic properties of various frustrated spin systems. Especially in search of exotic states, such as quantum spin liquids, magnetically frustrated systems have been subject of intense research within the last four decades. Relating experimental observations in real materials with theoretical models that capture those exotic magnetic phenomena has been one of the great challenges within the field of magnetism in condensed matter.
In order to build such a bridge between experimental observations and theoretical models, we followed two complementary strategies in this thesis. One strategy was based on first principles methods that enable the theoretical prediction of electronic properties of real materials without further experimental input than the crystal structure. Based on these predictions, low-energy models that describe magnetic interactions can be extracted and, through further theoretical modelling, can be compared to experimental observations. The second strategy was to establish low-energy models through comparison of data from experiments, such as inelastic neutron scattering intensities, with calculated predictions based on a variety of plausible magnetic models guided by microscopic insights. Both approaches allow to relate theoretical magnetic models with real materials and may provide guidance for the design of new frustrated materials or the investigation of promising models related to exotic magnetic states.
By combining two unique facilities at the Gesellschaft fuer Schwerionenforschung (GSI), the Fragment Separator (FRS) and the Experimental Storage Ring (ESR), the first direct measurement of a proton capture reaction of stored radioactive isotopes was accomplished. The combination of well-defined ion energy, an ultra-thin internal gas target, and the ability to adjust the beam energy in the storage ring enables precise, energy-differentiated measurements of the (p,gamma) cross sections. The new setup provides a sensitive method for measuring (p,gamma) reactions relevant for nucleosynthesis processes in supernovae, which are among the most violent explosions in the universe and are not yet well understood. The cross sections of the 118Te(p,gamma) and 124Xe(p,gamma) reactions were measured
at energies of astrophysical interest. The heavy ions were stored with energies of 6 MeV/nucleon and 7 MeV/nucleon and interacted with a hydrogen gas-jet target.
The produced proton-capture products were detected with a double-sided silicon strip detector. The radiative recombination process of the fully stripped ions and electrons from the hydrogen target was used as a luminosity monitor.
Additionally, post-processing nucleosynthesis simulations within the NuGrid [1] research platform have been performed. The impact of the new experimental results on the p-process nucleosynthesis around 124Xe and 118Te in a core-collapse supernova was investigated. The successful measurement of the proton capture cross sections of radioactive isotopes rises the motivation to proceed with experiments in lower energy regions.
[1] M. Pignatari and F. Herwig, “The nugrid research platform: A comprehensive simulation approach for nuclear astrophysics,” Nuclear Physics News, vol. 22, no. 4, pp. 18–23, 2012.
Das Ziel der Untersuchung von ultra-relativistischen Schwerionenkollisionen ist die Suche nach dem Quark Gluon Plasma (QGP), einem Zustand hochdichter stark wechselwirkender Materie in dem der Einschluss von Quarks und Gluonen in Hadronen aufgehoben ist. Die bisher gewonnenen experimentellen Hinweise deuten daraufhin,daß in Schwerionenkollisionen bei den derzeit höchsten zur Verfügung stehenden Energien von 158 GeV/Nukleon in Pb+Pb Reaktionen am CERN-SPS die Rahmenbedingungen für einen Phasenübergang von hadronischer Materie zu einer partonischen Phaseerfüllt sind. Die exakte Phasenstruktur stark wechselwirkender Materie hingegen ist derzeit noch nicht vollständig verstanden. Da inklusive hadronische Observablen und "penetrierende Proben" nicht direkt sensitiv auf die Existenz und Natur des Phasenübergangs sind, wurde die Analyse von Einzelereignis-"event-by-event"-Fluktuationenvorgeschlagen. Das Fluktuationsverhalten von Einzelereignis-Observablen sollte direkt sensitiv auf die Natur des zu beobachtenden Phasenübergangssein. In dieser Arbeit wurden Fluktuationen in der "chemischen" Zusammensetzung der Teilchenquelle untersucht und erste Ergebnisse werden präsentiert.
The current thesis is devoted to a systematic study of fluctuations and correlations in heavy-ion collisions, which might be considered as probes for the phase transition and the critical point in the phase diagram, within the Hadron-String- Dynamics (HSD) microscopic transport approach. This is a powerful tool to study nucleus-nucleus collisions and allows to completely simulate experimental collisions on an event-by-event basis. Thus, the transport model has been used to study fluctuations and correlations including the influence of experimental acceptance as well as centrality, system size and collision energy. The comparison to experimental data can separate the effects induced by a phase transition since there is no phase transition in the HSD version used here. Firstly the centrality dependence of multiplicity fluctuations has been studied. Different centrality selections have been performed in the analysis in correspondence to the experimental situation. For the fixed target experiment NA49 events with fixed numbers of the projectile participants have been studied while in the collider experiment PHENIX centrality classes of events have been defined by the multiplicity in certain phase space region. A decrease of participant number fluctuations (and thus volume fluctuations) in more central collisions for both experiments has been obtained. Another area of this work addresses to transport model calculations of multiplicity fluctuations in nucleus-nucleus collisions as a function of colliding energy and system size. This study is in full correspondence to the experimental program of the NA61 Collaboration at the SPS. Central C+C, S+S, In+In, and Pb+Pb nuclear collisions at Elab = 10, 20, 30, 40, 80, 158 AGeV have been investigated. The expected enhanced fluctuations - attributed to the critical point and phase transition - can be observed experimentally on top of a monotonic and smooth ‘hadronic background’. These findings should be helpful for the optimal choice of collision systems and collision energies for the experimental search of the QCD critical point. Other observables are fluctuations of ratios of hadrons (e.g. pions, kaons, protons, etc.) which are not so much affected by volume fluctuations. In particular HSD results for the kaon-to-pion ratio fluctuations, which has been regarded as promising observable for a long time, are presented from low SPS energies up to high energies at RHIC. In addition to the HSD calculations statistical model is also used in terms of microcanonical, canonical and grand canonical ensembles. Further a study of the system size event-by-event fluctuations causing rapidity forward-backward correlations in relativistic heavy-ion collisions is presented. The HSD simulations reveal strong forward-backward correlations and reproduce the main qualitative features of the STAR data in A+A collisions at RHIC energies. It has been shown that strong forward-backward correlations arise due to an averaging over many different events that belong to one centrality bin. An optimization of the experimental selection of centrality classes is presented, which is relevant for the program of the NA61 collaboration at CERN, the low-energy program at RHIC, as well as future experiments at FAIR.
Quantum chromodynamics predicts the existence of a phase transition from hadronic to quark-gluon matter when temperature and pressure are sufficiently high. Colliding heavy nuclei at ultra-relativistic speeds allows to deposit large amounts of energy in a small volume of space, and is the only available experimental mean to produce the extreme conditions necessary to obtain the deconfined state. Numerous models and ideas were developed in the last decades to study heavy ion physics and understand the properties of extremely heated and compressed nuclear matter. With the ever increasing energy available in the center of mass frame (and thus number of particles produced) and the development of large acceptance detectors, it has become possible to study the fluctuations of physical quantities on an event-by-event basis, and access thermodynamical properties not present in particle spectra. The characteristics of the highly excited matter produced, e.g. thermalization, effect of resonance decay. . . can be investigated by fluctuation analyses. In fact, fluctuations are good indicators for a phase transition and a plethora of fluctuation probes have been proposed to pin down the existence and the properties of the QGP. We study various fluctuation quantities within the Ultra-relativistic Quantum Molecular Dynamics UrQMD and the quantum Molecular Dynamics qMD models. UrQMD is based on hadron and string degrees of freedom and allows to disentangle purely hadronic effects. In contrast, the qMD model includes an explicit transition from quark to hadronic matter and can serve to test adequate probes of the initial QGP state. We show that the qMD model can reasonably reproduce various experimental particles rapidity distributions and transverse mass spectra in wide energy range. Within the frame of the dynamical recombination procedure used in qMD, we study the enhancement of protons over pions (p/π) ratio in the intermediate pt range (1.5 < pt < 2.5). We show that qMD can reproduce the large p/π ≈ 1 observed experimentally at RHIC energies at hadronization. However, the subsequent decay of resonances makes the ratio fall to values incompatible with experimental data. We thus conclude that resonance decay might have a drastic influence on this observable in the quark recombination picture. Charged particles multiplicity fluctuations measured at SPS by the NA49 collaboration are enhanced in midperipheral events for Pb+Pb collisions at Elab = 160 AGeV. This feature is not reproduce by hadron-string transport approaches, which show a flat centrality dependence, within the proper experimental acceptance and with the proper centrality selection procedure. However, we show that the behavior of multiplicity fluctuations in transport codes is similar to the experimental result in full 4π acceptance. We identify the centrality selection procedure as the reason for the enhanced particle multiplicity fluctuations in midperipheral reactions and argue that it can be used to distinguish between different scenarios of particle productions. We show that experimental data might indicate a strong mixing of projectile and target related production sources. Strangeness over entropy K/π and baryon number over entropy p/π ratio fluctuations have been measured by the NA49 experiment in the SPS energy range, from Elab = 20 AGeV up to Elab = 160 AGeV. We investigate the sensitivity of this observable to kinematical cuts and discuss the influence of resonance decay. We find the dynamical p/π ratio fluctuations to increase with beam energy, in agreement with the measured data points. On the contrary, the dynamical K/π ratio fluctuations are essential flat as a function of centrality and depend only weakly on the kinematical cuts applied. Our results are in line with the simulations performed earlier by the NA49 collaboration in their detector acceptance filter. Finally, we focus on the correlations and fluctuations of conserved charges. It was proposed that these fluctuations are sensitive to the fractional charge carried by the quarks in the initial QGP stage and survive the whole course of heavy ion reactions. A crucial point is the influence of hadronization that may relax the initial QGP fluctuation/correlation signals to their hadronic values. We use the quark Molecular Dynamics qMD model to disentangle the effect of recombination-hadronization on charged particles ratio fluctuations, charge transfer fluctuations, baryon number-strangeness correlation coefficient and various ratios of susceptibilities (i.e. correlations over fluctuations). We find that the dynamical recombination procedure implemented in the qMD model destroys all studied initial QGP fluctuations and correlations and might ex- plain why no signal of a phase transition based on event-by-event fluctuations was found in the experimental data until now.
This thesis aims to investigate the properties of hadronic matter by analyzing fluctuations of conserved charges. A transport model (SMASH) is used for these studies to achieve this. The first part of this thesis focuses on examining transport coefficients, specifically the diffusion coefficients of conserved charges and the shear viscosity. The second part investigates equal-time correlations of particle numbers in the form of cumulants. The last chapter studies different aspects of the isobar collision systems Ru and Zr.
As a first step, the hadronic medium and interactions between its constituents are introduced, and simultaneously, their impact on transport coefficients is investigated. The methodology is verified by comparing the results of SMASH with Chapman-Enskog calculations, followed by examining 3-to-1 multi-particle reactions, revealing their influence on shear viscosity and electrical diffusion. The analysis of the full hadron gas considers angle-dependent cross-sections and additional elastic cross-sections via the AQM description, showing significant impacts on transport coefficients. The dependency on the number of degrees of freedom is explored, with noticeable effects on diffusion coefficients but a smaller influence on the shear viscosity. At non-zero baryon chemical potential, the diffusion coefficients are strongly influenced, while the shear viscosity remains unaffected. Overall, the study underscores the importance of individual cross-sections and the modeling of interactions on transport coefficients.
The following chapter explores fluctuations of conserved charges, crucial for understanding phase transitions in heavy-ion collision from the quark-gluon plasma to the hadronic phase. Using SMASH, the impact of global charge conservation on particle number cumulants in subvolumes of boxes simulating infinite matter is studied. Comparisons with simpler systems highlights the influence of hadronic interactions on cumulants, especially via charge annihilation processes and the results from SMASH shows agreement with analytical calculations. Calculations at finite baryon chemical potential reveals a transition from a Poisson to Skellam distribution within the net proton cumulants. It is shown that an unfolding procedure to obtain the net baryon fluctuations from the net proton ones deviates from the actual net baryon result, particularly in larger volumes. Finally, net proton correlations at vanishing baryon chemical potential align with ALICE measurements and the net proton cumulants are unaffected by deuteron formation.
In the next step, the goal is to investigate critical fluctuations in the hadronic medium. Therefore, the hadronic system is initialized with critical equilibrium fluctuations by coupling the hadron resonance gas with the 3D Ising model. The single-particle probability distributions are derived from the principle of maximum entropy. Evolving these distributions in SMASH, their development in an expanding sphere adjusted to experimental conditions can be analyzed. It reveals resonance decay and formations as the primary source that affects the particle cumulants. Because of isospin randomization processes, critical fluctuations are better preserved in net nucleon numbers. However, for the strongest coupling investigated in this work, correlations of the critical field are still present in the final state of the evolution in the net proton fluctuations. Examining cumulant dependence on rapidity windows shows a non-monotonic trend.
In the third part, collisions involving the isobars Ru and Zr are studied at a center-of-mass energy of 200 GeV. Initially, SMASH is used to study the initial conditions to hydrodynamical simulations, emphasizing the importance of the nuclear structure of isobars on the geometry of the collision area. It is found that the deformation parameters notably influence the initial state. Correlations between nucleon-nucleon pairs on eccentricity fluctuations yield no significant effect. Subsequently, the hydrodynamic model vHLLE evolves the previously explored initial conditions and for the transition between the hydrodynamic and kinetic descriptions, the Cooper-Frye formula is used. Usage of the canonical ensemble ensures the exact conservation of the conserved charges B, Q, and S. The neutron skin effect, which changes the charge distribution within Ru nuclei, is additionally considered. Fluctuations are assessed, revealing suppression in large rapidity windows due to global charge conservation. The hadronic phase modifies fluctuations of net pions, net kaons, and net protons via annihilation processes, yet fluctuations remain unaffected by the neutron skin effect.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
In einer Gabor-Linse wird durch ein axiales magnetisches Feld und ein longitudinales Potential ein so genanntes nichtneutrales Plasma (NNP) stabil eingeschlossen. Das elektrische Feld der Ladungsträgerwolke wirkt fokussierend auf Ionenstrahlen, die das Linsenvolumen passieren. Dieses Konzept, das D. Gabor 1946 vorstellte, wurde hinsichtlich seiner Eignung zur Ionenstrahlfokussierung seit den 1970-er Jahren untersucht, denn Gabor-Linsen ermöglichen eine elektrostatische Fokussierung erster Ordnung bei gleichzeitiger Raumladungskompensation im gesamten Transportkanal und haben damit einen großen Vorteil gegenüber den konventionellen Linsensystemen. Hauptsächlich zwei Gründe sprachen jedoch nach den meisten Experimenten gegen einen Einsatz dieses Linsentyps in Beschleunigern: Die erreichte Einschlusseffizienz und die Abbildungseigenschaften der eingeschlossenen Raumladungswolke blieben weit hinter den Erwartungen zurück. Erst ein geändertes Konzept zur Befüllung der Linse mit Elektronen und ein parallel zu den Experimenten entwickeltes numerisches Verfahren zur Bestimmung der Plasmaparameter ermöglichte die Entwicklung eines Linsensystems, das die Vorteile gegenüber konventionellen Ionenoptiken sichtbar werden ließ In der vorliegenden Arbeit wird neben der theoretischen Beschreibung des Plasmaeinschlusses der Aufbau und die Funktionsweise einer Gabor-Linse dargestellt. Experimentelle Befunde zur Strahlinjektion in einen RFQ unter Verwendung einer LEBT-Sektion, bestehend aus zwei Gabor-Linsen werden präsentiert. Nach der Beschleunigung des Ionenstrahles durch einen RFQ auf eine Energie von etwa 440 keV sollten Transportexperimente zeigen, ob eine neu entwickelte Hochfeld Gabor-Linse (HGL) zur Fokussierung dieses Strahles eingesetzt werden kann. Die Strahlenergie ist dabei mit der vergleichbar, die im HIF-Projekt (Heavy Ion Fusion) für die Injektion des Bi1+-Strahles in die erste Beschleunigerstruktur geplant ist. Insbesondere war bei den Experimenten mit dem durch den RFQ beschleunigten Strahl die Einschlusseffizienz bezüglich der Elektronendichte in der HGL von Interesse und auch das Verhalten des NNP bei der Fokussierung eines gepulsten Ionenstrahles.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
The brain is a large complex system which is remarkably good at maintaining stability under a wide range of input patterns and intensities. In addition, such a stable dynamical state is able to sustain essential functions, including the encoding of information about the external environment and storing memories. In order to succeed in these challenging tasks, neural circuits rely on a variety of plasticity mechanisms that act as self-organizational rules and regulate their dynamics. Based on toy models of self-organized criticality, this stable state has been proposed to be a phase transition point, poised between distinct types of unhealthy dynamics, in what has become known as the critical brain hypothesis. It is not yet known, however, if and how self-organization could drive biological neural networks towards a critical state while maintaining or improving their learning and memory functions.
Here, we investigate the emergence of criticality signatures in the form of neuronal avalanches due to self-organizational plasticity rules in a recurrent neural network. We show that power-law distributions of events, widely observed in experiments, arise from a combination of biologically inspired synaptic and homeostatic plasticity but are highly dependent on the external drive. Additionally, we describe how learning abilities and fading memory emerge and are improved by the same self-organizational processes. We finally propose an application of these enhanced functions, focusing on sequence and simple language learning tasks.
Taken together, our results suggest that the same self-organizational processes can be responsible for improving the brain’s spatio-temporal learning abilities and memory capacity while also giving rise to criticality signatures under particular input conditions, thus proposing a novel link between such abilities and neuronal avalanches. Although criticality was not verified, the detailed study of self-organization towards critical dynamics further elucidates its potential emergence and functions in the brain.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
The present thesis is primarily concerned with the application of the functional renormalization group (FRG) to spin systems. In the first part, we study the critical regime close to the Berezinskii-Kosterlitz-Thouless (BKT) transition in several systems. Our starting point is the dual-vortex representation of the two-dimensional XY model, which is obtained by applying a dual transformation to the Villain model. In order to deal with the integer-valued field corresponding to the dual vortices, we apply the lattice FRG formalism developed by Machado and Dupuis [Phys. Rev. E 82, 041128 (2010)]. Using a Litim regulator in momentum space with the initial condition of isolated lattice sites, we then recover the Kosterlitz-Thouless renormalization group equations for the rescaled vortex fugacity and the dimensionless temperature. In addition to our previously published approach based on the vertex expansion [Phys. Rev. E 96, 042107 (2017)], we also present an alternative derivation within the derivative expansion. We then generalize our approach to the O(2) model and to the strongly anisotropic XXZ model, which enables us to show that weak amplitude fluctuations as well as weak out-of-plane fluctuations do not change the universal properties of the BKT transition.
In the second part of this thesis, we develop a new FRG approach to quantum spin systems. In contrast to previous works, our spin functional renormalization group (SFRG) does not rely on a mapping to bosonic or fermionic fields, but instead deals directly with the spin operators. Most importantly, we show that the generating functional of the irreducible vertices obeys an exact renormalization group equation, which resembles the Wetterich equation of a bosonic system. As a consequence, the non-trivial structure of the su(2) algebra is fully taken into account by the initial condition of the renormalization group flow. Our method is motivated by the spin-diagrammatic approach to quantum spin system that was developed more than half a century ago in a seminal work by Vaks, Larkin, and Pikin (VLP) [Sov. Phys. JETP 26, 188 (1968)]. By embedding their ideas in the language of the modern renormalization group, we avoid the complicated diagrammatic rules while at the same time allowing for novel approximation schemes. As a demonstration, we explicitly show how VLP's results for the leading corrections to the free energy and to the longitudinal polarization function of a ferromagnetic Heisenberg model can be recovered within the SFRG. Furthermore, we apply our method to the spin-S Ising model as well as to the spin-S quantum Heisenberg model, which allows us to calculate the critical temperature for both a ferromagnetic and an antiferromagnetic exchange interaction. Finally, we present a new hybrid formulation of the SFRG, which combines features of both the pure and the Hubbard-Stratonovich SFRG that were published recently [Phys. Rev. B 99, 060403(R) (2019)].
This thesis is concerned with the investigation of static and dynamic properties of quantum Heisenberg paramagnets in the absence of a magnetic field and therefore for vanishing magnetization. For this purpose a new formulation of the spin functional renormalization group (SFRG) is employed. The first manifestations of the SFRG were developed by Krieg and Kopietz, motivated by the FRG approach to ordinary field theories and the older works of Vaks, Larkin and Pikin on diagrammatic methods for spin operators.
The main idea is to study quantum spin systems by considering the evolution of correlation functions under a continuous deformation of the interaction between magnetic moments, starting from a solvable limit. This leads to nonperturbative results for quantities like the spin-spin correlation function. After a basic introduction to the phenomena and concomitant problems discussed in this thesis, a detailed description of the SFRG method in its initial formulation is given in the second chapter. We start with the generating functional of connected imaginary-time spin-correlation functions GΛ [h], for which an exact flow equation is derived. A particular issue, already pointed out by Krieg and Kopietz, arises here, namely the singular non-interacting limit of its subtracted Legendre transform ΓΛ [m]. As a consequence the initial condition of that functional does not have a proper series expansion in powers of m. This prevents us from working directly within a pure one-particle irreducible (1-PI) parametrization of the correlation functions, as is often done in the context of field theories. Thus motivated, we develop a workaround explicitly tailored to paramagnets, which provides us with a functional that has a well-behaved Legendre transform. The new approach is based on a different treatment of fluctuations at zero and finite frequencies, analogous to a previous hybrid formulation for the symmetry-broken phase. Certain properties, considered to be highly relevant for isotropic paramagnets, as well as previous observations, already made in the study of simpler spin systems like the Ising model, serve as additional justifications for choosing this construction.
In the third chapter our new method is assessed by calculating the dynamic susceptibility G(k, iω) and thus the dynamic structure factor S(k, ω) in the symmetric phase. For this purpose an approximate integral equation for the dynamic polarization function Π̃(k, iω) was derived. This equation results from a truncation of the hierarchy of flow equations and contains static quantities, that are assumed to be known from another source. Our first application is the high-temperature limit T → ∞ in d ≤ 3 dimensions. Salient features, believed to be part of the spin dynamics in isotropic Heisenberg magnets are also exhibited by our solution, like (anomalous) diffusion in a suitable hydrodynamic limit. Moreover we obtain the same order of magnitude for the diffusion coefficient D as in experiments and other theoretical calculations. Other aspects do not entirely agree with previous approaches.
Afterwards we continue by investigating systems close to the critical point Tc. Dynamic scaling forms for Π̃(k, iω) and S(k, ω), which, like spin diffusion, are postulated on the basis of quite general physical arguments, are reproduced. Agreement of the line-shapes 2with neutron scattering experiments at T = Tc is found to be satisfying, with deviations for ω → 0, that may be attributed to the simplicity of the approximation, like at infinite temperature.
Finally, we focus our attention on the thermodynamic properties of isotropic Heisenberg paramagnets by calculating the static susceptibility G(k). For this purpose we employ simple truncation schemes of the flow equations for the static self-energy ΣΛ (k) and four-spin vertex ΓΛ , together with a basic ansatz for the dynamic polarization Π̃(k, iω) in quantum systems. As a result we obtain transition temperatures Tc of three-dimensional nonfrustrated magnets within an accuracy of 5 percent compared to established benchmark values from Quantum Monte Carlo and high temperature expansion series. We conclude this chapter by giving an outlook on the application of our method to frustrated systems, which may require a combined non-trivial calculation of static and dynamic properties.
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
The main purpose of the Transition Radiation Detector (TRD) located in the central barrel of ALICE (A Large Ion Collider Experiment) is electron identification for separation from pions at momenta pt > 1 GeV/c, since in this momentum range the measurements of the specific energy loss (dE/dx) of the Time Projection Chamber (TPC) is no longer sufficient. Furthermore, it provides a fast trigger for high transverse momentum charged particles (pt > 3 GeV/c) and makes a significant contribution to the optimization of the tracking of reaction products in heavy-ion collisions. Its whole setup comprises 18 supermodules out of which 13 are presently operational and mounted cylindrically around the beam axis of the Large Hadron Collider (LHC). A supermodule contains either 30 or 24 chambers, each consisting of a radiator for transition radiation creation, a drift and an amplifying region followed by the read-out electronics. In total, the TRD is an array of 522 chambers operated with about 28 m3 of a Xe-CO2 [85-15%] gas mixture. During the work of this thesis, the testing, commissioning, operation and maintenance of detector parts, the gas system and its online quality monitor, improvements on the detector control user-interface and studies about a new pre-trigger module for data read-out have been accomplished. The TRD gas system mixes, distributes and circulates the operational gas mixture through the detector. Its overall optimization has been achieved by minimizing gas leakage, surveying, controlling, maintaining and continuously improving it as well as designing and carrying out upgrades. Gas quality monitors of the type \GOOFIE" (Gas prOportional cOunter For drIfting Electrons) can be used in gaseous detectors as on-line monitors of the electron drift velocity, gain and gas properties. One of these devices has been implemented within the TRD gas system, while another one surveys the gas of the TPC. Both devices had to be adapted to the specific needs of the detectors, were under constant surveillance and control, and needed to be further developed on both hardware and software side. To improve the operation of the TRD, modifications on its DCS software (Detector Control System) used for monitoring, controlling, operating, regulating and configuring of hardware and computing devices have been carried out. The DCS is designed to enable an operator to interact with equipment through user interfaces that display the information from the system. The main focus of this work was laid on the optimization of the usability and design of the user interface. The front-end electronics of the TRD require an early start signal (\pre-trigger") from the fast forward detectors or the Time-Of-Flight detector during the running periods. The realization of a new hardware concept for the read-out of the TRD pre-trigger system has been studied and first tests were performed. This new module called PIMDDL (Pre-trigger Interface Module Detector Data Link) is meant to acquire all data necessary to simulate and predict the full pre-trigger functionality, and to verify its proper operation. Furthermore, it shall provide all functionalities of the so-called Control Box Bottom as well as keep the functionalities of the already existing PIM (Pre-trigger Interface Module) in order to combine and replace these two modules in the future.
In den vergangen Jahren wurde erkannt, dass eine Quantenfeldtheorie (QFT) namens Quantenchromodynamik (QCD) die richtige Theorie der starken Wechselwirkungen ist. QCD beschreibt erfolgreich die starken Wechselwirkungen, die Quarks zu Nukleonen und Nukleonen zu Atomkernen zusammenbinden. Jedoch ist die theoretische Beschreibung vieler Phänomene der starken Wechselwirkung aufgrund des starken Kopplungsverhaltens bei niedrigen Energien schwierig. Stoßexperimente mit Schwerionen sind ein möglicher Weg, um die charakteristischen Phänomene und Eigenschaften der QCD-Materie zu untersuchen. In Stoßexperimenten mit Schwerionen werden schwere (d.h. große) Atomkerne aufeinander geschossen, beispielsweise Gold (am RHIC) oder Blei (am CERN, LHC), mit einer ultrarelativistischen Energie √s im Schwerpunktsystem. Auf diese Art ist es möglich, eine große Menge von Materie mit hoher Energiedichte hervorzubringen. Das Ziel von Schwerionenkollisionen ist die Erzeugung und Charakterisierung einer makroskopischen Phase von freien Quarks und Gluonen im lokalen thermischen Gleichgewicht. Ein solcher Aggregatzustand kann neue Informationen über das QCD-Phasendiagramm und den QCD-Phasenübergang liefern. Man nimmt an, dass ein solcher Übergang stattfand, als sich die Materie des frühen Universums von einem Plasma aus Quarks und Gluonen (QGP) in ein Gas von Hadronen umwandelte...
A powerful technique to distinguish the enantiomers of a chiral molecule is the Coulomb Explosion Imaging (CEI). This technique allows us to determine the handedness of a single molecule. In CEI, the molecule becomes charged by losing many electrons in a very short period of time by interacting with the light. The repulsion forces between the positive charged particles of the molecule leads the molecule to break into parts-fragments. By measuring the three vector momentum of (at least) four fragments, the handedness observable can be determined. In this thesis, CEI is induced by absorption of a single high energy photon, which creates an inner-shell hole (K shell) of the molecule. The subsequent cascade of Auger decays lead to fragmentation. We decided to work with the formic acid molecule in this thesis. Two different experiments were conducted. The first experiment focused on exciting electrons to different energy states, while the second experiment focused on extracting directly a photoelectron to the continuum and measure the angular distribution of the photoelectron in the molecular frame. The primary goal was to search for chiral signal in a pure achiral planar molecule under the previous electron processes. The results of these findings were further implemented to two more molecules.
In der hier vorliegenden Arbeit wurden Fragen der atomaren Korrelation sowie Verschränkung untersucht und ein Beobachtungsfenster geöffnet, durch welches es möglich ist, Einblick in die Grundzustandswellenfunktion von Helium zu erhalten. Der Elektronentransfer (Pq++He->P(q-1)++He+) in schnellen Ion-Atom-Stößen findet im Bereich des Überlapps der Wellenfunktionen des gebundenen Anfangs- und Endzustandes statt [JOpp28a, MMcD70]. Daher kann diese Reaktion besonders selektiv an der Grundzustandswellenfunktion angreifen. Die bei der Transferionisation (Pq++He->P(q-1)++He2++e-) zusätzlich stattfindende Ionisation involviert auch das zweite Elektron. Dadurch ist es möglich die komplexe Vielteilchendynamik zu untersuchen und wie später in dieser Arbeit gezeigt wird, unter bestimmten Bedingungen auch sensitiv auf die Anfangszustandskorrelation zu sein! Die Messungen wurden mit H+-, He+- und He2+-Projektilen bei Einschussenergien von 40 - 630 keV/u (1,25 < vP < 5,02 a. u.) durchgeführt. Durch den Elektronentransferprozess wird auch die Vermessung des Endzustandes, den Impulsen, aller drei Teilchen (Projektil, Elektron und He2+-Rückstoßion) erleichtert. Durch das umgeladene, dann neutrale, Projektil werden zusätzlich die Post-Collision-Effekte minimiert. Zur experimentellen Untersuchung kommt die seit Jahren etablierte Technologie des Reaktionsmikroskops (COLTRIMS, COLd Target Recoil Ion Momentum Spectroscopy) zum Einsatz [HSch89, RDoe00a, JUll03], die sich durch eine 4¼-Impulsakzeptanz für alle emittierten Teilchen auszeichnet. Nach Kreuzung der Projektilionen mit einem kalten und wohl lokalisierten Gasstrahl werden die umgeladenen Projektile detektiert. Die im Überlappbereich entstehenden Elektronen und Ionen werden mittels elektrischer und magnetischer Felder ebenfalls auf orts- und zeitauflösenden Detektoren projiziert. Anhand des Auftreffortes und der Flugzeit können die dreidimensionalen Impulsvektoren eindeutig rekonstruiert werden. Je nach Energie Projektile dominieren unterschiedliche atomare Reaktionsmechanismen. Entsprechend sind es zwei Fragenkomplexe, denen sich diese Arbeit hauptsächlich widmet: - Was ist die Reaktionsdynamik? Welche Mechanismen tragen zur Reaktion bei und wie hängen diese von Projektilladung und -energie ab? - Lässt sich die Grundzustandswellenfkt. mit dieser Technik abbilden? Die erzielten Ergebnisse sehen wie folgt aus: - Im Bereich langsamer Stöße (vP <= vB;e) wird der Stoßprozess in einem quasimolekularen Bild beschrieben (Sattelpunktionisation). Hier konnten im Wesentlichen die experimentellen Ergebnisse von Schmidt zum symmetrischen Stoßsystems He2+/He [LSch00] bestätigt und zu höheren Projektilgeschwindigkeiten fortgeschrieben werden (60 keV/u). Für die Stoßsysteme He+/He und H+/He wurden sehr ähnliche Emissionsstrukturen im Impulsraum gefunden. - Bei allen untersuchten Projektilenergien und Stoßsystemen wurde eine vom Elektroneneinfang unabhängige Stoßionisation durch Wechselwirkung mit dem Projektil (Binary Encounter, BE) gefunden. Die Erwartung, dass der Targetkern nur Beobachter der Ionisation ist, wurden eindeutig widerlegt und die Abweichungen als Folge von Korrelationseffekten gedeutet. - Speziell für das Stoßsystem He+/He bei 60 keV/u wurden sehr viele im Geschwindigkeitsraum um vP verteilte Elektronen beobachtet und einem Dreistufenprozess zugeschrieben: Zuerst erfolgt die Ionisation des Projektils und anschließend ein resonanter Zweielektroneneinfang. - Wird ein Elektron sehr schnell entfernt, wie durch den Elektroneneinfang bei hohen Projektilgeschwindigkeiten (vP ¸ 3 a. u.) findet die Ionisation sehr häufig durch Shake-off [TAbe67] statt. Die Elektronen wurden entgegen der Strahlrichtung emittiert, zu negativen Longitudinalimpulsen. Darüberhinaus wurde kein Unterschied zwischen den verschiedenen Projektilen beobachtet. Da für den Shake-off-Prozess unter den hier realisierten Bedingungen das Projektil nicht mit dem emittierten Elektron wechselwirkte, spiegelt die Elektronenimpulsverteilung direkt den, durch den Elektroneneinfang präparierten Anteil, der Grundzustandswellenfunktion wider [AGod04, MSch05]. Theoretische Rechnungen bestätigen, dass die rückwärtige Elektronenemission nur durch die stark korrelierten nicht-s2-Anteile im Heliumgrundzustand zu erklären ist. Diese Beimischungen höherer Drehimpulse von weniger als 2 % konnten entgegen der verbreiteten Lehrmeinung zum ersten Mal experimentell nachgewiesen und vermessen werden.
We consider the theory of high temperature superconductivity from the viewpoint of a strongly correlated electron system. In particular, we discuss Gutzwiller projected wave functions, which incorporate strong correlations by prohibiting double occupancy in orbitals with strong on-site repulsion. After a general overview on high temperature superconductivity, we discuss Anderson’s resonating valence bond (RVB) picture and its implementation by renormalized mean field theory (RMFT) and variational Monte Carlo (VMC) techniques. In the following, we present a detailed review on RMFT and VMC results with emphasis on our recent contributions. Especially, we are interested in spectral features of Gutzwiller-Bogoliubov quasiparticles obtained by extending VMC and RMFT techniques to excited states. We explicitly illustrate this method to determine the quasiparticle weight and provide a comparison with angle resolved photoemission spectroscopy (ARPES) and scanning tunneling microscopy (STM). We conclude by summarizing recent successes and by discussing open questions, which must be solved for a thorough understanding of high temperature superconductivity by Gutzwiller projected wave functions.
HADES : ein Dielektronenspekrometer hoher Akzeptanz für relativistische Schwerionenkollisionen
(1995)
Das Dielektronenspektrometer HADES (High Acceptance Dielectron Spectrometer) wird gegenwärtig am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) aufgebaut. Die Spektroskopie von Elektron-Positron-Paaren (Dielektronen) aus Kern-Kern-Kollisonen mit Projektilenergien von 1 bis 2 GeV/Nukleon verspricht einen Einblick in die Eigenschaften von Hadronen bei Dichten, die das Dreifache von normaler Kerndichte erreichen. Es wird erwartet, daß sich die Massenverteilung der unterhalb der Schwelle erzeugten leichten Vektormesonen rho. omega und phi anhand ihres Zerfalls in Dielektronen experimentell untersuchen läßt. Die Beobachtung von Massenänderungen kann Hinweise auf die Restauration der im Vakuum gebrochenen chiralen Symmetrie geben. Die Eigenschaften des Spektrometers wurden in der vorliegenden Arbeit mit Simulationsrechnungen (GEANT) untersucht und optimiert. Zur Leptonenidentifizierung dient ein ortsempfindlicher Cerenkov-Zähler (RICH1) mit Gasradiator, azimutal symmetrischem Spiegel und V-Photonendetektor. Durch die geometrische Anordnung des RICH und mit sechs supraleitenden Spulen in toroidaler Anordung erreicht HADES eine Polarwinkelakzeptanz von 18 bis 85 Grad. Die Feldverteilung ist der kinematischen Impulsverteilung angepaßt und garantiert Feldfreiheit im RICH. Je ein Paar Minidriftkammern vor und hinter dem Magnetfeldbereich messen die Trajektorie zur anschließenden Rekonstruktion von Impuls, Winkel und Vertex. Zuletzt passieren die Teilchen META, eine Detektorkombination von Szintillatoren und Schauerdetektor. Aus der Multiplizität geladener Teilchen in den Szintillatoren werden zentrale Kollisionen für den Trigger der ersten Stufe selektiert. Den Trigger der zweiten Stufe definieren zwei erkannte Ringe im RICH, die jeweils einem Elektronensignal in META zuzuordnen sind. HADES ist ein Experiment der zweiten Generation. Die Messungen mit dem Dileptonenspektrometer DLS am BEVALAC (Berkeley, USA) ergaben nur für leichte Stoßsysteme e+e- -Spektren guter Statistik. HADES besitzt mit 35% die hundertfache geometrische e+e- - Akzeptanz des DLS. Darüber hinaus können mit einer Massenauflösung von weniger als 1% (DLS 12%) die e+e- -Beiträge von omega- und rho-Meson getrennt werden. Es ist für die Anforderungen von Au+Au-Kollisionen bei hohen Kollisionsraten von 106 pro Sekunde konzipiert. Bei einer Anzahl von bis zu 170 Protonen und 20 geladenen Pionen sowie mehr als 0.1 e+e- -Paaren durch den pi 0-Zerfall werden pro zentralerKollision etwa 10 exp 6 Dielektronen aus dem rho- oder omega-Zerfall erwartet. Leptonen, die aus dem Zerfall verschiedener pi 0-Mesonen stammen, bilden kombinatorische e+e- -Paare, die auch im e+e- -Massenbereich der Vektormesonen beitragen können. Durch Rekonstruktion und durch Methoden der Untergrunderkennung wird der e+e- -Untergrund um nahezu zwei Größenordnungen unterdrückt, während die Effizienz für echte Dielektronen etwa 55% beträgt. Die Leptonen des verbleibenden Untergrunds stammen zu mehr als 50% aus dem pi-0-Dalitz-Zerfall und zu etwa 40% aus externer Paarkonversion von ..-Quanten des Zerfalls pi 0.. , wobei Konversionsprozesse im Radiatorgas und im Target zu gleichen Teilen beitragen. pi 0-Dalitz-Zerfall überwiegt im kombinatorischen Massenspektrum bis 500 MeV/c2 ; oberhalb von 500 MeV/c2 dominiert externe Paarkonversion.
The first measurement of the fluctuation of the kaon-to-proton ratio in relativistic heavy-ion collisions is presented. This thesis details the analysis procedure for identifying kaons and protons using the NA49 experiment at CERN-SPS and discusses the results in the context of the current state of the field.
In this thesis, Hanbury-Brown-Twiss (HBT) interferometry is used together with the Ultrarelativistic Quantum Molecular Dynamics (UrQMD) to analyse the time and space structure of heavy-ion collisions.
The first chapter after the introduction gives an overview of the different types of models used in the field of heavy-ion collisions and a introduction of the UrQMD model in more detail. The next chapter explains the basics of Hanbury-Brown-Twiss correlations, including azimuthally sensitive HBT (asHBT).
Results section:
4. Charged Multiplicities from UrQMD
5. Formation time via HBT from pp collisions at LHC
6. HBT analysis of Pb+Pb collisions at LHC energies
7. HBT scaling with particle multiplicity
8. Compressibility from event-by-event HBT
9. Tilt in non-central collisions
10. Shape analysis of strongly-interacting systems
11. Measuring a twisted emission geometry
This thesis covers the standard integrated HBT analyses, extracting the Pratt-Bertsch radii, at LHC energies. The analyses at these energies showed a too soft expansion in UrQMD probably related to the absence of a partonic phase in UrQMD. The most promising results in this thesis at these energies are the restriction of the formation time to a value smaller than 0.8 fm/c and furthermore, the results from the asHBT analyses. In simulations of non-central heavy-ion collisions at energies of Elab= 6, 8 and 30 AGeV the validity of the formulae to calculate the tilt angle via asHBT has been checked numerically, even for the case of non-Gaussian, flowing sources. On this basis has been developed and test in the course of this thesis that allows to measure a scale dependent tilt angle experimentally. The signal should be strongest at FAIR energies.
Experimente zum radiativen Elektroneneinfang (REC, Radiative Electron Capture), der Zeitumkehrung der Photoionisation, wie er in Stößen hochgeladener, relativistischer Schwerionen mit leichten Gasatomen auftritt, ermöglicht einen einzigartigen Zugang zum Studium der Photonen-Materie-Wechselwirkung im Bereich extrem starker Coulombfeldern. So ist die REC-Strahlung im relativistischen Bereich zum einen geprägt durch das Auftreten von höheren elektrischen und magnetischen Multipolordnungen und zum anderen durch starke Retardierungseffekte. In Folge dessen wurde der REC-Prozeß in den vergangen Jahren sehr detailliert untersucht, wobei sich die experimentelle und theoretische Forschung auf die Emissionscharakteristik der REC-Photonen konzentrierte, wie z.B. auf Untersuchungen von Winkelverteilungen und Linienprofilen. Mittlerweile kann der REC-Prozeß als ein - selbst für die schwersten Ionen - wohlverstandener Effekt angesehen werden. Allerdings entzog sich den Experimenten bislang eine zur Beschreibung der Photonenmission wesentlich Größe, näamlich die Polarisation der Strahlung. Die lineare Polarisation der REC-Strahlung, wie sie in Stößen zwischen leichten Atomen und den schwersten, hochgeladenen Ionen vorhergesagt wird, war der Gegenstand der vorliegende Arbeit, in der es erstmals gelang, die diese für den konkreten Fall des Einfangs in die K-Schale von nackten Uranionen nachzuweisen und im Detail zu untersuchen. Die hierzu notwendigen experimentellen Untersuchungen erfolgten am Speicherring ESR der GSI-Darmstadt für das Stoßsystem U92+ -> N2 und für Projektilenergien, die im Bereich zwischen 98 und 400 MeV/u lagen. Besonders hervorzuheben ist der Einsatz eines segmentierten Germaniumdetektors, der speziell für den Nachweis linear polarisierter Strahlung im Energiebereich oberhalb 100 keV entwickelte wurde. Die lineare Polarisation der Strahlung wurde hierbei durch eine Analyse der Comptonstreuung innerhalb des Detektors gewonnen. Die durch eine präzise Analyse der Comptonstreuverteilungen gewonnenen Daten zeigen eine ausgeprägte lineare Polarisierung der REC-Strahlung in der Streuebene, die zudem eine starke Abhängigkeit als Funktion der Stoßenergie und des Beobachtungwinkels aufweist. Der detaillierte Vergleich mit nicht-relativistischen und relativistischen Vorhersagen ermöglichte darüberhinaus den Nachweis für das Auftreten starker relativistischer Effekte, die sich allerdings depolarisierend auswirken. Das Experiment wurde am internen Target des ESR-Speicherrings durchgeführt, wobei der Photonennachweis mittels mehrerer Ge(i)-Detektoren erfolgte, die die Ionen-Target-Wechselwirkungszone unter Beobachtungswinkeln zwischen nahe Null und 150 Grad einsahen. Alle Photonendetektoren wurden in Koinizidenz mit einem Teilchendetektor betrieben, um so die volle Charakteristik des REC-Prozesses zu erfassen, also den Einfang eines Targetelektrons in die nackten Uranionen (U92+) unter Emission eines Photons. Für den Polarisationsnachweis entscheidend war der Einsatz eines Germanium-Pixel-Detektors, der abwechselnd unter den Winkeln von 60 und 90 Grad betrieben wurde. Dieser Detektor verfügt über eine 4x4 Pixelmatrix (Pixelgröße: 7x7 mm), wobei die elektronische Information jedes Pixels (Energiesignale und schnelle Zeitsignale) separat registriert und aufgezeichnet wurde. Hierdurch war es möglich Ereignisse, die koinzident in zwei Pixeln erfolgten, zu detektieren und zu analysieren. Dies ist die eigentliche Voraussetzung für den Nachweis der linearen Polarisation bei hohen Photonenenergien, bei dem die Abhängigkeit des differenziellen Wirkungsquerschnitts für Comptonstreuung von der linearen Polarisation der einfallenden Photonen ausgenutzt wird (siehe Klein-Nishina Formel Eq. 2.7). Der Nachweis der Comptonstreuung erfolgt hierbei durch die Detektion des Compton-Rückstoßelektrons (deltaE) und des gestreuten Comptonphotons (hw'), die jeweils separat, aber koinzident in zwei unterschiedlichen Segmenten des Detektors nachgewiesen werden. Hier sei betont, dass für Germanium bereits ab Photonenenergien von ca. 160 keV die Absorption der Strahlung durch den Compton-Effekt über die Photoabsorption dominiert und somit das Ausnutzen des Compton-Effekts prinzipiell eine sehr effektive Technik ist. Der Auswertung der Datenfkam wesentlich zugute, dass der Germanium-Detektor über eine im Vergleich zu Szintillations- oder Gaszählern gute Energieauflösung von ca. 1.8 keV bei 122 keV verfügt. Somit kann durch Bilden der Summenenergie hw = hw' + deltaE für koinzidente Ereignisse die Energie des einfallenden Photons (hw) rekonstruieren werden und als zwingende Bedingung dafür herangezogen werden, dass es sich bei dem Ereignis im Detektor um ein Compton-Event gehandelt hat. Für den Fall linearer Polarisation ist eine wesentliche Aussage der Klein-Nishina-Formel, dass die maximale Intensität für die Compton gestreuten Photonen senkrecht zur Polarisationsebene zu erwarten ist. Tatsächlich zeigen bereits die während des Experiments aufgenommenen Rohdaten für den Fall der untersuchten REC-Strahlung, die durch den Einfang in die K-Schale des Projektils entsteht, dass es sich hierbei um eine stark polarisierte Strahlung handelt, wobei eine erhöhte Intensität für Comptonstreuung senkrecht zur Stoßebene (für den REC-Prozeß definiert durch die Ionenstrahlachse und den Impuls des REC-Photons) festgestellt wurde (vgl. Fig. 7.3). Zur genauen qualitativen Analyse der Meßdaten wurden alle möglichen Pixelkombinationen der (4x4) Detektorgeometrie ausgewertet, wobei jedoch koinzidente Ereignisse benachbarter Segmente ausgeschlossen wurden, um den hier vorhandenenen Einfluß elektronischer Übersprecher zu eliminieren. Zudem erfolgte die Analyse der Daten unter Berücksichtigung verschiedenster Effekte, die einen Einfluß auf die Nachweiseffizienzen für die Compton gestreuten Photonen haben könnten. An prominenter Stelle ist hier die Korrektur zu nennen, die durch die Detektordicke von 1,5 cm und der Pixelgröße von 7x7 cm2 hervorgerufen wird. Zu betonen ist hier, dass für die Auswertung nur relative Effizienzen eine Rolle spielen und so der Einfluß systematischer Fehler, hervorgerufen durch Effizienzkorrekturen, stark reduziert werden konnte (für eine so gewonnene, vollständige Compton-Streuverteilung sei auf Abbildung 9.1 verwiesen, in der die Intensitätsverteilung für Compton-Streuung dargestellt ist). Es sei auch hervorgehoben, dass der Nachweis der Polarisation durch Messungen von vollständigen Compton-Intensitätverteilung im Detektor erfolgte, was das hier diskutierte Experiment wesentlich von konventionellen Polarisationsexperimenten für harte Röntgen- und gamma-Strahlung unterscheidet. Üblicherweise wird in diesen Experimenten die Comptonstreuung ausschließlich in der Reaktionsebene und senkrecht dazu nachgewiesen. Generell weisen die in der vorliegenden Arbeit gewonnen Compton-Streuverteilungen für den K-REC-Prozeß ein ausgeprägtes Maxium senkrecht zur Reaktionsebene auf und bestätigen somit den bereits aus den Rohdaten abgeleiteten Befund, dass die Polarisationsebene der KREC Strahlung in der Reaktionsebene des Stosses liegt. In der Tat kann dieser Befund für alle Energien und Beobachtungswinkel bestätigt werden, die in dem hier diskutierten Experiment verwendet wurden. Hier sei zudem darauf hingewiesen, dass es durch die Erfassung der vollständigen Compton-Streuverteilung möglich war, die Orientierung der Polarisationsebene in Bezug auf die Stoßebene mit hoher Präzision zu erfassen. So konnte z.B. bei der Stossenergie von 400 MeV/u und dem Winkel von 90 Grad, die Orientierung der Comptonstreuverteilung in Bezug auf die Stoßebene zu ph=90 Grad bestimmt werden. Dieser Befund könnte für die Planung zukünftiger Experimente zum Nachweis polarisierter Ionenstrahlen entscheidend sein, da eine Abweichung von der ph = 90 Grad Symmetrie nur durch das Vorhandensein polarisierter Teilchen erklärt werden kann. Dieser Effekt, der in neuesten theoretischen Behandlungen im Detail untersucht wurde, stellt gleichsam einen neuen Zugang zur Bestimmung des Polarisationsgrads der Projektile dar. Hierdurch wird die Stärke der hier angewandten Technik verdeutlicht, die auf dem Einsatz eines ortsempfindlichen Germanium-Pixel- Detektors beruht. Die Bestimmung des genauen Polarisationsgrades für die K-REC-Strahlung erfolgte durch eine X2-Anpassung der Klein-Nishina-Formel an die experimentellen Daten. Die hieraus resultierenden Daten zeigen für alle Strahlenergien und Beobachtungsgwinkel eine starke Polarisation von etwa 80%, wobei die experimentelle Unsicherheit im 10% Bereich liegt. Letztere ist im wesentlichen auf die statistische Genauigkeit zurückzuführen. Die Daten wurden zudem eingehend mit theoretischen Vorhersagen verglichen. Die Theorie stützt sich auf eine vollständige relativistische Beschreibung des REC-Prozesses unter Verwendung exakter Wellenfunktionen für das Kontinuum und den 1s Zustand in wasserstoffartigem Uran. Typischer weise mußten bei den Rechnungen sowohl elektrische wie auch magnetische Multipolterme bis hin zu L=20 verwendet werden, um Konvergenz zu erreichen. Der Vergleich zeigt eine hervorragende Übereinstimmung zwischen Experiment und Theorie. Zudem verdeutlicht der Vergleich mit der ebenfalls diskutierten Vorhersage der nicht-relativistischen Dipolnäherung die Bedeutung relativistischer Effekte (vor allem das Auftreten höherer elektrischer und magnetischer Multipole), die für die Emission der REC-Strahlung bei hohen, relativistischen Energien und hohem Z charakteristisch sind. Offensichtlich wirken sich diese Effekte stark depolarisierend aus. Dass in der Tat eine Zunahme der depolarisierenden Effekte mit einer Zunahme der Strahlenergie verbunden ist, wird auch durch die Daten dokumentiert, die für den Beobachtungswinkel von 60 Grad als Funktion des Projektilenergie untersucht wurden. Die in der vorliegenden Arbeit gewonnenen Resultate für die Polarisation der REC-Strahlung ebenso wie die neuartige Experimenttechnik, die hierbei zum Einsatz kam, lassen für die nahe Zukunft eine Serie von weiteren Polarisations-Experimenten erwarten. Hierbei könnte der REC-Strahlung und deren Polarisation als Mittel zur Diagnostik und zum Nachweis des Polarisationsgrades gespeicherter Ionenstrahlen eine Schlüsselrolle zukommen. Als Detektorsysteme werden hierzu zwei-dimensionale Germanium- und Silizium-Streifen-Detektoren zum Einsatz kommen bzw. Kombinationen aus zweidimensionalen Silizium- und Germanium-Detektoren, sogenannte Compton-Teleskope. Diese Compton-Polarimeter, die gegenwärtig für neue Experimentvorhaben am ESR-Speicherring entwickelt werden, verfügen über eine wesentlich verbesserte Ortsauflösung (z.B. 1x1 mm2) und somit über eine wesentlich gesteigerte Nachweiseffizienz für die Comptonstreuung (ein bis zwei Größenordnungen). Hierdurch sollte es möglich sein, den für Polarisationexerperimente zugänglichen Energiebereich wesentlich auszudehnen, sodass selbst die charakteristische Strahlung der Schwerionen (ca. 50 bis 100 keV) für solche Experimente zugänglich wird.
The high energy loss of heavy ions in matter as well as the small angular scattering makes heavy ion beams an excellent tool to produce almost cylindrical and homogeneously excited volumes in matter. This aspect can be used to pump short wavelength lasers. In an experiment performed at the GSI (Gesellschaft für Schwerionenforschung, Darmstadt, Germany) ion accelerator facility in December 2005 the well-known KrF* excimer laser was pumped with an intense high energy uranium beam. Pulses of an uranium beam with initial particle energy of 250 MeV per nucleon, provided by heavy-ion-synchrotron SIS-18, were delivered to the HHT-target station and then stopped inside a gas laser cell. The maximum beam intensity reached in the experiment was 2,5·109 particles per pulse, which resulted in 34 J/g specific energy deposited in the laser gas. By applying electron cooling and a bunch compression technique at SIS-18, the beam pulses were compressed down to 110 ns (FWHM). A mixture of an excimer laser premix gas (95,5% Kr + 0,5% F2) and a buffer gas (Ar 4.8) was used as the laser gas in proportions of 35/65 and 60/40, respectively. The gas pressure inside the laser cell was varied in the range of 1,2÷2 bar in continues flow mode. The experimental setup consisted of a 1 m long stainless steel tube with a number of diagnostic viewports and two mirror adjustment units. The optical cavity was formed by a flat, Alcoated mirror at the beam entrance and a second dielectrically coated, highly reflective mirror with 3 m radius of curvature at a distance of 1,3 m. A beam of heavy ions has been used to pump a short wavelength gas laser for the first time. Laser effect on the KrF* laser transition (λ = 248 nm) has been successfully demonstrated. Laser threshold for this specific setup was reached with a beam intensity of 1,2·109 particles per pulse. Laser action has been clearly proofed by the following methods: appearance of the laser line, spectral narrowing of the laser line, temporal narrowing of the laser signal, non-linear response of the laser output intensity on the pumping power, and cavity disalignment effect. An energy of the laser pulse of about 2 mJ was measured for an ion beam intensity of 2·109 particles per pulse. The time delay of the onset of the laser emission with respect to the pumping pulse was measured as a function of ion beam intensity. The dependence of spontaneous emission spectra on the gas pressure in a range of 1,3÷2 bar was observed and the optimal gas pressure for laser experiments in the sense of laser efficiency was concluded. As a next step in studying short wavelength lasers pumped with heavy ion beams it is planned to reduce the laser wavelength down to the VUV region of the spectrum, and to proceed to the excimer lasers of the pure rare gases: Xe2 * (λ = 172 nm), Kr2 * (λ = 146 nm), Ar2 * (λ = 126 nm), Ne2 * (λ = 83 nm) and He2 * (λ = 80 nm). We believe that the use of heavy ion beams as a pumping source may lead to new pumping schemes on the higher lying level transitions and considerably shorter wavelengths (XUV and X-ray spectral region), which rely on the high cross sections for multiple ionization of the target species.
This thesis deals with the phenomenology of QCD matter, its aspects in heavy ion collisions and in neutron stars. The first half of the work focuses on the hadronic phase of QCD matter. One focus is on how the hadronic phase shows itself in heavy ion collisions and how its dynamics can be simulated. The role of hadronic interactions is considered in the context of the lattice QCD data. The second part of this thesis presents a unified approach to QCD matter, the CMF model. The CMF model incorporates many aspects of QCD phenomenology which allows for a consistent description of the hadron-quark transition, making it applicable to the entire QCD phase diagram, i.e., to the cold nuclear matter and to the hot QCD matter. It is shown that a description of both the hot matter created in heavy ion collisions and the cold dense matter in neutron star interiors is possible within one single approach, the CMF model.
In this thesis we explore the characteristics of strongly interacting matter, described by Quantum Chromodynamics (QCD). In particular, we investigate the properties of QCD at extreme densities, a region yet to be explored by first principle methods. We base the study on lattice gauge theory with Wilson fermions in the strong coupling, heavy quark regime. We expand the lattice action around this limit, and carry out analytic integrals over the gauge links to obtain an effective, dimensionally reduced, theory of Polyakov loop interactions.
The 3D effective theory suffers only from a mild sign problem, and we briefly outline how it can be simulated using either Monte Carlo techniques with reweighting, or the Complex Langevin flow. We then continue to the main topic of the thesis, namely the analytic treatment of the effective theory. We introduce the linked cluster expansion, a method ideal for studying thermodynamic expansions. The complex nature of the effective theory action requires the development of a generalisation of the linked cluster expansion. We find a mapping between generalised linked cluster expansion and our effective theory, and use this to compute the thermodynamic quantities.
Lastly, various resummation techniques are explored, and a chain resummation is implemented on the level of the effective theory itself. The resummed effective theory describes not only nearest neighbour, next to nearest neighbour, and so on, interactions, but couplings at all distances, making it well suited for describing macroscopic effects. We compute the equation of state for cold and dense heavy QCD, and find a correspondence with that of non-relativistic free fermions, indicating a shift of the dynamics in the continuum.
We conclude this thesis by presenting two possible extensions to new physics using the techniques outlined within. First is the application of the effective theory in the large-$N_c$ limit, of particular interest to the study of conformal field theory. Second is the computation of analytic Yang Lee zeros, which can be applied in the search for real phase transitions.
In this thesis we report on the high pressure synthesis, crystal growth, structural characterisation and magnetic properties of the cubic vanadate pyrochlores A2V2O7 (with A = Y, Er and Dy). We have found that high pressure is requisite for the stabilization of the selected compounds. For this purpose, a multianvil high pressure apparatus was built in our laboratory and a new multianvil inset (i.e., a ceramic pressure medium and the interior parts) was developed. The multianvil press is based on a hydraulic press with a maximum force of 7.73 MN (corresponds to 788 tons), a Walker type module and a specially designed hydraulic and electric control. Pressure calibration of the multianvil setup was performed by high pressure fixed points (i.e. solid-solid transformation of Bi I-II (2.55 GPa) and Bi II-III (3.15 GPa)). A maximum pressure of 6 GPa was attained using hardened metal anvils (tungsten carbide) with truncation edge length (TEL) of 14 mm and a sample volume of ~ 70 mm3. Heating of the sample in our current multianvil setup (TEL = 14 mm) was achieved by resistive heating of a graphite furnace. Temperatures up to 1500 °C could be obtained at pressures up to 6 GPa. By systematic variation of the synthesis conditions (for instance the operation temperature or the choice of the crucible material) under high pressure and taking into account the well known ternary compounds, when accessing the phase diagram, the cubic vanadate pyrochlores A2V2O7 (with A = Y, Er and Dy) were synthesized successfully. It was found that the oxygen partial pressure is crucial for the formation of the desired pyrochlore phase. Gas-tight platinum crucibles were used as container material for the synthesis of the vanadate pyrochlores. We have investigated, that pressures of the order of 5.0 GPa and temperatures of approximately 1200 °C are necessary for the stabilization of the monophasic samples of the vanadate pyrochlores. Lu2V2O7 could be synthesized under ambient pressure conditions and is used in our studies for comparison purposes. A special graphite furnace was developed for the high pressure crystal growth of the vanadate pyrochlores. For the first time, A2V2O7 (with A = Y, Er and Dy) single crystals with a maximum size of 0.4 mm were grown by using the grain growth method at high pressure and high temperature conditions. The samples (i.e., powders and single crystals) were characterised by single crystal Xray diffraction, X-ray powder diffraction method, Laue method and scanning electron microscopy (SEM). Complementary to the X-ray diffraction methods, infrared absorsoption spectroscopy was used to distinguish between the fluorite and pyrochlore structure. It has been shown that all samples crystallize in a well-ordered cubic structure with the space group F d 3m. The vanadium (+4) content in the samples was determined by oxidative weight gain in air using a thermogravimetric (TG) balance. A structural phase transformation of cubic to tetragonal was observed by differential thermal analysis (DTA) in conjunction with high temperature diffractometry. The magnetic characterisation of the vanadate pyrochlores A2V2O7 (Y, Lu, Er and Dy) was performed by Katarina Removic-Langer in the laboratory of Prof. Dr. M. Lang. All materials studied are ferromagnetic. The ferromagnetic critical temperatures are between 70 and 73 K. In case of Er2V2O7 and Dy2V2O7 an additional increase in the magnetization was observed below 20 K. The increase in the magnetization below 20 K exhibited by Er2V2O7 and Dy2V2O7 originates from the interactions between the two magnetic sublattices (i.e., the rare earth- and the vanadium sublattice).
This thesis is a summary of existing and upcoming publications, with a focus on high order methods in numerical relativity and general relativistic flows. The text is structed in five chapters. In the first three ones, the ADER-DG technique and its application to the Einstein-Euler equations is introduced. Novel formulations for both the Einstein equations in the 3+1 split as well as the general relativistic magnetohydrodynamics (GRMHD) had to be derived. The first order conformal and covariant Z4 formulation of Einstein equations (FO-CCZ4) is proposed and proven to be strongly hyperbolic. Together with the fluid equations of general relativistic magnetohydodynamics (GRMHD), a number of benchmark scenarios is presented to show both the correctness of the PDEs as well as the applicability of the numerical scheme.
As an application in astrophysics, a general-relativistic study of the treshold mass for a prompt-collapse of a binary neutron star merger with realistic nuclear equation of states has been carried out. A nonlinear universal relation between the treshold mass and the maximum compactness is found. Furthermore, by taking recent measurements of GW170817 into account, lower limits on the stellar radii for any mass can be given.
Furthermore, an (unpaired) work in quantum mechanical black hole engineering is presented. Higher dimensional extensions of generalized Heisenberg’s uncertainty principle (GUP) are studied. A number of new phenomenology is found, such as the existence of a conical singularity which mimics the effect of a gravitational monopole on short scale and that of a Schwarzschild black hole at a large scale, as well as oscillating Hawking temperatures which we call "lighthouse effect". All results are consistent with the self complete paradigm and a cold evaporation endpoint remnant.
Im Rahmen dieser Arbeit wurde ein Strahllagemonitor entwickelt, der nur aufgrund der Signale aus den HOM-Dämpfern einer Linearbeschleunigerstruktur die Strahllage mit hoher Genauigkeit bestimmen kann. Ein solcher Monitor hat gegenüber anderen Konzepten einige einzigartige Vorteile. Der HOM-Dämpfer-Strahllagemonitor benötigt keine zusätzlichen Einbauten im Strahlrohr oder der Beschleunigerstruktur. Daher wird keine zusätzliche Länge benötigt. Auch wird eine zusätzliche Emittanzerhöhung durch zusätzliche Impedanzen der Einbauten vermieden. Beide Punkte sind wichtig für den Betrieb eines linearen Kolliders. Ein zweiter Vorteil ist die Messung der Strahllage bezüglich der elektrischen Achse der verwendeten Dipolmode. Wenn als Dipolmode die höhere Mode mit dem störendsten Einfluß auf den Strahl verwendet wird, verfährt die Positionsregelung der Struktur diese automatisch auf die Position, an der der Einfluß dieser Mode minimal ist. Da die anderen Dipolmoden ähnliche Feldgeometrien haben, ist anzunehmen, das ihr Einfluß damit auch weitestgehend minimiert wird. Zur eindeutigen Bestimmung der Strahlposition in der Ebene wurde ein Verfahren entwickelt, daß die Amplituden und die Startphasendifferenz zwischen einer Dipolmode und einer höheren Monopolmode ausnutzt. Durch passende Wahl der Hohlleitergeometrie kann eine monopolartigen Mode in den Dämpferzellen etabliert werden, die das nötige Monopolsignal liefert und in der Frequenz mit der Dipolmode übereinstimmt. Diese Mode vereinfacht erheblich die entwickelte Signalverarbeitungsschaltung. Die Shuntimpedanz dieser Mode wird durch die Geometrie der Hohlleiter bestimmt und kann so eingestellt werden, daß sie für den Betrieb des Strahllagemonitors ausreicht, aber den Strahl noch nicht nennenswert beeinflußt. Durch die Verwendung einer strahlinduzierten Monopolmode als Phasenreferenz ist der Monitor unabhängig von externen Referenzsignalen und funktioniert ohne eingeschaltete Beschleunigungshochfrequenz oder bei falscher Phasenlage des Strahls. Dies ermöglicht es, die Beschleunigerstrukturen auch dann genau zu justieren, wenn der restlichte Beschleuniger noch nicht richtig eingestellt ist oder wenn zu Wartungszwecken einzelne Sektionen während des Betriebs nicht mit Hochfrequenz versorgt werden. Um die Eignung des vorhandenen SBLC-HOM-Dämpfers als Strahllagemonitor zu überprüfen wurden dreidimensionale numerische Feldberechnungen im Frequenz- und Zeitbereich und Messungen an der Dämpferzelle durchgeführt. Für die Messungen ohne Strahl wurde ein Strahlsimulator konstruiert und aufgebaut, der computergesteuerte Messungen mit variablen Ablagen des simulierten Strahls mit einer Auflösung von 1,23 μm erlaubt. Da die vollständige 6 m lange, 180-zellige Beschleunigerstruktur nicht für Messungen zur Verfügung stand und sich auch mit den verfügbaren Computern nicht dreidimensional simulieren ließ, wurde ein eindimensionales ersatzkreisbasiertes Modell des Vielzellers untersucht. Das Ersatzbild aus 879 konzentrierten Bauelementen berücksichtigt die Verstimmung von Zelle zu Zelle, die Zellenverluste, die Dämpferverluste und die Strahlanregung in Abhängigkeit von der Ablage. An dem Ersatzkreis lassen sich die gefangenen Moden und die Wirkung der Dämpfer beobachten. Es liefert bei der Simulation im Zeitbereich als Ergebnis Signale, die verwendet wurden, um die Funktion der Signalverarbeitungsschaltung an der vollständigen Beschleunigerstruktur zu untersuchen. Das eindimensionale Modell hat jedoch auch einige Einschränkungen. Es berücksichtigt nicht die Änderung der Randbedingungen in den Einzelzellen in Abhängigkeit vom Phasenvorschub. Auch beschränkt sich die Simulation auf einen kleinen Teil des durch den Strahl angeregten Frequenzbereiches. Es ist nicht auszuschließen, daß andere Frequenzen die Signalverarbeitungsschalung negativ beeinflussen. Ebenfalls unberücksichtigt bleibt der Einfluß der von Sendeklystron eingespeisten Hochfrequenzleistung. Um diese Einflüsse zu untersuchen wäre es erforderlich, Messungen am realen 180-Zeller mit Strahl und Klystron durchführen zu können. Die vorgenommenen Messungen am Einzeller zeigen, daß das Meßprinzip funktioniert, der vorhandene HOM-Dämpfer als Strahllagemonitor verwendbar ist und die entwickelte Signalverarbeitungsschaltung geeignet ist genaue Positionsinformationen zu liefern. Abgesehen von den ober angesprochenen Einschränkungen bestätigen die Simulationen des 180-Zellers die Übertragbarkeit der Ergebnisse auf Vielzeller. Die Messungen und Simulationen lassen eine Auflösung des fertigen Strahllagemonitors am 180-Zeller in der Größenordnung 1–10 μm und eine relative Genauigkeit kleiner 6,2 % erwarten. Es hat sich gezeigt, daß zur Erzielung hohe Genauigkeit zwei Komponenten des Strahllagemonitors besondere Aufmerksamkeit zu schenken ist. Zum einen muß der HOM-Dämpfer mit den paarweisen Auskoppelstellen präzise, mit guter Symmetrie gefertigt sein. Zum anderen hat der 180°-Hybrid am Eingang der Signalverarbeitungsschaltung großen Einfluß auf die erzielbare Genauigkeit. Beide Komponenten sind wichtig, um die monopol- und dipolartigen Komponenten aus dem ausgekoppelten Signalgemisch sauber voneinander trennen zu können. Wie die Messungen zeigten, ist ein schmalbandiger, auf die verwendete Meßfrequenz spezialisierter, selbst gefertigter Ringhybrid für diese Aufgabe erheblich besser geeignet als ein kommerziell erhältlicher Breitbandhybrid. Bei dem Ringhybrid gibt es jedoch auch noch Verbesserungsmöglichkeiten. Der Ringhybrid wurde präzise gefertigt. Er hat jedoch keine Abgleichmöglichkeit. Eine Korrekturmöglichkeit der Amplitude und Phase an den Eingängen könnte die Auflösung und Genauigkeit noch etwas steigern. Wenn bei der Simulation ein idealer 180°-Hybrid angenommen wird verschwindet ein Großteil des Fehlers. Der nächste Schritt bei der Weiterentwicklung der Signalverarbeitung könnte darin bestehen, die zur Zeit noch getrennt aufgebauten Hochfrequenzkomponenten auf einer gemeinsamen Platine zu integrieren. Zusammen mit dem Mikroprozessorsystem auf einer zweiten Platine entsteht so ein kompaktes System, daß sich preisgünstig in der für einen linearen Kollider erforderlichen großen Stückzahl fertigen läßt.
The mission of the Compressed Baryonic Matter (CBM) experiment is to investigate the phase diagram of strongly interacting matter in the region of high net-baryon densities and moderate temperatures. According to various transport models, matter densities of more than 5 times saturation density can be reached in collisions between gold nuclei at beam energies between 5 and 11 GeV per nucleon, which will be available at FAIR. The core detector of the CBM experiment is the Silicon Tracking System (STS), which is used to measure the tracks of up to 700 particles per collision with high efficiency (>95%) and good momentum resolution (<1.5%). The technological and experimental challenge is to realize a detector system with very low material budget, in order to reduce multiple scattering of the particles, and a free-streaming data readout chain, in order to achieve reaction rates up to 10 MHz together with an online event reconstruction and selection.
The STS comprises 8 tracking stations positioned between 30 cm and 100 cm downstream the target inside a magnetic field, covering polar emission angles up to 25 degrees. A station consists of vertical structures with increasing number (between 8 and 16, depending on station number), each structure carrying between 2 and 10 double-sided microstrip silicon sensors, which are connected through low-mass microcables to the readout electronics placed at the detector periphery outside the active detector area.
The work presented in this thesis focuses on the detector performance simulation and local hit pattern reconstruction in the STS. For efficient detector design and reconstruction performance, a reliable detector response model is of utmost importance. Within this work, a realistic detector response model was designed and implemented in the CBM software framework. The model includes non-uniform energy loss of an incident particle within a sensor, electric field of a planar p-n junction, Lorentz shift of the charge carriers, their diffusion, and the influence of parasitic capacitances. The developed model has been verified with experimental data from detector tests in a relativistic proton beam. Cluster size distributions at different beam incident angles are sensitive to charge sharing effects and were chosen as an observable for the verification. Taking into account parasitic capacitances further improves the agreement with measured data.
Using the developed detector response model, the cluster position finding algorithm was improved. For two-strip clusters, a new, unbiased algorithm has been developed, which gives smaller residuals than the Centre-Of-Gravity algorithm. For larger clusters, the head-tail algorithm is used as the default one. For an estimate of the track parameters, the Kalman Filter based track fit requires not only hit positions but their uncertainties as an input. A new analytic method to estimate the hit position errors has been designed in this work. It requires as input neither measured spatial resolution nor information about an incident particle track. The method includes all the sources of uncertainties independently, namely: the cluster position finding algorithm itself, the non-uniform energy loss of incident particles, the electronics noise, and the discretisation of charge in the readout chip.
The verification with simulations shows improvements in hit and track pull distributions as well as x²-distributions in comparison to the previous simple approach. The analytic method improves the track parameters reconstruction by 5-10%.
Several STS module prototypes have been tested in a relativistic proton beam. A signal to-noise ratio was obtained at the level of 10-15 for modules made of 30 cm long microcable and of either one or two 6.2 x 6.2 cm² CiS sensors.
First simulations have shown that this signal-to-noise ratio is sufficient to reach the required efficiency and momentum resolution. The high-radiation environment of CBM operation will deteriorate the sensor performance. Radiation hardness of sensors has been studied in the beam with sensors irradiated to 2 x 10[hoch 14] 1MeV [neq/cm²], twice the lifetime dose expected for CBM operation. Charge collection efficiency drops by 17-25%, and simultaneously noise levels increase 1.5-1.75 times. The simulations show that if all sensors in the STS setup are exposed to such a fluence uniformly, the track reconstruction efficiency drops from 95.5% to 93.2% and the momentum resolution degrades from 1.6% to 1.7%.
Mikroentladungen bei hohem Druck und mit Gasfluss stellen eine vielseitig nutzbare Quelle für Ionen und kalte metastabile Atome dar. In dieser Arbeit werden grundlegende Untersuchungen an dieser neuen Hochdruckentladung zur Erzeugung von metastabilen Atomen und einfachgeladenen Ionen vorgestellt. Der innovative Ansatz ist die Nutzung mikrostrukturierter Elektroden (MSE) zur Erzeugung von nichtthermischen Entladungen mit Gleichspannung. Die spezielle porenförmige Geometrie erlaubt die Erzeugung von Entladungen bei einem Druck > 1000 hPa. Die Mikroentladung produziert metastabile Atome und Ionen in einem lokalisierten Volumen durch Stöße mit energiereichen Elektronen, wobei das Neutralgas in der Entladung im Vergleich zu den Elektronen kalt ist. Außerdem kann die Entladung mit erzwungenem Gasfluss durch die Pore betrieben werden, so dass die Plasmabestandteile (neutrale/angeregte Atome, Radikale, Ionen, etc.) extrahiert werden. Mit dieser neuen Methode kann bei der adiabatischen Expansion des Gases ins Vakuum ein gerichteter Gasstrahl, mit geringer interner Temperatur, im Bereich von einigen K erzeugt werden. Die Verweildauer des Gases in der Mikropore ist < 0,1 µs, so dass auch Zustände mit kurzer Lebensdauer extrahiert werden können. Die MSE lässt sich aufgrund der kleinen Abstände im µm Bereich als Mehrschichtsystem, aus zwei metallischen Elektroden, die durch einen Isolator getrennt sind, realisieren. Dieses Grundmaterial wird mit einzelnen oder einer Vielzahl von Poren mit typischerweise 100 µm Durchmesser versehen. Mit Hilfe dieser Mikrostrukturen lassen sich stabile, nicht filamentre, homogene Entladungen mit Gleichspannung in allen Gasen als auch Gasgemischen in einem weiten Druckbereich von 600 hPa bis 4000 hPa erzeugen. Die Druckverhältnisse in der Pore lassen sich durch den Gasfluss zwischen einigen ml/min bis l/min variieren. Die Verweildauer des Gases in der Pore kann durch den Gasfluss gesteuert werden. Zur Diagnose werden die Bestandteile des Plasmas mit dem Gasstrom extrahiert und expandieren adiabatisch ins Vakuum. Der Einfluss von Vordruck, Gasfluss, Entladestrom und Gaszusammensetzung auf die Eigenschaften des Plasma-Jets konnte auf diese Weise bestimmt werden. Durch die Kühlung der Mikroentladung konnte die interne Temperatur des Targets nochmals gesenkt und die Geschwindigkeit gezielt reduziert werden. Die Messung des Geschwindigkeitsprofils, die Zusammensetzung, etc. geben einen indirekten Einblick in die komplexen Prozesse der Mikroentladung, die mit konventionellen Analysemethoden nur schwer zugnglich sind. Die gemessenen Eigenschaften der MSE- unterstützten Hochdruckentladung sind vergleichbar mit klassischen Glimmentladungen, jedoch ist die Anregungs- und Ionisationswahrscheinlichkeit aufgrund der Geometrie größer. Unter definierten Rahmenbedingungen erlaubt diese neue Technik die Erzeugung eines gerichteten Plasma-Jets bestehend aus kalten metastabilen Atomen, Ionen, etc. Basierend auf diesem Prinzip wurde eine Quelle für metastabile Heliumatome aufgebaut und mit verschiedenen Methoden analysiert. Der 23S1- Zustand wird aufgrund seiner atomaren Struktur effektiv durch die energiereichen Elektronen in der Entladung angeregt. Die Gasströmung bestimmt den Druck und die Verweildauer im aktiven Volumen. Die Untersuchungen haben gezeigt, dass mit diesem Aufbau kalte, metastabile Atomstrahlen mit einer Intensität von 6 mal 10 hoch 13 (s mal sr) hoch minus 1 und Geschwindigkeiten von 900-1800 m/s erzeugt werden können. Bei den gemessenen Dichten in der Pore von 6 mal 10 hoch 12 (cm) hoch minus 3 ist die Ausbeute durch das Quenching der metastabilen Atome beschränkt. Die Eigenschaften dieses exotischen Atomstrahls sind hinsichtlich der absoluten Geschwindigkeit und der Geschwindigkeitsverteilung identisch mit einem konventionellen Überschall-Gasstrahl. Die Qualität des Strahls, aufgrund seiner geringen internen Temperatur von einigen K, erlaubt die Trennung und Fokussierung des gewünschten Zustandes. In Kombination mit der Separationseinheit wurde die Mikroplasmaquelle zur Erzeugung eines metastabilen 2 3 S 1-Heliumtargets mit polarisiertem Elektronenspin verwendet. Bei der Separation wird durch den außermittigen Einschuss in den permanentmagnetischen Hexapol eine hervorragende räumliche Trennung der verschiedenen Zustände erreicht und die Ausdehnung des Targets im Fokus auf 1 mm hoch 2 reduziert. Die erreichte Targetdichte für den spinpolarisierten 2 3 S 1-Zustand liegt im Fokus bei 10 hoch 6 cm hoch -2. Die Charakterisierung des Strahlverlaufs als auch die Time-of-Flight-Messungen zeigen, dass es sich bei der MSE unterstützten Hochdruckentladung um eine nichtthermische Entladung mit vergleichbaren Eigenschaften wie Niederdruckglimmentladung handelt, d.h. neutrale/angeregte Atome und Elektronen sind nicht im Temperaturgleichgewicht. Die Gastemperatur wird somit in der Mikroentladung nicht erhöht. Die Messungen mit Düsentemperatur von 80 K haben dies ausnahmslos bestätigt. Mit dieser Quelle lassen sich auch feine Ionenstrahlen bei hohem Druck erzeugen. Bei erzwungener Gasströmung durch die Entladung werden die Ionen aus dem Bereich der Entladung extrahiert und können zur Diagnose der Hochdruckentladung ins Vakuum überführt werden. Die Ionenausbeute wurde für verschiedene Gase und Gasgemische in Abhängigkeit von Gasfluss, Entladestrom, Extraktionsspannung untersucht. Die Elektronenenergie reicht ausschließlich zur Produktion von einfachgeladenen Ionen bzw. Molekülen aus. Der Anteil an Metallionen zeigt deutlich, dass die Geometrie die Erzeugung von Sekundärelektronen an der Kathode unterstützt. Die Wechselwirkung der Ionen mit dem Überschall-Gasstrahl im Bereich zwischen Düse und Skimmer führt zu einer starken Energieverbreiterung. Dies kann jedoch durch eine modifizierte Extraktionsgeometrie reduziert werden, hierbei ist insbesondere auf die Raumladung im Bereich zwischen Düse und Skimmer zu achten. Die vorgestellten Messungen haben exemplarisch für Helium gezeigt, dass gerichtete, kalte, metastabile Atomstrahlen mit ausreichender Intensität für atomphysikalische Experimente erzeugt werden können. Auf Basis der grundlegenden Erkenntnisse lässt sich das spinpolarisierte Target im nächsten Schritt hinsichtlich der erreichten Ausbeute optimieren. Dazu ist es notwendig, die Bedingungen in der Expansionskammer zu verbessern, so dass die Plasmaquelle mit höherem Vordruck betrieben werden kann. In diesem Zusammenhang sollte auch der Abstand Düse Skimmer verringert und die Separationseinheit auf diese modifizierten Rahmenbedingungen angepasst werden. Durch diese Modifikation kann die Targetdichte für spinpolarisiertes, metastabiles Helium nochmals gesteigert werden. Mit der erreichten Targetdichte sind die grundlegenden Voraussetzungen für atomphysikalische Messungen an einem spinpolarisierten Target geschaffen. Durch Anpassung der Separationseinheit ist es prinzipiell auch möglich, andere exotische metastabile Targets mit polarisiertem Elektronenspin zu erzeugen.
Diese Arbeit beschäftigt sich mit der Synthese und der Einkristallzüchtung der beiden Spin-Leiter-Verbindungen SrCu203 und Sr2Cu3O5 unter hohem Druck. Zunächst wird in einer Reihe von Versuchen ein geeignetes Tiegelmaterial ermittelt. Dabei stellen sich eine Doppeltiegelkonstuktion mit einem einkristallinen Magnesiumoxid-Innentiegel und einem verschweißbaren äußeren Platintiegel als beste Materialkombination heraus. Die Standzeit eines Versuchs lässt sich hiermit von den in der Literatur üblichen 30 Minuten um das 50 bis 100-fache verlängern. Durch Verwendung dieser Tiegelkombination können erstmals Züchtungsexperimente von SrCu203 und Sr2Cu305 aus der Schmelze erfolgreich durchgeführt werden. Für beide Zusammensetzungen konnten Kristalle mit Kantenlängen bis zu 2 mm hergestellt werden. Die besten Wachstumsbedingungen für SrCu203 liegen zwischen 3 und 5 GPa und zwischen 1400°C und etwa 1200°C. Diese Bedingungen wurden für stöchiometrische und auf etwa 70% Cu0 erhöhte Einwaagenzusammensetzungen ermittelt. Für Sr2Cu305 gelten ähnliche Züchtungsparameter. Durch die Züchtungsexperimente wurden neue Phasen, wie eine unbekannte Modifikation von Sr2Cu305 und eine nicht näher identifizierte ,243'-Phase gefunden. Das Auftreten der Fremdphase Sr2Cu02(C03) war zunächst überraschend und klärte sich durch den Herstellungsprozess der MgO-Einkristalle auf. Der Einbau des aus dem Tiegel stammenden gelösten Magnesiums wird in der die Cu203-Schichten trennenden Strontiumschicht erwartet. Damit erlangt es keine Wirkung auf die Spin-Leiter-typischen Effekte. Durch zahlreiche Messungen mit wellenlängendispersiver Röntgenanalyse am Rasterelektronenmikroskop wurden die maßgeblichen Reaktionswege aufgeklärt und die besten Wachtumsbedingungen sowie die Fremdphasenreaktionen ermittelt. Die Ergebnisse der Raman- und IR-Spektroskopie bestätigen das Auftreten der Struktur- beziehungsweise verbindungstypischen 2-Magnonen- und 2-Magnonplus-Phonon-Quasiteilchen. Durch Polarisationsmikroskopie und optische Transmissionsuntersuchungen konnte nachgewiesen werden, dass es sich bei den Proben um Einkristalle handelt. Die thermische Ausdehnung zeigt eine deutliche Anisotropie. Die Achsen in a- und b-Richtung besitzen niedrige und von der C-Richtung deutliche verschiedene lineare Ausdehnungskoeffizienten.
Hofstadter-Hubbard physics
(2020)
The Hofstadter model, besides the Haldane and Kane-Mele models, is the most common tight-binding model which hosts topologically nontrivial states of matter. In its time-reversal-symmetric formulation the model can even describe topological insulators. Experimentally, the Hofstadter model was realized with ultracold quantum gases in optical lattices which is a wellcontrolled way to engineer quantum states of tight-binding Hamiltonians. Another established control parameter in ultracold quantum gases are twoparticle, on-site interactions, also known as Hubbard interactions. This work aims at introducing the reader to the concepts of topological states of matter, a collection of corresponding tight-binding models, and the methodology to treat interacting topological states with dynamical mean-field theory.We present recent results for inhomogeneous, interacting systems, spinimbalanced magnetic systems, propose experimental detection methods, and extensions to three-dimensional topological states.
Die vorgelegte Dissertation behandelt den Einfluss homöostatischer Adaption auf die Informationsverarbeitung und Lenrprozesse in neuronalen Systemen. Der Begriff Homöostase bezeichnet die Fähigkeit eines dynamischen Systems, bestimmte interne Variablen durch Regelmechanismen in einem dynamischen Gleichgewicht zu halten. Ein klassisches Beispiel neuronaler Homöostase ist die dynamische Skalierung synaptischer Gewichte, wodurch die Aktivität bzw. Feuerrate einzelner Neuronen im zeitlichen Mittel konstant bleibt. Bei den von uns betrachteten Modellen handelt es sich um eine duale Form der neuronalen Homöostase. Das bedeutet, dass für jedes Neuron zwei interne Parameter an eine intrinsische Variable wie die bereits erwähnte mittlere Aktivität oder das Membranpotential gekoppelt werden. Eine Besonderheit dieser dualen Adaption ist die Tatsache, dass dadurch nicht nur das zeitliche Mittel einer dynamischen Variable, sondern auch die zeitliche Varianz, also die stärke der Fluktuation um den Mittelwert, kontrolliert werden kann. In dieser Arbeit werden zwei neuronale Systeme betrachtet, in der dieser Aspekt zum Tragen kommt.
Das erste behandelte System ist ein sogennantes Echo State Netzwerk, welches unter die Kategorie der rekurrenten Netzwerke fällt. Rekurrente neuronale Netzwerke haben im Allgemeinen die Eigenschaft, dass eine Population von Neuronen synaptische Verbindungen besitzt, die auf die Population selbst projizieren, also rückkoppeln. Rekurrente Netzwerke können somit als autonome (falls keinerlei zusätzliche externe synaptische Verbindungen existieren) oder nicht-autonome dynamische Systeme betrachtet werden, die durch die genannte Rückkopplung komplexe dynamische Eigenschaften besitzen. Abhängig von der Struktur der rekurrenten synaptischen Verbindungen kann beispielsweise Information aus externem Input über einen längeren Zeitraum gespeichert werden. Ebenso können dynamische Fixpunkte oder auch periodische bzw. chaotische Aktivitätsmuster entstehen. Diese dynamische Vielseitigkeit findet sich auch in den im Gehirn omnipräsenten rekurrenten Netzwerken und dient hier z.B. der Verarbeitung sensorischer Information oder der Ausführung von motorischen Bewegungsmustern. Das von uns betrachtete Echo State Netzwerk zeichnet sich dadurch aus, dass rekurrente synaptische Verbindungen zufällig generiert werden und keiner synaptischen Plastizität unterliegen. Verändert werden im Zuge eines Lernprozesses nur Verbindungen, die von diesem sogenannten dynamischen Reservoir auf Output-Neuronen projizieren. Trotz der Tatsache, dass dies den Lernvorgang stark vereinfacht, ist die Fähigkeit des Reservoirs zur Verarbeitung zeitabhängiger Inputs stark von der statistischen Verteilung abhängig, die für die Generierung der rekurrenten Verbindungen verwendet wird. Insbesondere die Varianz bzw. die Skalierung der Gewichte ist hierbei von großer Bedeutung. Ein Maß für diese Skalierung ist der Spektralradius der rekurrenten Gewichtsmatrix.
In vorangegangenen theoretischen Arbeiten wurde gezeigt, dass für das betrachtete System ein Spektralradius nahe unterhalb des kritischen Wertes von 1 zu einer guten Performance führt. Oberhalb dieses Wertes kommt es im autonomen Fall zu chaotischem dynamischen Verhalten, welches sich negativ auf die Informationsverarbeitung auswirkt. Der von uns eingeführte und als Flow Control bezeichnete duale Adaptionsmechanismus zielt nun darauf ab, über eine Skalierung der synaptischen Gewichte den Spektralradius auf den gewünschten Zielwert zu regulieren. Essentiell ist hierbei, dass die verwendete Adaptionsdynamik im Sinne der biologischen Plausibilität nur auf lokale Größen zurückgreift. Dies geschieht im Falle von Flow Control über eine Regulation der im Membranpotential der Zelle auftretenden Fluktuationen. Bei der Evaluierung der Effektivität von Flow Control zeigte sich, dass der Spektralradius sehr präzise kontrolliert werden kann, falls die Aktivitäten der Neuronen in der rekurrenten Population nur schwach korreliert sind. Korrelationen können beispielsweise durch einen zwischen den Neuronen stark synchronisierten externen Input induziert werden, der sich dementsprechend negativ auf die Präzision des Adaptionsmechanismus auswirkt.
Beim Testen des Netzwerks in einem Lernszenario wirkte sich dieser Effekt aber nicht negativ auf die Performance aus: Die optimale Performance wurde unabhängig von der stärke des korrelierten Inputs für einen Spektralradius erreicht, der leicht unter dem kritischen Wert von 1 lag. Dies führt uns zu der Schlussfolgerung, dass Flow Control unabhängig von der Stärke der externen Stimulation in der Lage ist, rekurrente Netze in einen für die Informationsverarbeitung optimalen Arbeitsbereich einzuregeln.
Bei dem zweiten betrachteten Modell handelt es sich um ein Neuronenmodell mit zwei Kompartimenten, welche der spezifischen Anatomie von Pyramidenneuronen im Kortex nachempfunden ist. Während ein basales Kompartiment synaptischen Input zusammenfasst, der in Dendriten nahe des Zellkerns auftritt, repräsentiert das zweite apikale Kompartiment die im Kortex anzutreffende komplexe dendritische Baumstruktur. In früheren Experimenten konnte gezeigt werden, dass eine zeitlich korrelierte Stimulation sowohl im basalen als auch apikalen Kompartiment eine deutlich höhere neuronale Aktivität hervorrufen kann als durch Stimulation nur einer der beiden Kompartimente möglich ist. In unserem Modell können wir zeigen, dass dieser Effekt der Koinzidenz-Detektion es erlaubt, den Input im apikalen Kompartiment als Lernsignal für synaptische Plastizität im basalen Kompartiment zu nutzen. Duale Homöostase kommt auch hier zum Tragen, da diese in beiden Kompartimenten sicherstellt, dass sich der synaptische Input hinsichtlich des zeitlichen Mittels und der Varianz in einem für den Lernprozess benötigten Bereich befindet. Anhand eines Lernszenarios, das aus einer linearen binären Klassifikation besteht, können wir zeigen, dass sich das beschriebene Framework für biologisch plausibles überwachtes Lernen eignet.
Die beiden betrachteten Modelle zeigen beispielhaft die Relevanz dualer Homöostase im Hinblick auf zwei Aspekte. Das ist zum einen die Regulation rekurrenter neuronaler Netze in einen dynamischen Zustand, der für Informationsverarbeitung optimal ist. Der Effekt der Adaption zeigt sich hier also im Verhalten des Netzwerks als Ganzes. Zum anderen kann duale Homöostase, wie im zweiten Modell gezeigt, auch für Plastizitäts- und Lernprozesse auf der Ebene einzelner Neuronen von Bedeutung sein. Während neuronale Homöostase im klassischen Sinn darauf beschränkt ist, Teile des Systems möglichst präzise auf einen gewünschten Mittelwert zu regulieren, konnten wir Anhand der diskutierten Modelle also darlegen, dass eine Kontrolle des Ausmaßes von Fluktuationen ebenfalls Einfluss auf die Funktionalität neuronaler Systeme haben kann.
Terahertz (THz) physics are an emerging field of research dealing with electromagnetic radiation in the far-infrared to microwave region. The development of innovative technologies for the generation and detection of THz radiation has only in the recent past led to a tremendous rise of both fundamental research as well as investigation of possible fields of application for THz radiation. The most prominent reason has long been the scarce accessibility of the THz region of the electromagnetic spectrum - commonly loosely located between 0.1 and 30 THz - to broad research, and it was mostly limited to astronomy and high energy physics facilities. Over the recent years, numerous novel concepts on both the source and detector side have been proposed and successfully implemented to overcome this so-called THz gap. New technology has become available and paved the way for wide-spread experimental laboratory work and accompanying theoretical investigations. First application studies have emerged and in some cases even commercial development of the field of THz physics is on the rise. Despite these enormous progresses, a continuing demand for more efficient THz detectors still impels current technological research. Relatively low source powers are often a major limiting factor and the request for new detection concepts, their understanding and implementation, as well as the optimization on a device basis has been and still remains in place. One of these concepts is the use of field-effect transistors (FETs) high above their conventional cut-off frequencies as electronic THz detectors. The concept has been proposed in a number of theoretical publications by M. Dyakonov and M. Shur in the early 1990's, who pioneered to show that under certain boundary conditions, non-linear collective excitations of the charge carrier system of a two-dimensional electron gas (2DEG) by incident THz radiation can exhibit rectifying behaviour - a detection principle, which has become known as plasma wave or plasmonic mixing. Up until this day, the concept has been successfully implemented in many device realizations - most advanced in established silicon CMOS technology - and stands on the edge of becoming commercially available on a large scale. The main direction of the work presented in this thesis was the modeling and experimental characterization of antenna-coupled FETs for THz detection - termed TeraFETs in this and the author's previous works - which have been implemented in different material systems. The materials presented in this thesis are AlGaN/GaN HEMTs and graphene FETs. In a number of scientific collaborations, TeraFETs were designed based on a hydrodynamic transport model, fabricated in the respective materials, and characterized mainly in the lower THz frequency region from 0.2 to 1.2 THz. The theoretical description of the plasma wave mixing mechanism in TeraFETs, as initiated by Dyakonov and Shur, was based on a fluid-dynamic transport model for charge carriers in the transistor channel. The THz radiation induces propagating charge density oscillations (plasma waves) in the 2DEG, which via non-linear self-mixing cause rectification of the incident THz signals. Over the course of this work, it became evident in the on-going detector characterization experiments that this original theoretical model of the detection process widely applied in the respective literature does not suffice to describe some of the experimental findings in TeraFET detection signals. Thorough measurements showed signal contributions, which are identified in this work to be of thermoelectric origin arising from an inherent asymmetric local heating of charge carriers in the devices. Depending on the material, these contributions constituted a mere side effect to plasmonic detection (AlGaN/GaN) or even reached a comparable magnitude (graphene FETs). To include these effects in the detector model, the original reduced fluid-dynamic description was extended to a hydrodynamic transport model. The model yields at the current stage a reasonable qualitative agreement to the measured THz detection signals. This thesis presents the formulation of a hydrodynamic charge carrier transport model and its specific implementation in a circuit simulation tool. A second modeling aspect is that the transport equations cover only the intrinsic plasmonic detection process in the active gated part of the TeraFET's transistor channel. In order to model and simulate the behavior of real devices, extrinsic detector parts such as ungated channel regions, parasitic resistances and capacitances, integrated antenna impedance, and others must be considered. The implemented detector model allows to simulate THz detection in real devices with the above influences included. Besides presentation of the detector model, experimental THz characterization of the fabricated TeraFETs is presented in this work. Careful device design yielded record detection performance for detectors in both investigated materials. The respective results are shown and the experimental observations of the thermoelectric effect in TeraFETs are compared to modeling results. It is the goal of this work to provide a framework for further theoretical and experimental studies of the plasmonic and thermoelectric effect in TeraFETs, which could eventually lead to a new type of THz detectors particularly exploiting the thermoelectric effect to enhance the sensitivity of today's plasmonic TeraFETs.
Ultrarelativistische Schwerionenstöße werden seit etwa 15 Jahren untersucht, um Kernmaterie unter extremen Bedingungen zu erforschen; in Kollisionen schwerer Atomkerne kann bei hohen Einschußenergien Kernmaterie stark komprimiert und aufgeheizt werden. Die Bedeutung dieser Experimente wird durch Berechnungen der Quanten-Chromo-Dynamik auf raumzeitlichen Gittern hervorgehoben, die bei ausreichend hoher Energiedichte eine Phase voraussagen, in der die Quarks nicht mehr in Hadronen gebunden sind, sondern zusammen mit den Gluonen ein partonisches System ausbilden. Ist das System hinreichend groß und equilibriert, wird es als Quark-Gluon-Plasma bezeichnet. Die als Signatur für das Überschreiten der Phasengrenze vorgeschlagene erhöhte Produktion Seltsamkeit tragender Teilchen wurde in der Gegenüberstellung von elementaren Proton+Proton-Interaktionen und Kern+Kern-Stößen experimentell über einen weiten Energiebereich bestätigt. Eine solche Überhöhung kann aber auch durch rein hadronische Phänomene hervorgerufen werden. So tritt beispielsweise in statistischen Modellen bereits in einem Hadrongas eine Seltsamkeitserhöhung aufgrund des Übergangs von einem kanonischen zu einem großkanonischen Ensemble mit steigender Systemgröße in Kern+Kern-Stößen auf. Das motivierte die Messung der Systemgrößenabhängigkeit der Seltsamkeitsproduktion bei einer Einschußenergie, bei der in den Stößen der größten Kerne die partonische Phase erreicht werden sollte, während Proton-Proton-Interaktionen überlicherweise als hadronische Systeme betrachtet werden. In Kollisionen von Kohlenstoff- und Siliziumkernen bei 158 GeV pro Nukleon, deren Untersuchung Gegenstand dieser Arbeit ist, kann möglicherweise die Umgebung der Phasengrenze abgetastet werden. Besondere Aufmerksamkeit gilt der Frage nach dem Mechanismus der Seltsamkeitsproduktion in diesen Reaktionen. Das Experiment wurde am SPS-Beschleuniger am CERN in Genf durchgeführt, erstmals wurden dort leichte Projektilkerne durch den Aufbruch des primären Bleistrahls an einem Produktionstarget erzeugt. Das Herzstück des NA49-Spektrometers, mit dem die Daten aufgezeichnet wurden, sind die vier großvolumigen Spurendriftkammern, die die große Akzeptanz ermöglichen. Die Lambda- und Antilambda-Hyperonen aus C+C und Si+Si Kollisionen werden anhand ihrer Zerfallstopologie rekonstruiert und ihre Impulsverteilungen über einen weiten Bereich gemessen; mit zusätzlichen Annahmen werden schließlich die totalen Multiplizitäten extrapoliert. Die Produktion der Hyperonen pro Pion ist im Vergleich zu p+p-Daten bereits in C+C-Reaktionen deutlich erhöht, in Si+Si--Kollisionen ist annähernd der Wert aus Pb+Pb-Stößen erreicht. Mehrere Ursachen für diese Beobachtung werden diskutiert und mögliche Interpretationen vorgeschlagen. Der Grad an chemischer Equilibration und die Lage des Ausfrierpunktes im Phasendiagramm und im Vergleich zu anderen Stoßsystemen wird besprochen. Die Rapiditätsspektren der Lambda-Hyperonen entsprechen zunehmendem Stopping mit steigender Anzahl von Stößen pro Nukleon. Dadurch wird die Energie pro Nukleon im Feuerball erhöht, was zunehmende kinetische Energie der Teilchen und eine ansteigende Teilchenproduktion erzeugt. Die Verbreiterung der Transversalimpulsspektren mit der Systemgröße fügt sich in der Tat in das Bild anwachsenden radialen Flußes ein.
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.
The central goal of this investigation is to describe the dynamic reaction of a multicellular tumour spheroid to treatment with radiotherapy. A focus will be on the triggered dynamic cell cycle reaction in the spheroid and how it can be employed within fractionated radiation schedules.
An agent-based model for cancer cells is employed which features inherent cell cycle progression and reactions to environmental conditions. Cells are represented spatially by a weighted, dynamic and kinetic Voronoi/Delaunay model which also provides for the identification of cells in contact within the multicellular aggregate. Force-based interaction between cells will lead to rearrangement in response to proliferation and can induce cell quiescence via a mechanism of pressure-induced contact inhibition. The evolution of glucose and oxygen concentration inside the tumour spheroid is tracked in a diffusion solver in correspondence to in vitro or in vivo boundary conditions and a corresponding local nutrient uptake by single cells.
Radiation effects are implemented based on the measured single cell survival in the linear-quadratic model. The survival probability will be affected by the radiosensitivity of the current cycle phase and the local oxygen concentration. Quiescent cells will reduce the effective dose they receive as a consequence of their increased radioresistance. The radiation model includes a fast response to fatal DNA damage through cell apoptosis and a slow response via cell loss due to misrepair during the radiation-induced G2-block.
A simplified model for drug delivery in chemotherapy is implemented.
The model can describe the growth dynamics of spheroids in accordance to experimental data, including total number of cells, histological structure and cell cycle distribution. Investigations of possible mechanisms for growth saturation reveal a critical dependence of tumour growth on the shedding rate of cells from the surface.
In response to a dose of irradiation, a synchronisation of the cell cycle progression within the tumour is observed. This will lead to cyclic changes in the overall radiation sensitivity of the tumour which are quantified using an enhancement measure in comparison to the expected radiosensitivity of he tumour. A transient strong peak in radiosensitivity enhancement is observed after administration of irradiation. Mechanisms which influence the peak timing and development are systematically investigated, revealing quiescence and reactivation of cells to be a central mechanism for the enhancement.
Direct redistribution of cells due to different survival in cell cycle phases, re-activation of quiescent cells in response to radiation-induced cell death and blocking of DNA damaged cells at the G2/M checkpoint are identified as the main mechanisms which contribute to a synchronisation and determine the radiosensitivity increase. A typical time scale for the development of radiosensitivity and the relaxation of tumours to a steady-state after irradiation is identified, which is related to the typical total cell cycle time.
A range of clinical radiotherapy schedules is tested for their performance within the simulation and a systematic comparison with alternative delivery schedules is performed, in order to identify schedules which can most effectively employ the described transient enhancement effects. In response to high-dose schedules, a dissolution of the tumour spheroid into smaller aggregates can be observed which is a result of the loss of integrity in the spheroid that is associated with high cell death via apoptosis. Fractionated irradiation of spheroids with constant dose per time unit but different inter-fraction times clearly reveals optimal time-intervals for radiation, which are directly related to the enhancement response of the tumour.
In order to test the use of triggered enhancement effects in tumours, combinations of trigger- and effector doses are examined for their performance in specific treatment regimens. Furthermore, the automatic identification and triggering in response to high enhancement periods in the tumour is analysed.
While triggered schedules and automatic schedules both yield a higher treatment efficiency in comparison to conventional schedules, treatment optimisation is a revealed to be a global problem, which cannot be sufficiently solved using local optimisation only.
The spatio-temporal dynamics of hypoxia in the tumour are studied in response to irradiation. Microscopic, diffusion-induced reoxygenation dynamics are demonstrated to be on a typical time-scale which is in the order of fractionation intervals. Neoadjuvant chemotherapy with hydroxyurea can yield a drastic improvement of radiosensitivity via cell cycle synchronisation and specific toxicity against radioresistant S-phase cells.
The model makes clear predictions of radiation schedules which are especially effective as a result of triggered cell cycle-based radiosensitivity enhancement. Division of radiation into trigger and effector doses is highly effective and especially suited to be combined with adjuvant chemotherapy in order to limit regrowth of cells.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In the last two decades, new unpredicted charmonium-like states with extraordinary characteristics have been observed experimentally. These states also known as the XYZ states, e.g., the Y(4260) or the X(3872), are mostly interpreted as QCD allowed exotic hadrons. One of the leading hadron physics experiments in the world, the Beijing Electron Spectrometer III (BESIII) at the Beijing Electron-Positron Collider II (BEPCII) is aiming towards revealing the internal structure of these states. It has brought numerous breakthrough discoveries including the discovery of the charged Zc(3900). In order to understand the nature of the Y(4260) state and its decay patterns, an inclusive analysis is performed for different recoil systems (π+π−,K+K− and K±π∓) using the BESIII data samples for center of mass energies above 4 GeV collected between 2013 and 2019. The aim of this analysis is twofold: on one hand, we search for new unobserved charmonium-like decay channels using the missing mass technique and on the other hand, it provides an accurate inclusive cross section measurement for e+e−→X π+π−, with the X being the J/ψ, hc and ψ(2S), respectively. Two resonant structures, the Y(4220) and the Y(4390), are observed in the inclusive energy dependent Born cross section of e+e−→hc π+π−, which is consistent with the BESIII exclusive measurements. Moreover, the energy dependent cross section of e+e−→J/ψ π+π− is investigated, in which two resonances have consistently been observed with the previous BESIII exclusive studies, namely, the Y(4220) and the Y(4320). In the (K±π±) recoil system, possible Y(4260) open charm decay channels are investigated. Two enhancements are observed in the inclusive energy dependent cross section of e+e−→DD above 4.13GeV, which could possibly be the ψ(4160)and the ψ(4415).
In the last twenty years, a variety of unexpected resonances had been observed within the charmonium mass region. Although the existence of unconventional states has been predicted by the quantum chromodynamics (QCD), a quantum field theory describing the strong force, a clear evidence was missing. The Y(4260) is such an unexpected and supernummerary state, first observed at BaBar in 2005, and aroused great interest, because it couples much stronger to hidden charm decays (charm-anticharm states like J/Psi or h_c) instead of open charm decays (D meson pairs). This is unusual for states with masses above the D anti-D threshold. Furthermore, it decays into a charged exotic state Y(4260)->Z_c(3900)^+- pi^-+. The charge of the Z_c(3900)^+- is an indication that it comprises of two more quarks than the charm-anticharm pair, and could therefore be assumed to be a four-quark state. Due to these still not understood properties of these QCD-allowed states, they are referred to as exotic XYZ states to emphasize their particularity.
In 2017, the collaboration of the Beijing Spectrometer III (BESIII) investigated the production reaction of the Y(4260) resonance based on a high-luminosity data set. This significantly improved precision of the measurement of the cross-section sigma(e+e- -> J/Psi pi^+ pi^-) permitted a resolution into two resonances, the Y(4230) and the Y(4360). The Z_c(3900)^+- had been discovered by the BESIII collaboration in 2013, thus this experiment at the Beijing Electron-Positron Collider II (BEPCII) is a top-performing facililty to study exotic charmonium-like states.
In this work, an inclusive reconstruction of the strange hyperon Lambda in the charmonium mass region is performed to study possible decays of Y states in order to provide further insight into their nature. Finding more states or new decay channels may provide crucial hints to understand the strong interaction beyond nonperturbative approaches.
Three resonances are observed in the energy dependent cross-section: the first with a mass of (4222.01 +- 5.68) MeV and a width of (154.26 +- 28.16) MeV, the second with a mass of (4358.88 +- 4.97) MeV and a width of (49.58 +- 13.54) MeV and the third with a mass of (4416.41 +- 2.37) MeV and a width of (23.88 +- 7.18) MeV. These resonances, with a statistical significance Z > 5sigma, can be interpreted as the states Y(4230), Y(4360) and psi(4415).
Additionally, a proton momentum-dependent analysis strategy has been used in terms of the inclusiveness of the reconstruction and to address the momentum discrepancies between generic MC and measured data.
Induced charge computation
(2009)
One of the main aspects of statistical mechanics is that the properties of a thermodynamics state point do not depend on the choice of the statistical ensemble. It breaks down for small systems e.g. single molecules. Hence, the choice of the statistical ensemble is crucial for the interpretation of single molecule experiments, where the outcome of measurements depends on which variables or control parameters, are held fixed and which ones are allowed to fluctuate. Following this principle, this thesis investigates the thermodynamics of a single polymer pulling experiments within two different statistical ensembles. The scaling of the conjugate chain ensembles, the fixed end-to-end vector (Helmholtz) and the fixed applied force (Gibbs), are studied in depth. This thesis further investigates the ensemble equivalence for different force regimes and polymer-chain contour lengths. Using coarse-grained molecular dynamic simulations, i.e. Langevin dynamics, the simulations were found to complement the theoretical predictions for the scaling of ensemble difference of Gaussian chains in different force-regimes, giving special attention to the zero force regime. After constructing Helmholtz and Gibbs conjugate ensembles for a Gaussian chain, two different data sets of thermodynamic states on the force-extension plane, i.e. force-extension curves, were generated. The ensemble difference is computed for different polymer-chain lengths by using force-extension curves. The scaling of the ensemble difference versus relative polymer-chain length under different force regimes has been derived from the simulation data and compared to theoretical predictions. The results demonstrate that the Gaussian chain in the zero force limit generates nonequivalent ensembles, regardless of its equilibrium bond length and polymer-chain contour length. Moreover, if polymers are charged in confinement, coarse-graining is problematic, owing to dielectric interfaces. Hence, the effect of dielectric interfaces must be taken into account when describing physical systems such as ionic channels or biopolymers inside nanopores. It is shown that the effect of dielectrics is crucial for the dynamics of a biopolymer or an ion inside a nanopore. In the simulations, the feasibility of an efficient and accurate computation of electrostatic interactions in the presence of an arbitrarily shaped dielectric domain is challenging. Several solutions for this problem have been previously proposed in the literature such as a density functional approach, or transforming problem at hand into an algebraic problem ( Induced Charge Computation (ICC) ) and boundary element methods. Even though the essential concept is the same, which is to replace the dielectric interface with a polarization charge density, these approaches have been analyzed and the ICC algorithm has been implemented. A new superior boundary element method has been devised utilizing the force computation via the Particle-Particle Particle-Mesh (P3M) method for periodic geometries (ICCP3M). This method has been compared to the ICC algorithm, the algebraic solutions, and to density functional approaches. Extensive numerical tests against analytically tractable geometries have confirmed the correctness and applicability of developed and implemented algorithms, demonstrating that the ICCP3M is the fastest and the most versatile algorithm. Further optimization issues are also discussed in obtaining accurate induced charge densities. The potential of mean force (PMF) of DNA modelled on a coarsed-grain level inside a nanopore is investigated with and without the inclusion of dielectric effects. Despite the simplicity of the model, the dramatic effect of dielectric inclusions is clearly seen in the observed force profile.
This thesis explores the phase diagrams of the Nambu--Jona-Lasinio (NJL) and quark-meson (QM) model in the mean-field approximation and beyond. The focus lies in the investigation of the interplay between inhomogeneous chiral condensates and two-flavor color superconductivity.
In the first part of this thesis, we study the NJL model with 2SC diquarks in the mean-field approximation and determine the dispersion relations for quasiparticle excitations for generic spatial modulations of the chiral condensate in the presence of a homogeneous 2SC-diquark condensate, provided that the dispersion relations in the absence of color superconductivity are known. We then compare two different Ansätze for the chiral order parameter, the chiral density wave (CDW) and the real-kink crystal (RKC). For both Ansätze we find for specific diquark couplings a so-called coexistence phase where both the inhomogeneous chiral condensate and the diquark condensate coexist. Increasing the diquark coupling disfavors the coexistence phase in favor of a pure diquark phase.
On the other hand, decreasing the diquark coupling favors the inhomogeneous phase over the coexistence phase.
In the second part of this thesis the functional renormalization group is employed to study the phase diagram of the quark-meson-diquark model. We observe that the region of the phase diagram found in previous studies, where the entropy density takes on unphysical negative values, vanishes when including diquark degrees of freedom. Furthermore, we perform a stability analysis of the homogeneous phase and compare the results with those of previous studies. We find that an increasing diquark coupling leads to a smaller region of instability as the 2SC phase extends to a smaller chemical potential. We also find a region where simultaneously an instability occurs and a non-vanishing diquark condensate forms, which is an indication of the existence of a coexistence phase in accordance with the results of the first part of this work.
This thesis investigates exotic phases within effective models for strongly interacting matter.
The focus lies on the chiral inhomogeneous phase (IP) that is characterized by a spontaneous breaking of translational symmetry and the moat regime, which is a precursor phenomenon exhibiting a non-trivial mesonic dispersion relation.
These phenomena are expected to occur at non-zero baryon densities, which is a parameter region that is mostly non-accessible to first-principle investigations of Quantum chromodynamics (QCD).
As an alternative approach, we consider the Gross-Neveu (GN) and Nambu-Jona-Lasinio (NJL) model within the mean-field approximation, which can be regarded as effective models for QCD.
We focus on two aspects of the moat regime and the IP in these models.
First, we investigate the influence of the employed regularization scheme in the (3+1)-dimensional NJL model, which is nonrenormalizable, i.e., the regulator cannot be removed.
We find that the moat regime is a robust feature under change of regularization scheme, while the IP is sensitive to the specific choice of scheme.
This suggests that the moat regime is a universal feature of the phase diagram of the NJL model, while the IP might only be an artifact of the employed regulator.
Second, we study the influence of the number of spatial dimensions on the emergence of the IP.
To this end, we investigate the GN model in noninteger spatial dimensions d.
We find that the IP and the moat regime are present for d < 2, while they are absent for d > 2.
This demonstrates the central role of the dimensionality of spacetime and illustrates the connection of previously obtained results in this model in integer number of spatial dimensions.
Moreover, this suggests that the occurrence of these phenomena in three spatial dimensions is solely caused by the finite regulator.
In summary, this thesis contributes to advancing our understanding of the phase structure of QCD, particularly regarding the existence and characteristics of inhomogeneous phases and the moat regime.
Even though the investigations are performed within effective models, they provide valuable insight into the aspects that are crucial for the formation of an inhomogeneous chiral condensate in fermionic theories.
Particle physics is living it’s golden age: petabytes of high precision data are being recorded at experimental facilities such as the Relativistic Heavy Ion Collider (RHIC) and the Large Hadron Collider (LHC). Despite the significant theoretical progress achieved in the last years the complete understanding of the internal structure of protons, not computable with perturbative QCD, remains as one of the most challenging unsolved problems in the physics of elementary interactions. Besides its fundamental interest, pinning down the relevant degrees of freedom and their properties, such as their spatial distribution, has profound implications in several phenomenological aspects of high-energy collisions. Currently one of the subjects undergoing intense study is the possibility that droplets of quark-gluon plasma (QGP) are being created not only in heavy ion collisions but in more dilute systems such as high-multiplicity proton-proton interactions. This is a data driven debate as it is rooted in the similar patterns observed across the different collision systems at the LHC (p+p,p+Pb and Pb+Pb) in the flow harmonic analyses: one of the golden probes of QGP formation specially sensitive to the initial collision geometry. Another domain in which the proton structure plays a central role is the description of multi-parton interactions, the mechanism that dominates the underlying event at LHC energies, in Monte Carlo event generators. All in all a precise characterization of the hadronic structure is a crucial ingredient of the physics program of the LHC.
A full characterization of a hadron would require momentum, spatial and spin information, the so-called Wigner distribution. So far obtaining this information experimentally has not been achieved. From a theoretical point of view several complications arise such as non-universality and breaking of factorization theorems. Then, in general, the description of the hadron structure relies on phenomenological tools that require theoretical modeling constrained by experimental data. The main goal of this thesis to characterize the transverse structure of the proton. For that purpose, a wide variety of phenomenological problems that are sensitive to the proton structure have been addressed.
First, elastic scattering data on proton-proton interactions constitutes a powerful probe of the geometry of the collision. A dedicated analysis of this observable focusing on the extraction of the inelasticity density from it at √s=62.5 GeV and √s=7 TeV is presented. In the TeV regime, a unexpected phenomenon, dubbed the hollowness effect, arises: the inelasticity density, a measurement of how effective is the collision producing secondary particles, reaches its maximum at non-zero impact parameter. We provide the first dynamical explanation of the hollowness effect by constructing the elastic scattering amplitude in impact parameter representation according to the Glauber model. For that purpose we relied on a composite description of the proton. More concretely, the relevant degrees of freedom that participate in the scattering process were considered to be gluonic hot spots. The probability distribution for the transverse positions of hot spots inside the proton includes repulsive short-range correlations between all pairs of hot spots controlled by an effective repulsive core rc that effectively enlarges the mean transverse separation distance between them. The main results extracted from this work are as follows. To begin with, we found that our model was not able to describe a growing behavior of the inelasticity density at zero impact parameter in the absence of non-trivial spatial correlations. However, even in the presence of correlations, the emergence of the hollowness effect couldn’t be described when the number of hot spots was smaller than 3. Both features set solid constraints in the proton structure within our model. Finally, we pinpoint the transverse diffusion of the hot spots with increasing collision energy to be the dynamical mechanism underlying the onset of the hollowness effect.
A convenient playground to test further implications of this novel geometric description of the proton are the initial state properties of high energy proton-proton interactions in the context of QGP physics. The parametrization of the geometry of the collision is mandatory in any theoretical model attempting to describe the striking experimental results that suggest collective behavior in proton-proton interactions at the LHC, such as the non-zero value of the flow harmonic coefficients (vn). A quantitative way to characterize the initial geometry anisotropy of the overlap region is to compute the spatial eccentricity moments (εn) that fluctuate on an event by event basis. For that purpose we develop a Monte Carlo Glauber event generator. A systematic investigation of the effect of non-trivial spatial correlations in the spatial eccentricity moments from ISR to LHC energies within our Monte Carlo Glauber approach is presented. We found that both the eccentricity (ε2) and the triangularity (ε3) are affected by the inclusion of short-range repulsive correlations. In particular, the correlated scenario yielded larger values of ε2(3) in ultra-central collisions while reducing them in minimum bias.
Moreover, we explore not only the eccentricities mean but their fluctuations in terms of symmetric cumulants. The experimental measurement by the CMS Collaboration at √s=13 TeV indicates a anti-correlation of v2 and v3 around the same number of tracks in the three collision systems available at the LHC. We lay out, for the first time in the literature, a particular mechanism that permits an anti-correlation of ε2 and ε3 in the highest centrality bins as dictated by data. When modeling the proton as composed by 3 gluonic hot spots, the most common assumption in the literature, we find that the inclusion of spatial correlations is indispensable to reproduce the negative sign. Further, we perform a systematic investigation of the parameter space of the model i.e. radius of the hot spot, radius of the proton, repulsive core and number of hot spots in each proton. Our results suggest that the interplay of the different scales is decisive and confirm the discriminating power of this observable on initial state models. Together with their drastic impact on the description of the hollowness effect and the absolute values of the eccentricities, the symmetric cumulant study adds evidence to the fact that the inclusion of spatial correlations between the sub nucleonic degrees of freedom of the proton modifies the initial state properties of p+p interactions at LHC energies.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
In den intermetallischen Verbindungen CeCu2Si2, CeCu2Ge2, CePd2Si2 und im CeCu6-xAux-System mit x = 0, 0,1, 0,2 bestimmen die elektronischen Wechselwirkungen, an denen die 4f-Elektronen der periodisch angeordneten Cer-Ionen partizipieren, das Tieftemperaturverhalten. Die magnetische Wechselwirkung der 4f-Elektronen mit den Leitungselektronen der metallischen Matrix führt zur Ausbildung des Schwere Fermionen Zustands. Auf diese Kondo-artige Wechselwirkung geht die Destabilisierung der magnetischen 4f-Momente mit sinkender Temperatur zurück. Bei hinreichend tiefen Temperaturen wird ein Kohärenzregime erreicht, in dem Quasiteilchen mit schweren Massen entstehen, und der Schwere Fermionen Zustand zeigt Merkmale einer schweren Fermiflüssigkeit. Im Fall von CeCu2Si2 gelten die schweren Quasiteilchen als Träger der supraleitenden Phase, die unterhalb von 1 K auftritt. Mit der Kondo-artigen Wechselwirkung konkurriert die magnetische Wechselwirkung zwischen den f-Elektronen, welche das Auftreten magnetischer Ordnung begünstigt. Um die magnetischen bzw. supraleitenden Tieftemperaturinstabilitäten in CeCu2Si2, Ce-Cu2Ge2, CePd2Si2 sowie im CeCu6-xAux-System mit x = 0, 0,1, 0,2 und das daraus resultierende Tieftemperaturverhalten zu untersuchen, wurden für diese Arbeit Ultraschall- und gegebenenfalls m+SR-Experimente an Einkristallen durchgeführt: Die Messungen der relativen Änderung Dcii/cii 0 der longitudinalen elastischen Konstanten cii, i =1,2,3, durch Ultraschall wurden in Abhängigkeit von der Temperatur T, dem statischen Magnetfeld B bis zu 27 T und im Fall von CeCu2Si2 auch unter uniaxialem Druck durchgeführt. Bei den m+SR-Experimenten an den CeCu2Si2-, CeCu2Ge2- und CePd2Si2-Einkristallen wurde die Zeitentwicklung der Myonspinpolarisation (das m+SR-Signal) unter dem Einfluss der inneren magnetischen Felder, die durch die magnetischen Momente der Probe am Myonstopport erzeugt werden können, beobachtet, meistens ohne dabei ein äußeres Magnetfeld anzulegen. Das Verhalten des Signals wurde i. a. mit einer mehrkomponentigen Anpassungsfunktion beschrieben. Die Temperaturabhängigkeit der relativen Amplituden, der Relaxationsraten und gegebenenfalls der Präzessionsfrequenzen dieser Komponenten kann die Entwicklung der verschiedenen Phasen in den Proben widerspiegeln. Ein Schwerpunkt dieser Arbeit liegt auf der Untersuchung der Wechselbeziehung zwischen der Supraleitung (SL) und der sie im B-T-Diagramm umgebenden A-Phase in CeCu2Si2. Auf der Basis von Symmetrieargumenten wurde nämlich aus dem Verhalten der elastischen Konstanten in Einkristallen, in denen die supraleitende Phase durch die Übergangssequenz C (paramagnetische Phase) ® A ® SL erreicht wird, ein außergewöhnliches Phänomen abgeleitet [Bruls, 1994a]: Die A-Phase, die magnetische Signaturen aufweist und immer noch von rätselhafter Natur ist, wird von der Supraleitung verdrängt. Auslöser für die Formulierung eines solchen Szenarios war die große positive Stufe in den elastischen Konstanten (7,5 x 10-4 in Dc11(T)/c11 0 von Einkristall #3S) am Übergang in die Supraleitung statt der erwarteten kleinen negativen Stufe. Im Bild eines Verdrängungseffektes wird die Hypothese aufgestellt, dass am direkten Übergang von C nach SL eine kleine negative Stufe auftritt. Die in der Gesamtbilanz positive Stufe am Übergang von A nach SL kommt dadurch zustande, dass diese kleine negative durch eine größere positive Stufe, die den simultanen Rückgang des APhasenordnungsparameters anzeigt, kompensiert wird. In den Einkristallen liegen die verschiedenen Phasen im B-T-Gebiet unterhalb von 1 K. Dies gilt auch für die B-Phase, die sich im Hochfeld an die A-Phase anschließt. A- und B-Phase zeigen eine Probenvariation, die sich in erster Linie in einer Reduktion der Anomalien und Effekte in verschiedenen Messgrößen spiegelt, aber auch in einer Streuung der Übergangstemperaturen. Die supraleitende Übergangstemperatur ist stark von der Cu-Stöchiometrie abhängig. Auf diese Probenabhängigkeiten lassen sich die unterschiedlichen Sichten auf die Wechselbeziehung zwischen der Supraleitung und der sie umgebenden Phase zurückführen. Sowohl eine Koexistenz als auch eine Konkurrenz wurde in Betracht gezogen. Aus m+SRMessungen an polykristallinem CeCu2Si2-Material wurde gefolgert, dass sich Supraleitung und magnetische Ordnung inhomogen im Probenvolumen entwickeln. Die im Rahmen dieser Arbeit durchgeführten Schallexperimente an einer Serie supraleitender CeCu2Si2-Einkristalle zeigen unterschiedliche Typen, die sich in der Ausprägung der A- und der B-Phasenanomalien unterscheiden: Am reinen Supraleiter (Einkristall #4B) ohne A- und B-Phase wurde die dem Verdrängungseffekt zugrunde gelegte Hypothese verifiziert, dass für den direkten Übergang von C nach SL eine kleine negative Stufe (- 0,6 x 10-4 in Dc11(T)/c11 0) auftritt. Ein weiterer Einkristall (#1B) lässt sich unabhängig vom mehrfachen Tempern im Feldbereich unterhalb von etwa 1,5 T als quasi reiner Supraleiter identifizieren. Die A-Phase ist nicht bis ins Nullfeld ausgedehnt. Die der A- bzw. B-Phase zugeordneten Hochfeldanomalien sind aber in Abhängigkeit von der Zahl der Tempervorgänge unterschiedlich stark reduziert. Die Verbreiterung der Anomalien wurde als Ausdruck einer Verteilung von Übergangstemperaturen und kritischen Feldern diskutiert. Ihre Reduktion lässt sich in diesem Bild als Ausbildung der A- bzw. B-Phase in einem reduzierten Probenvolumen auffassen. Trotzdem zeigt die elastische Konstante beim Passieren der A-Phasengrenze als Funktion des Feldes scharfe Verdrängungsanomalien. Die Schärfe des supraleitenden Übergangs prägt sich dem Verdrängungseffekt auf. Obwohl bei der Analyse von Dc11/c11 0 eine Konkurrenz der Phasen zugelassen wurde, der eine räumliche Separation im Probenvolumen zugrunde liegt, musste aus der Schärfe der Verdrängungsstufe und der Nettobilanz der Stufenhöhen an den verschiedenen Übergängen gefolgert werden, dass beim Passieren der A-SL-Phasengrenzlinie in Probenbereichen, die sich in der A-Phase befinden, die A-Phase durch die Supraleitung verdrängt wird. Im Fall von Übergängen ausreichender Schärfe ist die Ausbildung der A- und der SL-Phase und die Verdrängung homogen. In die Kategorie des Einkristalls #1B wurde ein weiterer Einkristall (#3Nu) eingeordnet, der unter ähnlichen Züchtungsbedingungen wie die Einkristalle #1Nu und #2Nu (#1,2Nu) hergestellt wurde. Durch den Vergleich der Schallexperimente an den verschiedenen Kristallen wurde der Einkristall #3S als Prototyp für einen Supraleiter mit ausgeprägten und scharfen A-Phasen- und Verdrängungsanomalien identifiziert. In diesem liegt bei B = 0 die Temperatur Tc für den Übergang von A nach SL dicht unterhalb von TA für den Übergang in die A-Phase. Für die Qualität des Prototyps #3S stehen die im Rahmen dieser Arbeit gefundenen magnetoakustischen Quantenoszillationen. Seine anisotropen B-T-Diagramme wurden für statische Magnetfelder bis 27 T gemessen. Eine weitere Phase, die sich der B-Phase im Hochfeld anschließt, konnte im zugänglichen Temperatur- und Feldbereich nicht gefunden werden. In den großen Einkristallen #1,2Nu ließ sich das Verhalten von #3S in wesentlichen Punkten reproduzieren. Zusammen ergaben sie hinreichend viel Material einheitlicher Eigenschaften, um daran m+SR-Experimente durchzuführen. Ihre Schallanomalien erreichen fast vergleichbare Größen wie die in #3S, sind jedoch weniger scharf als in diesem. In den Dämpfungsmessungen an den Phasenübergängen treten größere Unterschiede zwischen #2Nu und #3S hervor. Die vergleichende Analyse der relativen Dämpfung an den diversen Übergängen stützt den Befund, dass die Supraleitung die A-Phase verdrängt. Die Schallexperimente an #3S unter uniaxialem Druck entlang der a-Achse des tetragonalen Gitters von CeCu2Si2 zeigen, dass schon geringer Druck (» 0,3 kbar) eine Verschiebung der Phasengrenzlinien bewirkt: Die A-Phase wird destabilisiert, im Gegenzug wird die Supraleitung stabilisiert. Bevor noch die Verschiebung merklich wird, tritt eine allerdings stark anisotrope Reduktion der Anomaliegrößen auf. Letztere korrespondiert mit der Anisotropie des statischen Verzerrungszustands, den der uniaxiale Druck bewirkt. Bei ca. 0,3 kbar wird die APhasengrenzlinie merklich zu kleineren und die Grenzlinie des Übergangs von A nach SL zu höheren Feldern verschoben. Im Bereich der Übergangstemperaturen TA und Tc bei B = 0 ist das Verhalten der Phasen aufgrund der reduzierten Schallanomalien schwieriger zu analysieren. Auch wenn davon ausgegangen wird, dass die Anomalien unter dem Einfluss des Druckes an sich reduziert sind, können die Größenverhältnisse und die Verbreiterung der Anomalien anzeigen, dass aufgrund der gegenläufigen Druckabhängigkeit von TA und Tc nur noch ein Teilvolumen A-Phase entwickelt. Die Schallexperimente wurden auf Einkristalle der zu CeCu2Si2 isostrukturellen Verbindungen CeCu2Ge2 und CePd2Si2 ausgedehnt. Diese ordnen bei Normaldruck langreichweitig mit bekannter magnetischer Struktur. CeCu2Ge2 geht bei ca. 4,4 K in eine inkommensurabel [Knopp,1989], CePd2Si2 bei ca. 10 K in eine kommensurabel geordnete antiferromagnetische Phase über [Grier, 1988]. Die Messungen an einem CeCu2Ge2-Einkristall mit TN = 4,5 K führen für B // a auf ein komplexes B-T-Diagramm, dessen Topologie durch mindestens einen kritischen Punkt gekennzeichnet ist. Im Nullfeld gibt es keine reproduzierbaren Hinweise auf einen weiteren Phasenübergang. Auch bei CeCu2Ge2 und CePd2Si2 erscheint der Magnetismus als sensitiv auf die Stöchiometrie und strukturelle Inhomogenitäten. Für beide Verbindungen treten Einkristalle mit reduziertem TN auf. Dies wird aber nicht von einer signifikanten Reduktion der Anomaliegrößen begleitet. Im Fall der CeCu2Ge2-Einkristalle mit TN = 3,5 K tritt bereits im Nullfeld ein weiterer Übergang (M) bei einer Temperatur TM im Bereich von 1,7 K-2,5 K auf, der sich für B // a entlang der M-Linie auf den kritischen Punkt zubewegt. Im B-T-Gebiet, das in der Halbebene oberhalb der Temperatur des kritischen Punktes liegt, gleicht die Topologie des Phasendiagramms der des 4,5 K-Einkristalls. Darauf stützt sich unter anderem die Folgerung, dass bei B = 0 für TM < T < TN die magnetischen Strukturen der Einkristalle mit TN = 4,5 K und TN = 3,5 K einander ähnlich sind. In einem CePd2Si2-Einkristall mit TN = 10 K verharrt TN für B // c auch bei 12 T auf dem Wert für B = 0. Die vorhandenen Ultraschallmessungen geben keine Hinweise auf weitere Übergänge für T < TN und B £ 12 T. Dies gilt auch für den CePd2Si2-Einkristall mit einem reduzierten TN von 8,8 K. Bei den m+SR-Experimenten an den CeCu2Ge2- und CePd2Si2-Einkristallen mit reduziertem TN wurde erwartet, bei geeigneter experimenteller Geometrie in der geordneten Phase ein Präzessionsmuster im m+SR-Signal zu erhalten. Hierfür muss in der Verteilung der inneren Magnetfelder, die von den geordneten magnetischen Momenten erzeugt werden und um welche die Myonenspins präzedieren, genügend statistisches Gewicht auf einem endlichen Feldbetrag liegen. Im Fall von CeCu2Ge2 ist aufgrund der Inkommensurabilität mit einer der magnetischen Struktur innewohnenden Relaxation des Signals zu rechnen. Sowohl in CeCu2Ge2 als auch in CePd2Si2 ist der Übergang in die geordnete Phase durch das Auftreten einer schnell relaxierenden Komponente gekennzeichnet. Diese ist auch innerhalb der geordneten Phasen dominant. Der zügige Anstieg ihrer Amplitude korrespondiert mit der Stufenanomalie in den elastischen Konstanten am Übergang. Das in CePd2Si2 beobachtete Präzessionsmuster bzw. der Ansatz zu nicht monotonem Verhalten in CeCu2Ge2 unterhalb des Übergangs ist nur schwach ausgeprägt. Aus der schnellen Anfangsdepolarisation, von welcher der Großteil des Signals betroffen ist, wurde geschlossen, dass eine Inhomogenität der Feldverteilung infolge struktureller Inhomogenitäten der Proben Ursache für die Diskrepanzen zwischen beobachtetem und erwartetem Verhalten ist. Im Fall von CeCu2Ge2 können neben den Störungen der Gitterperiodizität dynamische Effekte auf Grund der Nähe zu den M-Übergängen bei TM < TN hinzukommen. Die m+SR-Experimente an supraleitenden CeCu2Si2-Einkristallen zeigen, dass mit der Entwicklung der A-Phase eine gaußförmig schnell relaxierende Komponente im zweikomponentigen m+SR-Signal verknüpft ist. Das Verhalten dieser Komponente lässt sich durch die Temperaturabhängigkeit ihrer Amplitude a1 und ihrer Rate S1 charakterisieren. Sie ist in den Einkristallen #1,2Nu, die in den elastischen Konstanten große A-Phasen- und Verdrängungsanomalien aufweisen, zu beobachten, nicht aber im Supraleiter #1B, der im Nullfeld keine APhase ausbildet, sondern direkt in die supraleitende Phase (SL) übergeht. Aus dem Vergleich der Werte für die Relaxationsrate der schnell relaxierenden Signalkomponente wurde geschlossen, dass die A-Phase mit dem Zustand der magnetischen Volumina, die in Polykristallen detektiert wurden und deren magnetische Momente elektronischen Ursprungs sein müssen [Luke, 1994,; Feyerherm, 1997], identisch ist. In der SL-Phase von #1B ist die gaußförmige Relaxation des m+SR-Gesamtsignals so langsam wie in der C-Phase. Im m+SR-Signal der Einkristalle kann übereinstimmend mit den Polykristalldaten in der APhase für die gewählte Geometrie kein spontanes Präzessionsmuster beobachtet werden. Die monotone, gaußförmige Relaxation des Signals weist auf eine inhomogene Feldverteilung mit statistisch verteilten Magnetfeldbeträgen hin. Diese Felder haben eher statischen Charakter. In den Einkristallen #1,2 Nu sind aber die mittleren Übergangstemperaturen der Phasenübergangssequenz C-A-SL gegenüber dem Prototyp #3S reduziert und die Schallanomalien verbreitert. Aufgrund der m+SR-Ergebnisse für die CeCu2Ge2- und CePd2Si2-Proben mit reduzierten Übergangstemperaturen wurde daher in Betracht gezogen, dass die im m+SR-Signal erkennbaren Merkmale der Feldverteilung nicht nur auf die „Struktur“ oder den Ordnungstypus der A-Phase zurückgehen, sondern auch durch strukturelle Inhomogenitäten des Materials geprägt sind. Störungen des Kristallgitters können eine Inhomogenität der Feldverteilung bewirken, durch welche die Charakteristika der A-Phase zumindest teilweise verdeckt werden können. Überhaupt kann der Ordnungstyp der A-Phase untrennbar mit dem Vorhandensein von Gitterstörungen verknüpft sein. Um die Natur der A-Phase eindeutig zu klären, sind Neutronenbeugungsexperimente notwendig. Bei den im Zusammenhang mit dieser Arbeit durchgeführten Neutronenexperimenten konnten bislang keine magnetischen Bragg-Reflexe gefunden werden. Die m+SR-Experimente an den Einkristallen bestätigen das Szenario der Verdrängung der APhase durch die Supraleitung, wie es in den Schallexperimenten an den CeCu2Si2-Einkristallen gefunden wurde: In den Einkristallen #1,2 Nu steigt die normierte Amplitude a1(T) der Komponente des m+SR-Signals, die auf die A-Phase zurückgeht, unterhalb von 0,80 K zügig auf einen Maximalwert von 75 % bei ca. 0,60 K an. Dieser Anstieg von a1 korrespondiert mit der negativen Stufenanomalie, die in der Temperaturabhängigkeit der relativen Änderung Dcii(T)/cii 0 (i =1,3) der elastischen Konstanten beim Übergang von der C- in die A-Phase auftritt. Die Abnahme von a1 unterhalb von 0,60 K korrespondiert mit der positiven Stufenanomalie in Dcii/cii 0 am Übergang von A nach SL. Tc = 0,60 K wird mit dem Einsetzen der Supraleitung assoziiert. Diese Korrespondenz zwischen Schallanomalien und a1(T) geht soweit, dass der Verlauf von Dcii(T)/cii 0 sich beinahe durch die Multiplikation von a1(T) mit einem konstanten Proportionalitätsfaktor reproduzieren lässt. Mit Einschränkungen kann a1(T) als Maß für das Probenvolumen, das sich in der A-Phase befindet, betrachtet werden. Dcii(T)/cii 0 skaliert also mit dem A-Phasenvolumen. Dieser Zusammenhang ergibt sich auch aus einer einfachen Modellbetrachtung für eine inhomogene Entwicklung und Verdrängung der A-Phase durch die Supraleitung im Probenvolumen. Der Proportionalitätsfaktor ist hierbei mit der negativen Stufe in Dcii(T)/cii 0 am Übergang von C nach A in einer idealen homogenen Probe identisch. Im Fall des Einkristalls #3S ist im Bereich des Übergangs von C nach A der Verlauf der Kurve, die mit -7,9 x 10-4 a1(T) errechnet wurde, mit Dc11(T)/c11 0 identisch. Im Bereich der Verdrängungsanomalie reproduziert die errechnete Kurve ein Ansteigen von Dc11(T)/c11 0, aber die Abweichung nimmt mit sinkender Temperatur zu. Gemessen an den durchgeführten Approximationen innerhalb der Modellbetrachtung ist die Übereinstimmung aber beachtlich. Der prototypische Einkristall #3S weist größere und schärfere Schallanomalien als die Einkristalle #1,2Nu auf, ist aber für m+SR-Messungen viel zu klein. Mit dem Wert von -7,9 x 10-4 für den Proportionalitätsfaktor lässt sich in umgekehrter Weise zum Vorgehen bei den Einkristallen #1,2Nu die an #3S gemessenen Kurve von Dc11(T)/c11 0analysieren. Das Ergebnis für a1(T) zeigt, dass sich im gesamten Probenvolumen von #3S die A-Phase entwickelt und ihre Verdrängung durch die Supraleitung vollständig und quasi homogen erfolgt. Verdrängt die Supraleitung die A-Phase, müssen der A-Phasenordnungsparameter und die inneren magnetischen Felder, die anzeigen, dass die A-Phase vorliegt, wieder verschwinden. Die Relaxationsrate S1 der Komponente im Signal, die mit der A-Phase verknüpft wird, kann als Maß für den Ordnungsparameter betrachtet werden. In den Einkristallen #1,2Nu zeigt die Temperaturabhängigkeit S1(T) einen Bruch in ihrem Verhalten, wenn die zügige Abnahme von a1(T) aufgrund der Verdrängung der A-Phase einsetzt: Sie geht für sinkende Temperatur in ein Regime eines deutlich abgeschwächten Anstiegs über. Dies wurde im Bild einer inhomogenen Entwicklung der Phasen als Folge eines Nettoeffekts diskutiert, zu dem Probenbereiche beitragen, in denen die A-Phase kurz davor steht, von der Supraleitung verdrängt zu werden und deshalb der A-Phasenordnungsparameter und einhergehend die inneren magnetischen Felder nicht mehr zunehmen oder sogar zurückgehen. Um ein solches Verhalten zu verifizieren, braucht es Messungen an Einkristallen mit scharfen Phasenanomalien und einem breiteren Temperaturgebiet, auf dem die A-Phase bei B = 0 existiert. Aufgrund der Konkurrenz der Wechselwirkungen, an denen die f-Elektronen partizipieren, lässt sich im CeCu6-xAux-System durch Variation der Konzentration x ein Übergang zwischen einem magnetischen und einem nichtmagnetischen Grundzustand induzieren. Auf die Nähe zum T=0-Phasenübergang werden in CeCu5,9Au0,1 die Abweichungen vom Fermiflüssigkeitsverhalten, das in der spezifischen Wärme, der magnetischen Suszeptibilität und dem elektrischen Widerstand von CeCu6 näherungsweise beobachtbar ist, zurückgeführt. In den vergleichenden Messungen der longitudinalen elastischen Konstanten an CeCu5,9Au0,1 und CeCu6 traten erst unterhalb von 1 K Unterschiede für die beiden Konzentrationen auf. Die Übereinstimmung im globalen Verhalten legte nahe, dass auch im Fall von CeCu5,9Au0,1 die Schalleffekte durch die Grüneisenparameterkopplung beschreibbar sind. In der Grüneisenparameterformel folgt die adiabatische elastische Konstante der Temperaturabhängigkeit des elektronischen Beitrags zur Inneren Energie mit den richtungsabhängigen Grüneisenparametern als Proportionalitätskonstanten. Da die beobachteten Unterschiede klein sind, ist es umso erstaunlicher, dass sie nicht vollständig durch die Unterschiede in der Änderung der Inneren Energie erfasst werden können. Zudem sind sie moden- und damit richtungsabhängig. Diese Ergebnisse wurden im Bild einer Temperaturabhängigkeit der betroffenen Grüneisenparameter diskutiert.
Interacting ultracold gases in optical lattices: non-equilibrium dynamics and effects of disorder
(2012)
This dissertation aims at giving a theoretical description of various applications of ultracold gases. A particular focus is cast upon the dynamical evolution of bosonic condensates in non-equilibrium by means of the time-dependent Gutzwiller method. Ground state properties of strongly interacting fermionic atoms in box and speckle disordered lattices are investigated via real-space dynamical mean-field theory. ...
In this doctoral thesis the transformation from relativistic hydrodynamics to transport and vice versa is studied. Approximations made by hybrid (hydrodynamics + transport) simulations of relativistic heavy ion collisions are discussed and their reliability is assessed at intermediate collision energies. A new method to simulate heavy ion collisions is suggested, based on the forced thermalization in high-density regions.
This thesis contains three theoretical works about certain aspects of the interplay of electronic correlations and topology in the Hubbard model.
In the first part of this thesis, the applicability of elementary band representations (EBRs) to diagnose interacting topological phases, that are protected by spatial symmetries and time-reversal-symmetry, in terms of their single-particle Matsubara Green’s functions is investigated. EBRs for the Matsubara Green’s function in the zero-temperature limit can be defined via the topological Hamiltonian. It is found that the Green’s function EBR classification can only change by (i) a gap closing in the spectral function at zero frequency, (ii) the Green’s function becoming singular i.e. having a zero eigenvalue at zero frequency or (iii) the Green’s function breaking a protecting symmetry. As an example, the use of the EBRs for Matsubara Green’s functions is demonstrated on the Su-Schriefer-Heeger model with exact diagonalization.
In the second part the Two-Particle Self-Consistent approach (TPSC) is extended to include spin-orbit coupling (SOC). Time-reversal symmetry, that is preserved in the presence of SOC, is used to derive new TPSC self-consistency equations including SOC. SOC breaks spin rotation symmetry which leads to a coupling of spin and charge channel. The local and constant TPSC vertex then consists of three spin vertices and one charge vertex. As a test case to study the interplay of Hubbard interaction and SOC, the Kane-Mele-Hubbard model is studied. The antiferromagnetic spin fluctuations are the leading instability which confirms that the Kane-Mele-Hubbard model is an XY antiferromagnet at zero temperature. Mixed spin-charge fluctuations are found to be small. Moreover, it is found that the transversal spin vertices are more strongly renormalized than the longitudinal spin vertex, SOC leads to a decrease of antiferromagnetic spin fluctuations and the self-energy shows dispersion and sharp features in momentum space close to the phase transition.
In the third part TPSC with SOC is used to calculate the spin Hall conductivity in the Kane-Mele-Hubbard model at finite temperature. The spin Hall conductivity is calculated once using the conductivity bubble and once including vertex corrections. Vertex corrections for the spin Hall conductivity within TPSC corresponds to the analogues of the Maki-Thompson contributions which physically correspond to the excitation and reabsorption of a spin, a charge or a mixed spin-charge excitation by an electron. At all temperatures, the vertex corrections show a large contribution in the vicinity of the phase transition to the XY antiferromagnet where antiferromagnetic spin fluctuations are large. It is found that vertex corrections are crucial to recover the quantized value of −2e^2/h in the zero-temperature limit. Further, at non-zero temperature, increasing the Hubbard interaction leads to a decrease of the spin Hall conductivity. The results indicate that scattering of electrons off antiferromagnetic spin fluctuations renormalize the band gap. Decreasing the gap can be interpreted as an effective increase of temperature leading to a decrease of the spin Hall conductivity.
The enzyme quinol:fumarate reductase (QFR) from the anaerobic e-proteobacterium Wolinella succinogenes is part of the anaerobic respiratory system of this organism. It couples the reduction of fumarate to succinate to the oxidation of menaquinol to menaquinone. W. succinogenes uses fumarate as terminal electron acceptor and can use various substrates (e.g., formate or molecular hydrogen) as electron donors. The concerted catalytic substrate turnover of either a hydrogenase or a formate dehydrogenase in conjunction with QFR contributes to the generation of an electrochemical potential gradient across the bacterial plasma membrane, which is used for the phosphorylation of ADP with inorganic phosphate, Pi, to ATP. In addition to an FAD (in subunit A) and three iron-sulfur clusters (in subunit B), QFR binds a low- and a high-potential heme b group in its transmembrane subunit C, as was ultimately shown in the crystal structure at 2.2 Å resolution (Lancaster et al., 1999, Nature 402, 377– 385). Both hemes are part of the electron transport chain between the two catalytic sites of this redox enzyme. The midpoint potentials of the hemes are well established but their assignment to the distal and proximal positions in the structure had not yet been determined. Furthermore, QFR from W. succinogenes has been proposed to exhibit a novel coupling mechanism of transmembrane electron and proton transfer, which has been described in the so-called “E-pathway” hypothesis (Lancaster, 2002, Biochim. Biophys. Acta 1565, 215–231). The aim of this project was to characterize the relationship between structure and function of QFR and to investigate the details of the proposed coupling mechanism (“Epathway”) with the help of computer-based electrostatic calculations on the QFR wild-type (WT) coordinates, and electrochemically induced FTIR and VIS difference spectroscopy on the QFR WT and available variant enzymes (in particular enzyme variant E180Q, in which the glutamic acid at position C180 has been replaced by a glutamine). 1.) It was demonstrated in this study that the diheme-containing QFR exhibits stable and reproducible electrochemically induced FTIR difference bands in the midinfrared range from 1800 cm-1 to 1000 cm-1 that reflect transitions from the reduced to the oxidized state of the enzyme. The spectral features that were observed in the FTIR difference spectra are fully reversible when changing from a reductive to an oxidative reference potential at the working electrode and vice versa. This indicates that the underlying redox reactions of the enzyme at the gold grid working electrode are also fully reversible under the applied experimental conditions. The same reversible spectral redox behavior in the visible range could also be ascertained for the Soret- and a-band of the two heme b groups of QFR. This behavior allowed to reliably determine the heme b midpoint potentials of QFR at various pH values. Analysis of the FTIR difference spectra in the amide I range yields evidence for structural reorganizations of the polypeptide backbone upon the electrochemically induced redox reaction. 2.) The redox titrations of the high- and low-potential heme b of QFR as simulated by multiconformation continuum electrostatics (MCCE) calculations showed a very high level of agreement with respect to the experimentally observed midpoint potentials of the heme b groups at pH 7. As determined with the help of the theoretical calculations, prominent features governing the differences in redox potential between the two hemes are the higher loss of reaction field energy for the proximal heme and the stronger destabilization of the oxidized form of the proximal heme due to several buried and ionized Arg and Lys residues. The explicit incorporation of crystallographically identified water molecules in the calculations had a noticeable effect on the absolute values of the determined midpoint potentials, although the relative difference of the two obtained midpoints did not change significantly. The results of the electrostatic calculations clearly showed that the lowpotential heme corresponds to the distal position bD in the structure, and that the high-potential heme is identical to the proximal heme bP. This assignment could previously not be achieved unequivocally with experimental methods. 3.) In addition, the currently discussed mechanism of coupled electron and proton transfer in the QFR of W. succinogenes (i.e., the “E-pathway” hypothesis) is further supported by the results of this study. The simulations of intermediate states of electron transfer via the heme b groups show that the protonation state of the key amino acid residue Glu C180 depends on the redox states of the heme groups as suggested in the “E-pathway” hypothesis. This result yields a possible mechanism for the coupling of transient transmembrane proton transfer via Glu C180 to the electron transfer via the heme b groups, since Glu C180 could be part of a “proton wire” and its redox-dependent protonation state could serve as the regulatory element of the “E-pathway”. Furthermore, the results of simulated heme reduction indicate that the side chain of Glu C180 also changes its conformation with respect to the redox state of the hemes. Both major results concerning the role of Glu C180, the change of protonation as well as the reorientation of the side chain upon reduction of the heme groups, are consistent with the results from electrochemically induced FTIR difference spectroscopy: Of particular interest was the spectral range above 1710 cm-1, where C=O stretching vibrations of protonated COOH carboxyl groups absorb, because those groups can act as proton donors, respectively acceptors, and can be involved in intra-protein proton transfer reactions. It was possible to observe signals of such protonated carboxyl groups originating from QFR enzyme, which either change their protonation state and/or experience an environmental change in the course of the induced redox reaction. This finding was supported by the fact that the relevant FTIR difference signals are sensitive to an isotopic hydrogen/deuterium (1H/2H) exchange via the buffer solution, since they were shifted towards lower wavenumbers in D2O. Furthermore, it could be shown with the help of site-directed mutagenesis that the acidic residue Glu C180, which is located in the membranespanning, diheme-containing subunit C of QFR, is contributing to the redox dependent signal of protonated carboxyl groups. The observed residual signal in the FTIR double-difference spectrum of QFR wild-type and enzyme variant E180Q (Glu C180 has been replaced with a Gln residue) could be interpreted as a protonation/deprotonation event that is superimposed by an environmental effect on the specific C=O vibration. This result strongly supports the proposed “E-pathway” of coupled transmembrane electron and proton transfer in the QFR enzyme, which states that residue Glu C180 is an essential constituent of a transient redox-controlled transmembrane proton transfer pathway. 4.) As a second possible constituent of the suggested “E-pathway”, the ring C propionate of the distal heme was found to be unusually fully protonated in all simulated redox states, indicating a possible role as a transient proton donor/acceptor in the “E-pathway”. Similarly to Glu C180, experimental evidence from FTIR difference spectroscopy on a modified QFR with 13C-labeled heme propionates was obtained, which indicates an involvement of at least one of the two propionates of heme bD in proton transfer. The observed signals can tentatively be interpreted as a redox-coupled (de)protonation of the ring C propionate of bD, which is possibly xiii superimposed by a conformational or environmental change of the specific propionate. 5.) Also the observation of a strong redox Bohr effect for both heme b groups in QFR is in line with the proposed “E-pathway” hypothesis, as this effect yields a possible and well-established mechanism for the coupling of proton transfer and redox changes of the heme groups. The comparison of the observed effect in QFR WT and E180Q together with the results from FTIR spectroscopy and MCCE calculation indicate that the ring C propionate of the distal heme is dominating the pHdependence of the midpoint potential of bD, and that the corresponding group for bP is Glu C180. The origin of the redox Bohr effect for bP in the enzyme variant E180Q (which is dramatically changed with respect to the WT) could not be identified unequivocally, but the observation of this redox Bohr effect in the variant implies the presence of other protolytic groups, which interact with heme bP and which may be necessary for a functional “E-pathway”.
Diese Doktorarbeit widmet sich der Untersuchung von Systemen von Quarks und der Wechselwirkung zwischen ihnen mit Hilfe von Lattice QCD. Aus Quarks zusammengesetzte Objekte heißen Hadronen. Ein bestimmter Typ von Hadronen ist das sogenannten Tetraquark. In Teilchendetektoren wie dem LHCb in der Schweiz oder Belle in Japan wurden in jüngerer Zeit Zustände gefunden, die als Kandidaten für Tetraquarks gelten. Diese Arbeit befasst sich mit der Beschreibung und Untersuchung solcher Tetraquark-Zustände. Die Systeme, um die es in dieser Arbeit hauptsächlich geht, enthalten vier Quarks unterschiedlicher Masse. Zwei Quarks wird im Großteil der Arbeit eine unendlich große Masse zugeordnet. Zwei Quarks haben eine endliche Masse. In dieser statisch-leichten Näherung ist es möglich, das Potential der schweren Quarks in Anwesenheit der leichten Quarks zu bestimmen und zu überprüfen, ob es attraktiv genug dazu ist, einen gebundenen Zustand der vier Quarks zu bilden. Dieses Vorgehen ist als Born-Oppenheimer-Approximation bekannt. Die Observable, die berechnet werden muss, ist also das Vier-Quark-Potential.
Im ersten Teil der Arbeit werden verschiedene Vier-Quark-Potentiale aufgeführt und die zugehörigen Quantenzahlen genannt. Jeder der geeigneten Kanäle wird auf seine Fähigkeit untersucht, einen gebundenen Zustand zu bilden. Eine ausführliche systematische und statistische Analyse liefert den eindeutigen Befund, dass Bindung nur für Isospin I = 0 und nichtstatistsche u- und d-Quarks möglich ist. Im Falle von I = 1 oder nichtstatistschen s- und c-Quarks ist kein gebundener Zustand zu erwarten. Schließlich wird für den Fall der u- und d-Quarks eine Extrapolation zu physikalischen Quarkmassen durchgeführt. Die Bindung wird mit abnehmender Quarkmasse stärker. Am physikalischen Punkt wird eine Bindungsenergie von −90(+43−36) MeV festgestellt. Somit wird für Quantenzahlen I(J^P) = 0(1^+) ein gebundener b̄b̄ud-Zustand postuliert. Im zweiten Teil der Arbeit wird die statisch-leichte Näherung aufgehoben. So kann der Spin der schweren Quarks einbezogen werden. Dies führt unter anderem dazu, dass B- und B* -Mesonen unterscheidbar werden. Ein Nachteil dessen, dass vier Quarks endlicher Masse verwendet werden, ist der, dass es nun nicht mehr möglich ist, das Potential der schweren Quarks in Gegenwart der leichten zu bestimmen. Stattdessen wird aus der Korrelationsfunktion des Vier-Quark-Zustands direkt die Masse bestimmt. Zur Beschreibung der schweren Quarks wird der Ansatz der Nichtrelativistischen QCD (NRQCD) gewählt. Es wird der aus dem ersten Teil bekannte gebundene b̄b̄ud-Zustand mit Quantenzahlen I(J^P) = 0(1^+) weiter untersucht. Wir nehmen an, dass die Quantenzahlen durch ein BB*-Molekül realisiert werden. Wir bestimmen mithilfe des generalisierten Eigenwertproblems (GEP) den Grundzustand. Die Masse des Grundzustands ist ein Hinweis auf die Existenz eines gebundenen Zustands. Insgesamt bekräftigt der Befund das im ersten Teil der Arbeit gefundene Resultat, die Vorhersage eines bisher nicht gemessenen Tetraquark-Zustandes, qualitativ. Im dritten Teil der Arbeit geht es um Vier-Quark-Systeme, die ein schweres Quark und ein schweres Antiquark sowie ein leichteres Quark und ein leichteres Antiquark enthalten. Neben einem gebundenen Vier-Quark-Zustand ist u.a. die Bildung eines Bottomonium-und-Pion-Zustands möglich. Dies macht die theoretische Beschreibung dieses Systems ungleich schwieriger als die Beschreibung des im ersten und zweiten Teil der Arbeit untersuchten Systems. Seine experimentelle Untersuchung hingegen ist weniger aufwändig. So wurden bereits Kandidaten für einen solchen Zustand gemessen: Z_b(10610) und Z_b(10650). Zunächst wird ein Szenario beschrieben, in welcher Reihenfolge die zu den verschiedenen Strukturen gehörenden Potentiale vorliegen. So handelt es sich bei dem Grundzustandspotential des Systems um das Potential eines unangeregten Bottomonium-Zustands mit einem Pion in Ruhe. Darüber liegen zahlreiche Bottomonium-Zustände mit Pionen mit endlichem Impuls. Inmitten dieser Potentiale liegt gegebenenfalls das gesuchte Tetraquark-Potential. Ziel ist, einen Weg zu finden, die Bottomonium-und-Pion-Potentiale und das Tetraquark-Potential voneinander zu unterscheiden. Im ersten Schritt wird der Bottomonium-und-Pion-Grundzustand mithilfe des GEP aus dem System entfernt. Der erste angeregte Zustand ist im Anschluss daran weitgehend frei von Einflüssen des Grundzustands. Man findet, dass das Potential des ersten angeregten Zustandes attraktiv ist, sodass die Bildung eines Tetraquark-Zustandes nicht ausgeschlossen ist. Um den ersten angeregten Zustand weiter zu untersuchen, wird ein quantenmechanisches Modell verwendet, das die Volumenabhängigkeit des Überlapp eines Testzustands mit den verschiedenen Strukturen beschreibt. Es damit prinzipiell möglich, unter Zuhilfenahme mehrerer Gittervolumina eine Aussage über die Struktur des ersten angeregten Zustands zu treffen.
In the work presented herein the microscopic transport model BAMPS (Boltzmann Approach to Multi-Parton Scatterings) is applied to simulate the time evolution of the hot partonic medium that is created in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC) and in Pb+Pb collisions at the recently started Large Hadron Collider (LHC). The study is especially focused on the investigation of the nuclear modification factor R_{AA}, that quantifies the suppression of particle yields at large transverse momentum with respect to a scaled proton+proton reference, and the simultaneous description of the collective properties of the medium in terms of the elliptic flow v_{2} within a common framework.
The main subject of the thesis is the investigation of low-temperature-grown (LTG) GaAs-based photoconductive switches used in the generation of continuous-wave (CW) and pulsed terahertz (THz) radiation. The use of photoconductive switches based on low-temperature-grown GaAs proved to be a viable option in generating electromagnetic transients on a subpicosecond time-scale, corresponding to frequencies of ~1012 Hz (between microwave and far-infrared). The most appealing property of LTG-GaAs is the ultra-short carrier lifetime obtained by incorporation of a large number of As defects when GaAs is grown at low temperatures. However, the reason for poor THz emission efficiency (low CW-THz power lrvrls) is still up to this date not fully understood. The various reasons are to be found in both, optoelectronic properties of the active layer (photoconducting material) as well as in the device characteristics. The thesis focuses primarily on the limitation imposed to the performance of the THz emitters by the material of choice for the active layer (LTG-GaAs) and secondarily, on the impact of a particular emitter design on the THz radiation efficiency. In the beginning of the thesis one finds an ample overview on the electrical and optical properties of the LTG-GaAs material. A special chapter deals with the main features of current-voltage and CW-THz emission characteristics measured from a photoconductive antenna employed as photomixer. We observed deviations from the theoretical predictions of photomixing theory which were explained by considering the high-field electrons effects (velocity overshoot and elongation of the carrier trapping time). With the scope to provide a better understanding of the correlation between device and material properties when the LTG-GaAs material is integrated with a planar antenna (photoswitch), a special THz double-pulse technique (THz-pump and -probe) was implemented. The experimental results assisted by modeling of the double-pulse THz data provide a gainful insight into the ultrafast dynamics of the electrical field and photogenerated carriers. The outcome of the double-pulse experiments is the evidence for long-living carriers in the LTG-GaAs-based photoconductive antenna under applied bias, with a deleterious impact upon the emitter performance (especially for the CW case). Additionally, by measuring the THz transients generated by a constant laser pulse with and without a CW laser background illumination, we obtained further evidence of strong field-screening effects. This phenomenon was also attributed to the existence of long-living space-charge effects. For both cases (pulsed as well as CW) we derived the de-screening time constant. The principal conclusion of the present study is that, besides shortcomings imposed by the THz-circuitry, photomixers based on materials with traps (defects) exhibit great “affinity” for space-charge screening effects with cumulative and therefore long-lived deleterious impact upon device’s performance. An alternative would be the usage of a transient-time limited device where the response time is given by the carrier collection time, possibly with only one type of carrier responsible for THz signal generation.
This thesis is concerned with systematic investigations of electronic noise in novel condensed matter systems. Although fluctuations are frequently considered a nuisance, that is, a disturbance limiting the accuracy of scientific measurements, in many cases they can reveal fundamental information about the inherent system dynamics. During the past decades, the study of electronic fluctuations has evolved into an indispensable tool in condensed matter physics.
The focus of the present work lies both in a further development of the fluctuation spectroscopy technique and in the study of materials of current interest. In particular, a comprehensive study of the charge carrier dynamics in the archetypal diluted magnetic semiconductors (Ga,Mn)As and (Ga,Mn)P was performed. In spite of extensive research work carried out during the last years, there still exists no theoretical consensus on the precise mechanism of ferromagnetic order and the electronic structure in these materials. Moreover, disorder and correlation effects complicate the understanding of these compounds.
Fluctuation spectroscopy experiments presented in this work provide strong evidence that a percolation transition is observed in samples with localized charge carriers, since the normalized resistance noise magnitude displays a significant enhancement around the Curie temperature. In addition, this quantity exhibits a power law scaling behavior as a function of the resistance, which is in good agreement with theoretical models of percolating systems.
By contrast, it was found that the resistance noise in metallic samples is mainly dominated by the physics of defects such as manganese interstitials and arsenic antisites. Furthermore, first noise studies were carried out on hafnia- and yttria-based resistive random access memories. In these memristor devices, the rupture and re-formation of oxygen deficient conducting filaments caused by the electric field and Joule heating driven motion of mobile anions lead to an unusual resistance switching behavior. For the first time, comparative noise measurements on oxygen deficient and stoichiometric hafnium oxide devices, as well as on novel yttrium oxide based devices were performed in this work. Finally, new strategies for noise measurements of highly insulating and extremely low-resistive samples were developed and realized. In detail, an experimental setup for the measurements of dielectric polarization fluctuations in insulating systems was designed and successfully tested. Here, the polarization noise of a sample is measured as current or voltage fluctuations produced within a capacitance cell. The study of dielectric polarization noise allows for conclusions to be drawn regarding equilibrium structural dynamics in insulators such as relaxor ferroelectrics. On the other hand, as successfully demonstrated for a heavy-fermion compound, focused ion beam etching enables to introduce a meander-shaped geometry in single crystal platelets, in order to strongly enhance the sample resistance and thus make resistance noise measurements possible. First results indicate a connection of the noise properties with the Kondo effect in the investigated material.
In this work the main emphasis is put on the investigation of relativistic shock waves and Mach cones in hot and dense matter using the microscopic transport model BAMPS, based on the relativistic Boltzmann equation. Using this kinetic approach we study the complete transition from ideal-fluid behavior to free streaming. This includes shock-wave formation in a simplified (1+1)-dimensional setup as well as the investigation of Mach-cone formation induced by supersonic projectiles and/or jets in (2+1)- and (3+1)-dimensional static and expanding systems. We further address the question whether jet-medium interactions inducing Mach cones can contribute to a double-peak structure observed in two-particle correlations in heavy-ion collision experiments. Furthermore, BAMPS is used as a benchmark to compare kinetic theory to several relativistic hydrodynamic theories in order to verify their accuracy and to find their limitations.
In this study, the structural and functional properties of the Na+/Betaine symporter BetP were investigated upon K+-induced activation. BetP regulates transport activity dependent on the amount of associated anionic lipids and the cytoplasmic K+-concentration. For this purpose, FTIR spectroscopy was implemented as a non-perturbing biophysical method which shed light on how the membrane lipids contribute to the molecular mechanisms of activation and regulatory response of BetP.
ATP-binding cassette (ABC) transporters shuttle diverse substrates across biological membranes. They play a role in many physiological processes but are also the reason for antibiotic resistance of microbes and multi drug resistance in cancer, and their dysfunction can lead to serious diseases. Transport is achieved through an ATP-driven closure of the two nucleotide binding sites (NBSs) which induces a transition between an inward-facing (IF) and an outward-facing (OF) conformation of the connected transmembrane domains (TMDs). In contrast to this forward transition, the reverse transition (OF-to-IF) that involves Mg2+-dependent ATP hydrolysis and release is less understood. This is particularly relevant for heterodimeric ABC transporters with asymmetric NBSs. These transporters possess an ATPase active consensus NBS (c-NBS) and a degenerate NBS (d-NBS) with little or no ATPase activity.
Crucial details regarding function and mechanism of the transport cycle remain elusive.
Here, these open questions were addressed using pulse electron-electron double resonance (PELDOR or DEER) spectroscopy of the heterodimeric ABC exporter TmrAB.
To better understand the transport cycle, the underlying kinetics of the conformational transitions need to be elucidated. By introducing paramagnetic nitroxide (NO) spin probes at key positions of TmrAB and employing time-resolved PELDOR spectroscopy, the forward transition could be followed over time and the rate constants for the conformational transition at the TMDs and NBSs were characterized.
The temperature dependence of these rate constants was further analyzed to determine for the first time the activation energy of conformational changes in a large membrane protein. For TMD opening and c-NBS dimerization, values of 75 ± 27 kJ/mol and 56 ± 3 kJ/mol, respectively were found. These values agree with reported activation energies of peptide transport and peptide dissociation in other ABC transporters, suggesting that the forward transition may be the rate-limiting step for substrate translocation.
The functional relevance of asymmetric NBSs is so far not well understood. By combining Mg2+-to-Mn2+ substitution with Mn2+-NO and NO-NO PELDOR spectroscopy, the binding of ATP-Mn2+, the conformation of the NBSs, and the conformation of the TMDs could be simultaneously monitored for the first time. These results reveal an asymmetric post-hydrolytic state. Time-resolved investigation showed that ATP hydrolysis at the active c-NBS triggers the reverse transition, whereas opening of the impaired d-NBS regulates the return to the IF conformation.
Investigation of the kinematics involved in compton scattering and hard X-ray photoabsorption
(2023)
The present work investigates the kinematics of Compton scattering at gaseous, internally-cool helium and molecular nitrogen targets in the high- and the low-energy regime. Additionally, photoionization at molecular nitrogen with high-energy photons is investigated. These exeprimental regimes were previously inaccessible due to the extremely small cross sections involved. Nowadays, the third- and fourth-generation synchrotron machines produce sufficient photon flux, enabling the investiagtion of the above processes. The utilized cold-target recoil-ion momentum spectroscopy (COLTRIMS) technique further increases the detection efficiency of the observed processes, since it enables full-solid-angle detection by exploiting momentum conservation.
Compton scattering is investigated at both high (helium and N2) and low (helium) photon energies. In the high-energy regime, the impulse approximation is mostly valid, which is not the case for the low-energy regime. The impulse approximation assumes that the Compton-scattering process takes place at a free electron with a momentum distribution as if it was bound, thus ignoring the binding energy of the system. In the low-energy regime, the impulse approximation is not valid.
Photoionization is investigated at high photon energies, where the linear momentum of the photon cannot be neglected, as is the fashion of the commonly used dipole approximation.
The objective of this work is twofold. First, we explore the performance of the density functional theory (DFT) when it is applied to solids with strong electronic correlations, such as transition metal compounds. Along this direction, particular effort is put into the refinement and development of parameterization techniques for deriving effective models on a basis of DFT calculations. Second, within the framework of the DFT, we address a number of questions related to the physics of Mott insulators, such as magnetic frustration and electron-phonon coupling (Cs2CuCl4 and Cs2CuBr4), high-temperature superconductivity (BSCCO) and doping of Mott insulators (TiOCl). In the frustrated antiferromagnets Cs2CuCl4 and Cs2CuBr4, we investigate the interplay between strong electronic correlations and magnetism on one hand and electron-lattice coupling on the other as well as the effect of this interplay on the microscopic model parameters. Another object of our investigations is the oxygen-doped cuprate superconductor BSCCO, where nano-scale electronic inhomogeneities have been observed in scanning tunneling spectroscopy experiments. By means of DFT and many-body calculations, we analyze the connection between the structural and electronic inhomogeneities and the superconducting properties of BSCCO. We use the DFT and molecular dynamic simulations to explain the microscopic origin of the persisting under doping Mott insulating state in the layered compound TiOCl.
In the present work we applied the Optically read out PArticle track Chamber, OPAC, for the measurement of radial dose distributions, d(r), around tracks of heavy ions passing through the gas-filled sensitive volume of the chamber. The measured data were compared with d(r) functions derived from data calculated with the Monte Carlo particle transport code, TRAX – which is used for the heavy ion therapy planning at GSI. To measure this quantity we have used here an optically read out time projection chamber (OPAC) with a parallel-drift field and one or several electron and light amplification stages. The two dimensional projection of the three dimensional ionization pattern caused by the ionizing particle passing through the chamber is captured by an image intensified CCD camera. The work is motivated by the role the radial dose distribution plays in the estimation of the relative biological effectiveness (RBE) of heavy ions, e.g. in radiation therapy and in radiation protection. The most successful model for high-dose irradiation with ions (applicable e.g. for heavy ion therapy) is found to be the local effect model (LEM). The present work intends to deliver measured data for one of the basic physical parameters which serve as input for the application of the local effect model: the radial dose distribution, d(r). The first goal of our measurement program was the measurement of d(r) distributions around carbon ions of different energies from 400 MeV/u down to the Bragg peak regions. We found an excellent agreement between the measured and simulated distributions at all carbon energies for the r–range in which the measurements deliver useful results. The lower limit of this range is about 100 nm and the upper limit is 6000 nm at a resolution of down to 33 nm - if scaled to water density. Despite the simplifications in the TRAX code (e.g. binary encounter theory for the emission ionization electrons), the discrepancies between the simulated and measured d(r) distributions are found to be lower than the measurement uncertainties at most measured carbon ion energies in almost the whole observed r-range. Hence, within the limitations of our measurements we can conclude that the precision of TRAX is sufficient to simulate the d(r) distributions around carbon ions to serve as input parameter for therapy planning. However, this conclusion is only valid for larger radial distances (r >100 nm). For smaller radial distances the measured data are dominated by the diffusion. Apart from carbon ion tracks, tracks of very heavy ions (40Ar, 84Kr and 238U) were also measured with OPAC. The simulated d(r) values were typically slightly or significantly higher than the measured data in the 100 nm < r < 5000 nm region. The experience has shown: the heavier or the faster the ion, the higher the discrepancies. On the one hand, we found a surprisingly good agreement between measurements and simulations if the ions had energies of around 50 MeV/u (i.e. relatively low energy). On the other hand, at higher energies, simulated data underestimate the measured ones by up to a factor of two in the region of 100 nm < r < 1000 nm for 84Kr (E = 650 MeV/u) or in the region of 100 nm < r < 6000 nm for 238U (E = 1 GeV/u). A possible reason for these discrepancies is that the BEA model, used in TRAX for the production ionization electrons, is not adequate for very heavy projectiles. The energy values of the very heavy ions were selected with the aim of comparing the track structures - and namely the d(r) distributions - of ions with largely different atomic mass but similar LET values. From the Z-dependency of the stopping power we know that for heavier ions a higher specific ion energy (expressed in MeV/u) is required to provide the same LET. For example the common LET of 315 keV/micro-m was achieved at largely different specific energy levels of 4,4 MeV/u for 12C, 65 MeV/u for 40Ar and 650 MeV/u for 84Kr ions. The difference in the track structures was expected mainly due to the different ion velocities and thus e.g. different ranges of d-electrons. This expectation could be confirmed by the measurements. The reason why - in line with the simulations - no strong differences could be observed in the d(r) distributions of the argon and krypton ions is the relatively small difference in the velocities of the both ion types in conjunction with the limited range in r, where the data can be compared. In contrary, the d(r) function of the carbon ion shows a qualitatively different behavior than the heavier ions inside the observable radius-range - in agreement with the simulations.
Quantum entanglement plays a basic role in quantum information science. The creation of entanglement between qubits is of fundamental importance for further computation processing like quantum computation, quantum cryptography, quantum teleportation, quantum computers… We present here a symmetric electron-electron scattering experiment to determine the experimental parameters which are necessary to produce a source of entangled electrons. In this Moeller scattering experiment the electrons differ from each other only by their spin direction. At these conditions a spin entanglement of the scattered electrons is expected. To demonstrate the spin entanglement, a single particle resolved spin measurement of the electrons has to be performed. A high ratio of measured coincidences compare to random could be demonstrated. It is shown, that this ratio is related to an experiment depended nearly constant efficiency for the coincidence detection. In order to proof the spin entanglement, the goal is to measure the final polarization state of the electrons at different scattering directions to observe a spin anti correlation between these spin states of the Moeller electrons. The usual method to determine the electron polarization is based on an asymmetric scattering experiment with a high Z target. This scattering may yield an asymmetry due to a different spin-orbit coupling of the electrons. The main problem of polarized electron studies at keV-particle energy is the low efficiency of usual spin polarimeters. This low efficiency impedes or prevents electron spin resolved coincidence measurements because of necessarily induced random coincidences. To enhance the efficiency of the spin detection, a new compact mini-Mott spin analyzer has been developed. Due to a compact small size of this analyzer, a higher efficiency is obtained now, which is a prerequisite to the electron spin resolved coincidence measurements. Till date, the asymmetry measurement have been performed where one Mott analyzer rotated by an angle around the axis. The reducing asymmetry is in agreement with a prediction of quantum mechanic; however, the large systematic errors of the measurement have been estimated. As a next step for investigation of spin entanglement it is planned to increase the overall efficiency of the experiment by having higher initial energy and minimize error of the measurement by applying new kind of detectors.
The first part of this work addresses the automatic online tuning of transfer lines in particle accelerator facilities. In the second part the focus lies on the automatic construction and optimisation of such transport lines. It can be shown that genetic algorithms can be used very well for optimisation in both cases. Automatic online tuning can be performed very efficiently at accelerators under certain boundary conditions and is particularly well suited for initial beam commissioning with low intensity pilot beams. The construction of transfer lines can also be formulated and solved as an minimisation problem with an adopted parameterisation. Thereby, both the imaging properties of the beam transport and the robustness against error studies can be optimised at the same time.
A strong interest is currently going on in the physics of high intensity and high energy beams: intense proton or deuteron beams are required in various fields of science and industry, including sources of neutrons for research experiments and material processing, nuclear physics experiments, tritium production and nuclear waste transmutation. High current heavy ion beams are envisaged for power production facilities (inertial fusion). Several projects presently under study are based on rf linacs as driver, sometimes followed by accumulation and/or compressor rings [Acc98]. The critical issue for all of them is to be operated in a low loss regime, because of activation problems in the structure. For this reason careful investigations have to be performed in order to understand and control the beam behaviour, aiming at conserving the beam quality, reducing the emittance growth and filamentation and avoiding the formation of halo. The beam current to be accelerated is actually limited by the amount of beam losses, which depends upon the beam halo: in order to reduce induced radioactivity and to allow for hands-on maintenance, normally losses <1 W/m are considered as acceptable [Sto96]. One of the major facilities under study is the European Spallation Source (ESS), a project based on a H- linac accelerating a 107 mA peak current beam (360 ns pulse in the DTL) and on two compressor rings, producing 5 MW average beam power [ESS]. Also the USA are developing a proposal for a Spallation Neutron Source (SNS), providing a short pulse H- beam with average power of 1÷2 MW; a 30 mA linac is required [SNS]. The Accelerator for Production of Tritium (APT), studied at Los Alamos, requires a 100 mA proton beam current (cw) to produce a power of 130÷170 MW [APT]. A similar but smaller accelerator (40 mA, 40 MW beam power) would serve as driver for the Accelerator Driven Transmutation of Waste (ADTW) system [ATW]. The accelerator system for the International Fusion Material Irradiation Facility (IFMIF) will test the behaviour of materials to be used for magnetic fusion (e.g. ITER); it consists of two 125 mA deuteron beams in parallel, to generate a fusion-like neutron spectrum with 10 MW cw [IFM]. In the field of heavy ions, for about 20 years scientists have been working on inertial confinement fusion, as an alternative to magnetic confinement one, to find a practical and cleaner method for producing energy. Nuclear fusion occurs when the nuclei of lighter elements (in a state of matter called "plasma") merge to form heavier elements; the extremely high temperatures and densities needed to get the nuclei to collide in the proper way and release big amounts of energy are obtained in a small "pellet" of fusion fuel, which receives energy from laser or ion beams, implodes and its inertia compresses it hard enough to hold together the plasma until it reaches ignition. Both laser and accelerator facilities have been investigated as drivers, since a demonstration of ignition at low gains is more easily accessible by lasers, whereas the intrinsic properties of accelerators -efficiency and repetition rate- will be essential for a medium-gain power plant. One study for a fusion power system driven by heavy ion beams (HIBALL) was completed in Europe already in 1982 [Bad81]. When the USA declassified essential information on pellet design, "indirect drive" targets have been considered openly, where the pellet is hit by X-rays generated from laser or ion beams rather than directly from the beams. Main progress has been achieved during the latest years in the understanding of pellet dynamics after ignition, i.e. in plasma physics [Sym1][Sym2][Sym3][Bas97][Lut97], imposing also new requirements on the layout of the driver accelerator facilities. In 1994-95 Frankfurt University and several other European laboratories (leaded by GSI) started a new collaboration called HIDIF (Heavy Ion Driven Ignition Facility) in order to simplify the accelerator plant design owing to the new technique of indirectly driven targets and to some technological improvements. First studies were oriented towards the conceptual goal of a facility providing just enough beam energy for the ignition of fusion reactions at very low gain (a "proof of principle") [Hof98]. In a recent phase of the study, it was realized that the proposed concept would make this scheme a more appropriate choice for energy production rather than for ignition; the acronym HIDIF was therefore intended as Heavy Ion Driven Inertial Fusion, and the parameters are going to be modified accordingly [Hof96][Hof97][Hof98]. The scenario presently discussed by this group proposes the formation and acceleration of an intense beam (400 mA) of singly charged heavy ions of three different atomic species, with mass differences of about 10% (the reference one is 209Bi+) in a main rf linac; they are then injected into some storage rings at an energy of 50 MeV/u, bunched in induction linacs and finally transported to a target with different velocities in such a way that the three species merge on the pellet ("telescoping") at 500 TW peak power. In this thesis the main linac of the HIDIF proposal is extensively investigated as an example of a high intensity heavy ion linac. Results are presented from numerical simulations of multi-particle beam dynamics carried out for the first time in this context. After a short presentation of the HIDIF reference scenario (Ignition Facility), including a discussion of the motivations for a high current heavy ion linac, some elements of the theory of beam transport and acceleration are recalled [Con91][Hof82][Kap85] [Lap87][Law88][Mit78][Rei94][Str83]. Then the used simulation programs are described, and a particle dynamics layout of a conventional 200 MHz Alvarez DTL is discussed with respect to low emittance growth at high transmission, including large space-charge effects, taking into account the influence of different kinds of statistical errors and of input mismatch on the beam dynamics. The modifications needed for "telescoping" are investigated with simulations for the nominal mass difference (10%) and for a smaller one (5%); finally the transfer line between DTL and rings is discussed and studied both analytically and by numerical calculations. The large mass number (A= 209) helps to reduce the space-charge effects with respect to protons, therefore the behaviour of the beam is not space-charge dominated. Nevertheless the tune depression values (similar to those of the ESS linac e.g.) indicate that these effects cannot be neglected. For a linac with low duty cycle, as in the case of an ignition facility, the results from particle dynamics calculations can be considered as a reliable guideline for the DTL layout, since they indicate that such a high intensity linac can fulfill the requirements on smooth beam behaviour and low losses.
Terahertz (THz) radiation lies between the micro and far-infrared range in the electromagnetic spectrum. Compared with microwave and millimeter waves, it has a larger signal bandwidth and extremely narrow antenna beam. Thus, it is easier to achieve high-resolution for imaging and detection applications. The unique properties, such as penetration for majority non-polar materials, non-ionizing characteristic and the spectral fingerprint of materials, makes THz imaging an appealing artifice in the military, biomedical, astronomical communications, and other areas. However, THz radiation’s current low power level and detection sensitivity block THz imaging system from including fewer optical elements than the visible or infrared range. This leads to imaging resolution, contrast, and imaging field of view degenerate and makes the aberration more serious. THz imaging based on the space Fourier spectrum detection is developed in this thesis to achieve high-quality imaging. The main concept of Fourier imaging is by recording the field distribution in the Fourier plane (focal plane) of the imaging system; the information of the target is obtained. The numerical processing method is needed to extract the amplitude and phase information of the imaged target. With additional process, three-dimensional (3D) information can be obtained based on the phase information. The novel recording and reconstructing ways of the Fourier imaging system enables it to have a higher resolution, better contrast, and broader field of view than conventional imaging systems such as microscopy and plane to plane telescopic imaging system.
The work presented in this thesis consists of two imaging systems, one is working at 300 GHz based on the fundamental heterodyne detection of the THz radiation, the other is operated at 600 GHz by utilizing the sub harmonic heterodyne detection technique. The realization and test of the heterodyne detection are based on the THz antenna-coupled field-effect transistor (TeraFET) detector developed by Dr. Alvydas Lisauskas. Both systems use two synchronized electronic multiplier chains to radiate the THz waves. One radiation works as the local oscillator (LO), the other works as illumination with a slight frequency shift, the radiations are mixed on the detector scanning in the Fourier plane to record the complex Fourier spectrum of the imaged target. The LO has the same frequency range as the illuminating radiation for fundamental heterodyne detection but half the frequency range for the sub-harmonic heterodyne detection. The 2-mm resolution, 60-dB contrast, and 5.5-cm diameter imaging area at 300 GHz and the of 500-μm resolution, 40-dB contrast, and 3.5-cm diameter imaging area at 600 GHz are achieved (the 300-GHz illuminating radiation has the approximate power of 600 μW , the 600-GHz illuminating radiation has the approximate power of 60 μW ).
The thesis consists of 6 parts. After the introduction, the second chapter expands on the topic of Fourier optics from a theoretical point of view and the simulations of the Fourier imaging system. First, the theory of the electromagnetic field propagation in free space and through an optical system are investigated to elicit the Fourier transform function of the imaging system. The simulation is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on reconstruction. The preliminary imaging field of view and resolution are also demonstrated. The third chapter describes the Fourier imaging system at 300 GHz based on the fundamental heterodyne detection, including the experimental setup, the 2D, and 3D imaging results. The following fourth chapter reports the integration of the TeraFET detector with two substrate lenses (one is a Si lens on the back-side Si substrate, the other is a wax/PTFE lens on the front side containing the bonding wires) for sub-harmonic heterodyne detection at 600 GHz. The characteristic of the wax/PTFE lens at THz range is presented. After that, the compared imaging results between the detector with and without the wax/PTFE lens are shown. The fifth chapter extends the demonstration on the lateral and depth resolution of the Fourier imaging system in detail and uses the experimental results at 600 GHz to validate the analytical predictions. The comparison of the resolution between the Fourier imaging system and the conventional microscopy system proves that the Fourier imaging system has better imaging quality under the same system configuration. The last chapter in this thesis concludes on the findings of the THz Fourier imaging and gives an outlook for the enhancement of the Fourier imaging system at THz range.
With the discovery of light beyond human visibility, scientists strove to extend the range of observation to invisible parts of the light’s spectrum. Realising that light of all frequencies is part the same physical phenomenon, brought a leap in understanding about electromagnetic waves. With the development of more advanced technology, detectors with higher sensitivity for adjacent frequencies to the visible were built. From this, with each new observable wavelength, more insight into otherwise invisible processes and phenomenons were observed. Hand in hand with this went the enhancement of the output power of corresponding sources. This has lead to higher sensitivity setups throughout the spectrum, leading to observations which have given a deeper understanding in various fields of science. Nowadays, detectors and emitters in many different regions of the invisible electro magnetic spectrum have found their way in our every day life. Innovations in technology has lead to practical applications such as X-rays in medicine, motion sensors and remote controls using infrared light, distance sensors and data transmission using radar and radio devices. The frequency regions above infrared are optically generated and below radar can be produced using electric methods. There is no straight line that separates these frequencies. There rather is a whole intermediate region known as the terahertz (THz) regime. Due to the lack of sensitive detectors and efficient sources, the THz frequency region has not been exploited for application use on a widespread basis so far. It combines properties from the surrounding frequency ranges which make it an ideal spectrum for various applications. Consequently, THz radiation and THz imaging are active fields of research.
The work presented in this thesis consists of the development and testing of novel THz imaging concepts, which uses a THz antenna coupled field effect transistor (TeraFET) detector. Two detection principles are applied using two different optical setups. The first uses a pulsed optical parametric oscillator (OPO) THz source where the optical output power is detected. The source relies on a nonlinear effect of a lithium niobate crystal to generate tunable THz pulses from a Q-switched pump laser. The THz signal is detected and amplified by a double stage operational amplifier for monitoring the real time 20 ns pulses on an oscilloscope where a signal to noise ratio (SNR) of ⇠ 25 at a frequency range from 0.75 to 1.1 THz is reached. Imaging of the area of interest with a resolution of 1.2 mm is achieved through raster scanning of the THz pulses. Also spectroscopy with a frequency resolution of ⇠ 50 GHz is demonstrated using a para-aminobenzoic acid sample. The second setup utilises two synchronised electronic multiplier chain sources where their output is mixed on the detector. To form a heterodyne detection setup, the intermediate frequency is fed to a lock-in amplifier which then amplifies the so called beat signal from the TeraFET detector. One source is fixed relative to the detector even through scanning to ensure a stable signal. This detection method allows for amplitude and phase detection for every scanning position, making numerical light field propagation and object reconstruction possible. Numerical focussing is a key feature achieving a lateral resolution of the input transmittance of ⇡ 2 mm.
After the introduction, the second chapter describes the setup, measurement results and challenges which arise using a TeraFET together with the pulsed THz source “Firefly-THz”. In the description of the setup, special attention is given to the shielding of the detector and the electronics. General findings discuss first the overall performance and later spectroscopy and imaging as application examples. Another subsection continues with potential noise sources before the chapter is concluded. Chapter three expands on the topic of Fourier optics from a theoretical point of view. First, parts of the theory of the Fourier Transform (FT) are set out for the reader and how the Fast Fourier Transform (FFT) results from the Discrete Fourier Transform (DFT). This approach is used for theoretical considerations and the implementation of a Fourier optic script that allows for numerical investigations on electro magnetic field propagation through an optical system. The boundary conditions are chosen to be practical relevant to make predictions on measurements presented in chapter four. The following fourth chapter describes the realisation of a heterodyne THz detection setup. Before the measurement results are presented, the setup and its electric configuration are shown. The results come close to the analytical predictions so that the same algorithm which propagates the field from an object to the Fourier plane is used to propagate the measured field back to the object. The influence of phase noise on the measurement results are discussed before simulation and measurement is compared. The last chapter in this thesis concludes on the findings in the pulsed THz detection and the heterodyne THz Fourier imaging and gives an outlook for both configurations.
For the transport of high-intensity hadron beams in low-energy beam lines of linear accelerators, the compensation of space charge forces by the accumulation of particles of opposite charge is an important effect, reducing the required focusing strength and potentially the emittance growth due to space charge forces. In this thesis, space charge compensation was studied by including the secondary particles in particle-in-cell simulations.
For this purpose, a new electrostatic particle-in-cell code named bender was developed. The software was tested using known self-consistent solutions for an electron plasma confined in an external potential as well as for a KV distributed beam in a periodic focusing lattice. For the simulation of compensation, models for residual gas ionisation by proton and electron impact were implemented.
The compensation process was studied for a 120 keV, 100 mA proton beam transported through a short drift section. Various features in the particle distributions were identified, which can not explained by a uniform reduction in the electric field of the beam. These were tied to the presence of thermal electrons confined within the beam potential. Using the Poisson-Boltzmann equation, their distribution could be reproduced and their influence on the beam for a wider range of parameters studied. However, the observed temperatures show a significant numerical influence. The hypothesis was formed, that stochastical heating present in particle-in-cell simulations is the mechanism leading to the formation of the observed (partial) thermal equilibrium.
For the low-energy beam transport line of the Frankfurt neutron source FRANZ, bender was used to predict the pulse shaping in the novel ExB chopper system. The code was also used for the design and the study of an electron lens for the Integrable Optics Test Accelerator at Fermi National Accelerator Laboratory. Aberrations due to guiding center drifts and the strong electric field of the electron beam as well as the current limits in such a system were investigated.
In the framework of this thesis the intense low energy ion beam transport was investigated. Especially, the beam transport in toroidal magnetic field configurations was discussed, as it may allow the accumulation of high intensive beams in the future. One of the specific tasks is to design an injection system that can be used for the proposed low energy accumulator ring. This thesis regarding beam transport investigations is related to the larger research fields, storage rings used in accelerator physics and non-neutral plasmas. The proposal of building a storage ring with longitudinal guiding magnetic fields was made. Due to natural transversal focussing in magnetic fields it is possible to accumulate very intense charged particle beams, a subject of interest within the physics community. A simulation code (TBT) was written to describe the particle motion in curved segments. Particle in Cell techniques were utilized to simulate a multi particle dynamics. This code allows the user to generate different particle distributions as input parameter. A possibility of reading an external data file was made available so that a measured distribution can be used to compare simulation results with measured ones. A second order cloud in cell method was used to calculate charge density and in turn to solve Poisson’s equation. The circular toroidal coordinate system was used. The drift motion and gyrating motion was proved to be consistent with analytical values. Further simulations were performed to study the self field effects on beam transport. The experiments with single toroidal segments find niche in the work. The experiments were performed to compare the simulation results and gain practical experience. The toroidal segment has similar dimensions (major axis R = 1:3 m, minor axis r = 0:1 m, arc angle 30°) as for a full scale ring design. The main difference lies in the magnetic field strength. The available segments can be operated at room temperature producing 0:6T on axis maximum magnetic field, while for the storage ring design this value is in the range of 5T. The preparatory experiments consisted of building and characterization of the ion source in a first step. Along with the momentum spectrometer and emittance scanner the beam properties were studied. Low mass ion beams He+ and mixed p, H2+, H3+ beams were analyzed. The proton beam consisting of a 48% H+ fraction was extracted regularly and used for further experiments. A moderate beam energy of 10 keV was chosen as operational energy for which 3.08 mA proton beam current was measured. In the second stage, beams were transported through a solenoid and the phase space distribution was measured as a function of the magnetic field for different beam energies. The phase-space as distributions measured in a first stage were simulated backward and then again forward transported through the solenoid. The simulated results were then compared with the measured distribution. The LINTRA transport program was used. The phase-space distribution was further simulated for transport experiments in a toroidal magnetic field. The experiments with a single toroidal segment give basic results necessary to compare the results between transport code (TBT) and measurements. The optical diagnostic provides measurements which can be well compared with the simulated results. A digital camera with a magnetic shield was used to record images in jpeg file format. A subroutine was written to analyze an image file to give the intensity distribution of a given image file. The integrated profile in vertical and horizontal direction was used to calculate the vertical drift and the beam size. The simulated values were in good agreement with the measured ones. The injection system needs most care. The transport program that was used to simulate the beam in the toroid was also used to design the injection system. The injection system with its special field configurations was designed to perform experiments with room temperature segments. The main point to tackle was to smoothly bring the charged particles generated outside the trap into the acceptance of the ring. The designed system consists of two sources, one representing a ring beam and the other one the injection beam. While simulations showed a clear way, how to inject the particle beam via a well positioned solenoid and in combination with a transverse electric field element causing an ExB drift into the main ring acceptance. After construction of these injection elements it will be very important to measure the robustness of such a system with respect to the beam stability- especially of the injection channel.
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
In the present work, the Heidelberg electron beam ion trap (EBIT) at the Max-Planck-Institute für Kernphysik (MPIK) has been used to produce, trap highly charged argon ions and study their magnetic dipole (M1) forbidden transitions. These transitions are of relativistic origin and, hence, provide unique possibilities to perform precise studies of relativistic effects in many electron systems. In this way, the transitions energies of the 1s22s22p for the 2P3/2 - 2P1/2 transition in Ar13+ and the 1s22s2p for the 3P1 - 3P2 transition in Ar14+, for 36Ar and 40Ar isotopes were compared. The observed isotopic effect has confirmed the relativistic nuclear recoil effect corrections due to the finite nuclear mass in a recent calculation made by Tupitsyn [TSC03], in which major inconsistencies of earlier theoretical methods have been corrected for the first time. The finite mass, or recoil effect, composed of the normal mass shift (NMS), and the specific mass shift (SMS) were corrected for relativistic contributions, RNMS and RSMS. The present experimental results have shown that the recoil effects on the Breit level are indeed very important, as well as the effects of the correlated relativistic dynamics in a many electron ion.
Quarkonia are very promising probes to study the quark-gluon plasma. The essential baseline for measurements in heavy-ion collisions is high-precision data from proton-proton interactions. However, the basic mechanisms of quarkonium hadroproduction are still being debated. The most common models, the Color-Singlet Model, the non-relativistic QCD approach and the Color-Evaporation Model, are able to describe most of the available cross-section data, despite of their conceptual differences. New measures, such as the polarization, and data at a new energy regime are crucial to test the competing models. Another issue is an eventual interplay between the production process of a quarkonium state and the surrounding pp event. Current Monte Carlo event generators treat the hard scattering independently from the rest of the so-called underlying event. The investigation of possible correlations with the pp event might be very valuable for a detailed understanding of the production processes. ALICE ist the dedicated heavy-ion experiment at the LHC. Its design has been optimized for high-precision measurements in very high track densities and down to low transverse momenta. ALICE is composed of various different detectors at forward and at central rapidities. The most important detectors for this study are the Inner Tracking System and the Time Projection Chamber, allowing to reconstruct and identify electron candidate tracks within eta < 0.9. The Transition Radiation Detector has not been utilized at this stage of the analysis; however, it will strongly improve the particle identification and provide a dedicated trigger in the upcoming beam periods. ...
According to the standard model of particle physics, the most fundamental building blocks of the known matter are quarks and leptons, while the interactions between these fundamental objects is mediated through bosons. On one hand the leptons can exist in nature as individual particles, while on the other hand quarks appear always as bound states called hadrons. The knowledge that hadrons are built from more fundamental particles dates back to the second half of the 20th century when the work by Gell-Mann and Zweig led to the development of the quark model. The experimental proof that the hadrons are bound objects composed of more elementary particles was done through the study of deep inelastic scattering of electrons off protons. These experiments were done in a similar fashion to the studies of the atomic model led by Rutherford at the beginning of the 20th century. Further experimental analysis led to the conclusion that a large fraction of the proton momentum is not carried alone by the quarks, but by the bosons that mediate the strong interaction called gluons. The cleanest experimental signature for the existence of the gluons came from electron-positron annihilation experiments, where a quark-antiquark pair is created and one of the quarks radiates a hard gluon. Due to confinement neither the quarks nor the gluon can be observed directly, but are measured experimentally as three collimated showers of particles named jets. Since the ground breaking experiments performed at DESY, jets have provided a tool to study the properties of quarks and gluons...
Jet physics in ALICE
(2005)
This work aims at the performance of the ALICE detector for the measurement of high-energy jets at mid-pseudo-rapidity in ultra-relativistic nucleus-nucleus collisions at LHC and their potential for the characterization of the partonic matter created in these collisions. In our approach, jets at high energy with E_{T}>50 GeV are reconstructed with a cone jet finder, as typically done for jet measurements in hadronic collisions. Within the ALICE framework we study its capabilities of measuring high-energy jets and quantify obtainable rates and the quality of reconstruction, both, in proton-proton and in lead-lead collisions at LHC conditions. In particular, we address whether modification of the jet fragmentation in the charged-particle sector can be detected within the high particle-multiplicity environment of the central lead-lead collisions. We comparatively treat these topics in view of an EMCAL proposed to complete the central ALICE tracking detectors. The main activities concerning the thesis are the following: a) Determination of the potential for exclusive jet measurements in ALICE. b) Determination of jet rates that can be acquired with the ALICE setup. c) Development of a parton-energy loss model. d) Simulation and study of the energy-loss effect on jet properties.
This thesis investigates the jet-medium interactions in a Quark-Gluon Plasma using a hydrodynamical model. Such a Quark-Gluon Plasma represents a very early stage of our universe and is assumed to be created in heavy-ion collisions. Its properties are subject of current research. Since the comparison of measured data to model calculations suggests that the Quark-Gluon Plasma behaves like a nearly perfect liquid, the medium created in a heavy-ion collision can be described applying hydrodynamical simulations. One of the crucial questions in this context is if highly energetic particles (so-called jets), which are produced at the beginning of the collision and traverse the formed medium, may lead to the creation of a Mach cone. Such a Mach cone is always expected to develop if a jet moves with a velocity larger than the speed of sound relative to the medium. In that case, the measured angular particle distributions are supposed to exhibit a characteristic structure allowing for direct conclusions about the Equation of State and in particular about the speed of sound of the medium. Several different scenarios of jet energy loss are examined (the exact form of which is not known from first principles) and different mechanisms of energy and momentum loss are analyzed, ranging from weak interactions (based on calculations from perturbative Quantum Chromodynamics, pQCD) to strong interactions (formulated using the Anti-de-Sitter/Conformal Field Theory Correspondence, AdS/CFT). Though they result in different angular particle correlations which could in principle allow to distinguish the underlying processes (if it becomes possible to analyze single-jet events), it is shown that the characteristic structure observed in experimental data can be obtained due to the different contributions of several possible jet trajectories through an expanding medium. Such a structure cannot directly be connected to the Equation of State. In this context, the impact of a strong flow created behind the jet is examined which is common to almost all jet deposition scenarios. Besides that, the transport equations for dissipative hydrodynamics are discussed which are fundamental for any numerical computation of viscous effects in a Quark-Gluon Plasma.
Kaon and pion production in centrality selected minimum bias Pb+Pb collisions at 40 and 158A GeV
(2009)
Results on charged kaon and negatively charged pion production and spectra for centrality selected Pb+Pb mininimum bias events at 40 and 158A GeV have been presented in this thesis. All analysis are based on data taken by the NA49 experiment at the accelerator Super Proton Synchrotron (SPS) at the European Organization for Nuclear Research (CERN) in Geneva, Switzerland. The kaon results are based on an analysis of the mean energy loss <dE/dx> of the charged particles traversing the detector gas of the time projection chambers (TPCs). The pion results are from an analysis of all negatively charged particles h- corrected for contributions from particle decays and secondary interactions. For the dE/dx analysis of charged kaons, main TPC tracks with a total momentum between 4 and 50 GeV have been analyzed in logarithmic momentum log(p) and transverse momentum pt bins. The resulting dE/dx spectra have been fitted by the sum of 5 Gaussians, one for each main particle type (electrons, pions, kaons, protons, deuterons). The amplitude of the Gaussian used for the kaon part of the spectra has been corrected for efficiency and acceptance and the binning has been transformed to rapidity y and transverse momentum pt bins. The multiplicity dN/dy of the single rapidity bins has been derived by summing the measured range of the transverse momentum spectra and an extrapolation to full coverage with a single exponential function fitted to the measured range. The results have been combined with the mid-rapidity measurements from the time-of-flight detectors and a double Gaussian fit to the dN/dy spectra has been used for extrapolation to rapidity outside of the acceptance of the dE/dx analysis. For the h- analysis of negatively charged pions, all negatively charged tracks have been analyzed. The background from secondary reactions, particle decays, and gamma-conversions has been corrected with the VENUS event generator. The results were also corrected for efficiency and acceptance and the pt spectra were analyzed and extrapolated where necessary to derive the mean yield per rapidity bin dN/dy. The mean multiplicity <pi-> has been derived by summing up the measured dN/dy and extrapolating the rapidity spectrum with a double Gaussian fit to 4pi coverage. The results have been discussed in detail and compared to various model calculations. Microscopical models like URQMD and HSD do not describe the full complexity of Pb+Pb collisions. Especially the production of the positively charged kaons, which carry the major part of strange quarks, cannot be consistently reproduced by the model calculations. Centrality selected minimum bias Pb+Pb collisions can be described as a mixture of a high-density region of multiply colliding nucleons (core) and practically independent nucleon-nucleon collisions (corona). This leads to a smooth evolution from peripheral to central collisions. A more detailed approach derives the ensemble volume from a percolation of elementary clusters. In the percolation model all clusters are formed from coalescing strings that are assumed to decay statistically with the volume dependence of canonical strangeness suppression. The percolation model describes the measured data for top SPS and RHIC energies. At 40A GeV, the system size dependence of the relative strangeness production starts to evolve from the saturation seen at higher energies from peripheral events onwards towards a linear dependence at SIS and AGS. This change of the dependence on system size occurs in the energy region of the observed maximum of the K+ to pi ratio for central Pb+Pb collisions. Future measurements with heavy ion beam energies around this maximum at RHIC and FAIR as well as the upgraded NA49 successor experiment NA61 will further improve our understanding of quark matter and its reflection in modern heavy ion physics and theories.
Nachdem 1953 von Bates und Griffing [BAT53] der Beitrag der Elektron-Elektron Wechselwirkung neben der Kern-Elektron Wechselwirkung bei der Projektilionisation im Ion-Atom Stoß postuliert und im Rahmen einer 1. Bornschen Näherung beschrieben wurde, gelang in dieser Arbeit zum ersten Mal die ereignisweise Trennung beider Beiträge im Stoß von 3.6 MeV/u C 2 mit Helium durch ein kinematisch vollständiges Experiment, indem die Impulsvektoren des Projektilelektrons ~ p epro , des Targetelektrons ~p etar sowie des ionisierten Targets ~ p R koinzident zum ionisierten Projektil vermessen wurden. Wie sich überraschenderweise herausstellte kann einfach durch Vergleich der Absolutbeträge der Impulsvektoren des Targetelektrons und des Targetkerns für jeden einzelnen Stoß bestimmt werden, ob das Targetelektron "passiv" war und nur das Potenzial des Targetkerns abschirmte ((n-e) Wechselwirkung) oder ob das Targetelektron "aktiv" war und das Projektilelektron in einem Elektron-Elektron Stoß ionisierte ((e-e) Wechselwirkung). Im zweiten Fall bleibt der Targetkern passiv, kompensiert aber ebenfalls ereignisweise das Comptonprofil des ionisierenden Targetelektrons. Der Summenvektor ~q = ~p R ~p etar repräsentiert daher bei der (e-e) Wechselwirkung den korrekten Impuls übertrag des quasifreien Elektron. Die kinematisch vollständige Information über alle beteiligten Stoffteilchen erlaubt es, neben einem detaillierten Einblick in die korrelierte Vier-Teilchendynamik, den gesamten Datensatz nach (n-e) bzw. (e-e) Ereignissen zu sortieren. Die (e-e) Ergebnisse können des weiteren in das Projektilsystem transformiert und dort im Sinne einer Elektronenstoß-Ionisation durch das quasifreie Targetelektron, welches nun Projektil ist, interpretiert werden. Wegen des großen Raumwinkels von Omega = 2pi bis 4 pi für alle Reaktionsfragmente wird im Gegensatz zu klassischen (e,2e) Experimenten weder der Impulsübertrag q noch die Energie Eb des ionisierten Elektrons während der Messung festgehalten. D.h. die Ergebnisse sind im Rahmen der jeweiligen Akzeptanz über alle Impulsüberträge sowie über alle möglichen Energien und Emissionswinkel des ionisierten Elektrons integriert. Prinzipiell können jedoch Impulsübertrag, sowie Elektronenenergie beliebig vorgewählt werden, indem bei der Analyse der Daten entsprechende Fenster gesetzt werden. Die im experimentellen Datensatz enthaltene, vollständige Information erlaubt die Projektion in jeden beliebigen Unterraum. Bei hinreichender Statistik könnten sowohl der dreifach-, als auch jegliche nieder-differentielle Wirkungsquerschnitte aus dem Datensatz extrahiert werden. Aufgrund mangelnder Statistik in dieser ersten Messung stehen jedoch bei zu engen Projektionsfenstern zu wenige Ereignisse zur Verfügung, um signifikante Aussagen treffen zu können. Innerhalb von 12 Stunden effektiver Messzeit konnten 20.000 (e- e) Ereignisse detektiert werden. Realistische Prognosen unterstützen die Annahme, dass während einer weiteren Strahlzeit innerhalb einer Woche 250.000 Ereignisse gemessen werden könnten. Dadurch würde die Einteilung der Daten in kleine Untermengen des Impulsübertrages, vom optischen Limit bis hin zu extrem binären Stößen, bei Elektronenenergien des ionisierten Elektrons von einigen meV an der Kontinuumsschwelle bis hin zu 100 eV Kontinuumsenergie sowohl in koplanarer als auch nicht-koplanarer Geometrie ermöglicht. Ein weitaus asymmetrischeres Stoßsystem ist jedoch für zukünftige Experimente wünschenswert und geplant. Dies bedeutet entweder ein leichteres Target, oder ein schwereres Projektil. Auch angeregte Targetatomen mit Elektronen in hohen (Rydberg-) Zuständen wären denkbar. Die Näherung des Targetelektrons als quasi-freies Elektron wird besser, je kleiner seine Bindungsenergie gegenüber der Bindungsenergie des zu ionisierenden Elektrons ist: Zwar kann das Comptonprofil des quasifreien Elektrons ereignisweise korrigiert werden, es muss aber immer auch ein minimaler Impulsübertrag zur Ionisation des Targets aufgebracht werden. Dieser Unterschied zum (e,2e) mit einem freien Elektron wird jedoch erst vernachlässigbar, wenn die Bindungsenergie des Targetelektrons sehr klein ist gegenüber der des Projektilelektrons, d.h., wenn der Anteil der Targetionisation am Impulsübertrag vernachlässigbar klein ist. (Im hier vorliegenden Fall war das Kohlenstoffelektron jedoch nur ca. doppelt so fest gebunden wie das Heliumelektron.) Weiterhin ist anzunehmen, dass mit kleinerem Z eff des Targets und mit größerem mittleren Radius des Targetelektrons die (n-e) Wechselwirkung an Bedeutung verliert, da die (e-e) Wechselwirkung bei vergleichsweise größeren Stoßparametern stattfindet und der Wirkungsquerschnitt für (n-e) Prozesse mit Z eff skaliert. Diese Überlegungen werden durch Ctmc-Ergebnisse von Olson et al. unterstützt. In Abb. 7.1 werden daher Rechnungen für das Stoßsystem 3.6 MeV/u C 2 auf angeregtes Wasserstoff mit einem Elektron in der n=2 Schale abgebildet. Der Anteil der (n-e) Wechselwirkung ist so klein, dass eine Sortierung der Daten nicht mehr nötig ist: Die Projektilionisation wird nun von der (e-e) Wechselwirkung beherrscht. Im Besonderen sind die im vorangegangenen Kapitel diskutierten Einflüsse der Drei- bzw. Vier-Teilchendynamik offensichtlich bei diesem Stoßsystem gänzlich vernachlässigbar. Die Reduzierung des H-Kerns als "Zuschauer" und somit auch die Reduzierung des Stoßes auf eine (in 1. Ordnung) 2-Teilchen Wechselwirkung zwischen Targetelektron und Projektil scheint nahezu uneingeschränkt gerechtfertigt. In Zukunft werden am Esr der Gsi (weitaus) asymmetrischere Stoßsysteme, wie wasserstoffähnliches Uran auf Helium, zugänglich. Im Esr können derzeit ca. 5 mal 10 hoch 8 Projektile gespeichert, gleichmäßig im Ring verteilt (Gleichstrom-Modus) oder in 1 - 2 "Pakete" von ca. 2 ns Zeitlänge gepackt werden. Die Umlauffrequenz für ein Ionen-Paket oder für ein einzelnes Ion beträgt ca. 2 MHz. Im Gegensatz zu einem Experiment am Strahlrohrende des Unilac passiert ein Projektil, das nicht ionisiert wurde, nach 500ns erneut die Reaktionszone (das Target). Die dadurch erzielte Luminosität erlaubt die Messung von Reaktionen mit vergleichsweise kleinen Wirkungsquerschnitten, welche am Strahlrohrende nicht zugänglich sind. Durch eine elektrische Pulsung des Rückstoßionendetektors in Koinzidenz zur Projektilumladung sowie zum Projektil- und Targetelektron wird man sich in Zukunft von unerwünschten Rückstoßionen aus der reinen Targetionisation befreien können, sodass auch Stoßsysteme, bei denen Targetionisation mehrere Größenordnung wahrscheinlicher ist als die simultane Ionisation von Projektil und Target, zugänglich werden. Die Detektion des hochenergetischen Projektilelektrons wird am Esr jedoch nicht mehr - wie in dieser Arbeit beschrieben - auf dem gleichen Detektor wie das niederenergetische Targetelektron erfolgen können, da diese Geometrie nur eine Akzeptanz für das Projektilelektron bis v p ungefähr gleich 15 a.u. hat und die Impulsauflösung prinzipiell (systematisch) beschränkt ist. In Abhängigkeit vom Stoßsystem kann das Projektilelektron (mit Projektilgeschwindigkeit) am Esr Energien von einigen 100 keV haben. Daher wird in Zukunft die Detektion des Projektilelektrons durch ein 0 0 -Magnetspektrometer in Strahlrichtung hinter dem Reaktions-Mikroskop erfolgen. Da die beiden getrennten Nachweissysteme (Reaktions-Mikroskop, 0 0 -Spektrometer) dann auf die zu detektierende Elektronenenergie optimiert werden können, wird die Impulsauflösung beider Elektronen erheblich verbessert werden. Ein neues Reaktions-Mikroskop, welchen im Rahmen dieser Arbeit geplant und konstruiert wurde, sowie das 0 0 -Magnetspektrometer sind im Aufbau befindlich, und Teile sind bereits im Esr implementiert. Abb. 7.2 zeigt eine technische Zeichnung des Aufbaus. Zu erkennen ist das interne Gasjet-Target des Esr. Der Ionenstrahl durchkreuzt die Kammer von rechts nach links. Das benötigte homogene Magnetfeld zur Führung der Targetelektronen wird durch ein 2m Helmholtz-Spulenpaar realisiert. Die Projektilelektronen, welche in einem kleinen kinematischen Kegel um 0 0 mit Projektilgeschwindigkeit emittiert werden, werden nach dem Durchgang durch das Reaktions-Mikroskop im 0 0 -Spektrometer energie- und winkeldispersiv detektiert. Die Inbetriebnahme erfolgt voraussichtlich in 2002. Bis dahin sind weitere Messungen am Unilac der Gsi für dasselbe Stoßsystem, aber auch mit anderen Projektilen (unterschiedlichen Störungen) geplant. Auch Theoretiker wurden auf die Fragestellungen dieser Arbeit aufmerksam und es sind bereits verschiedene quantenmechanische Rechnungen in Vorbereitung, sodass hoffentlich in naher Zukunft mehrfach-differentielle Wirkungsquerschnitte zur Elektronenstoß-Ionisation von Ionen mit quantenmechanischen Rechnungen höherer Ordnungen quantitativ verglichen werden können.
In this work I investigate two different systems - spin systems and charge-density-waves. The same theoretical method is used to investigate both types of system. My investigations are motivated by experimental investigations and the goal is to describe the experimental results theoretically. For this purpose I formulate kinetic equations starting from the microscopical dynamics of the systems.
First of all, a method is formulated to derive the kinetic equations diagrammatically. Within this method an expansion in equal-time connected correlation functions is carried out. The generating functional of connected correlations is employed to derive the method.
The first system to be investigated is a thin stripe of the magnetic insulator yttrium-iron-garnet (YIG). Magnons are pumped parametrically with an external microwave field. The motivation of my theoretical investigations is to explain the experimental observations. In a small parameter range close to the confluence field strength where confluence processes of two parametrically pumped magnons with the same wave vector becomes kinematically possible the efficiency of the pumping is reduced or enhanced depending on the pumping field strength. Because it is expected that that confluence and splitting processes of magnons are essential for the experimental observations I go beyond the kinetic theories that are conventionally applied in the context of parametric excitations in YIG and investigate the influence of cubic vertices on the parametric instability of magnons in YIG.
Furthermore, the influence of phonons is investigated. Usually in the literature these are taken into account as heat bath. Here, I want to explain experiments where an accumulation of magnetoelastic bosons - magnon-phonon-quasi-particles - has been observed. I employ the method of kinetic equations to investigate this phenomenon theoretically. The kinetic theory is able to reproduce the experimental observations and it is shown that the accumulation of magnetoelastic bosons is purely incoherent.
Finally, charge-density waves (CDW) in quasi-one-dimensional materials will be investigated. Charge-density waves emerge from a Peierls-instability and are a prime example for spontaneous symmetry breaking in solids. Again, the motivation for my theoretical investigations are an experiment where the spectrum of amplitude and phase phonon modes has been measured. Starting from the Fröhlich-Hamiltonian I derive kinetic equations and from these kinetic equations the equations of motion for the CDW order parameter can be derived. The frequencies and damping rates of amplitude and phase phonon modes will be derived from the linearized equations of motion. I compare my theory with existing methods. Furthermore, I also investigate the influence of Coulomb interaction.
Im Rahmen der vorliegenden Arbeit wird experimentell ein oszillatorischer Hall-Strom nachgewiesen, der sich in einem impulsiv optisch angeregten Halbleiterühergitter ausbildet, sobald sich dieses in einem statischen magnetischen Feld und einem dazu senkrechten statischen elektrischen Feld befindet. Das Übergitter dient dabei als Modellsystem für ein dreidimensionales Material und ermöglicht die Beobachtung eines unter dem Begriff "kohärenter Hall-Effekt" zusammengefassten Bewegungsverhaltens der Ladungsträger, das durch eine charakteristische Frequenzabhängigkeit des oszillatorischen Hall-Stromes von den äußeren Feldern gekennzeichnet ist. Dabei wird in der vorliegenden Arbeit das spezielle Bewegungsverhalten mit Hilfe eines semiklassischen Modells hergeleitet und diskutiert. Die zentrale Aussage des Modells ist die Existenz zweier scharf voneinander abgegrenzter Bewegungsregimes, (die sich durch eine entgegengesetzte Feldabhängigkeit der Oszillationsfrequenz auszeichnen. Am Übergang zwischen diesen beiden Regimes werden alle Oszillationen aufgrund einer gegen Null gehenden Frequenz unterdriickt. Dabei lässt sich im Gegensatz zum Ortsraum der Übergang zwischen den beiden Bewegungsregimes im k-Raum einfach klarmachen. Er wird durch die Überwindung der Mini-Brillouin-Zonengrenze durch das Ladungsträgerwellenpaket markiert und bestimmt, ob die Bewegungsform Bloch-oszillationsartig oder zyklotronartig ist. Der experimentelle Nachweis des kohärenten Hall-Effektes wird durch die Anwendung einer berührungsfreien optoelektronischen Technik ermöglicht, mit deren Hilfe das emittierte elektrische Feld der kohärenten, transienten Hall-Ströme zeitaufgelöst detektiert werden kann. Da diese Technik die Messung frei propagierender Strahlung im THz-Frequenzbereich gestattet, bezeichnet man die Methode als THiz-Emissionsspektroskopie. Im Gegensatz zum klassischen Hall-Effekt stellt sich der kohärente Hall-Effekt als Manifestation der Wellennatur (der Ladungsträger dar, die sich im Festkörper durch eine periodische Dispersionsrelation äußert,. Erst. die kohärente Präparation eines Ladungsträgerensembles ermöglicht dabei (die Beobachtung der mikroskopischen Vorgänge in Form einer transienten Bewegung, die, bedingt durch ultraschnelle Streuprozesse, auf kurzen Zeitskalen von etwa 1 ps dephasiert. Die Kohärenz wird dem System dabei mittels eines kurzen Laserpulses von etwa 100 fs Dauer aufgeprägt, mit dessen Hilfe die Ladungsträger im Übergitter optisch generiert werden. Diese Vorgehensweise ist mit der experimentellen Untersuchung von Bloch-Oszillationen vergleichbar, die ebenfalls erst durch die kohärente Präparation der Ladungsträger messbar werden. Die inkohärente Bewegung der Ladungsträger in einem Kristall unter dem Einfluss eines konstanten elektrischen Feldes wird bekanntermaßen durch das Ohmsche Gesetz beschrieben analog etwa der Beschreibung der IIall-Spannung beim klassischen Hall-Effekt.. Im Rahmen der vorliegenden Arbeit gelingt der erste Nachweis des beschriebenen kohärenten Effektes und damit, der Beleg, dass es auch in dreidimensionalen Halbleitern, hier repräsentiert durch ein Übergitter, möglich ist, kohärente Signaturen des Hall-Effektes zu beobachteten. Im Gegensatz zu speziellen zweidimensionalen Strukturen, wie sie beim integralen und fraktionalen Quanten-Hall-Effekt verwendet werden, ist dies hier aufgrund des größeren Zustandsraumes und der dadurch bedeutenderen Dephasierungsprozesse nur auf sehr kurzen Zeitskalen realisierbar.
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
Ziel dieser Arbeit war die Entwicklung eines Mess-Systems zur energie- und winkelaufgelösten Spektroskopie von koinzidenten Elektronenpaaren, die in Reaktionen an einer Oberfläche emittiert wurden. Das Hauptinteresse galt hierbei dem Zwei-Elektronen-Photoemissionsprozess an Oberflächen. Das Prinzip des Spektrometers stellt eine Erweiterung der existierenden COLTRIMS-Spektrometer (COld Target Recoil Ion Momentum Spectroscopy) für Gasphasen-Experimente auf den Themenkreis der Oberflächenphysik dar. Anders als bei den in der Photoelektronen-Spektroskopie häufig eingesetzten elektrostatischen Analysatoren, wird hier eine Flugzeittechnik verwendet. Die Elektronen, die in der Reaktion erzeugt wurden, werden h ierzu mit einem schwachen homogenen elektrostatischen Feld vom Target abgesaugt und in Richtung eines orts- und zeitauflösenden Detektors beschleunigt. Zusätzlich wird ein homogenes Magnetfeld überlagert, das einen Einschluss der Elektronen bis zu einem maximalen Transversal-Impuls gewährleistet. Durch Messung der Flugzeiten und Auftrefforte auf dem Detektor können - unter Kenntnis d er elektrischen und magnetischen Feldstärken - die Startimpulse der Elektronen rekonstruiert werden. Auf diese Weise konnten Elektronen von 0 eV bis zu 50 eV mit einem Raumwinkel von nahezu 2p gleichzeitig abgebildet werden. Durch diesen sehr großen Aktzeptanzbereich, konnte eine wesentliche Erhöhung der Koinzidenzeffizienz der Anordnung gegenüber anderen Systemen erreicht werden (> 10 hoch 2 - 10 hoch 6 je nach Mess-System). Wesentlich hierfür ist des weiteren die Fähigkeit des Detektors mehrere Treffer mit verschwindender Totzeit zu verarbeiten. Mit dem beschriebenen System wurde die Zwei-Elektronen-Photoemission an Oberflächen untersucht. Die Experimente hierzu wurden im wesentlichen am Hamburger Synchrotron Strahlungslabor (HASYLAB) durchgeführt. Als Target wurde die (111)-Oberfläche eines einkristallines Kupfer-Targets verwendet. Mehrere Messreihen mit Photonenenergien im Bereich h? = 40 eV bis h? = 100 eV wurden aufgezeichnet. Durch die vollständige Vermessung des gesamten Impulsraumes der beiden Elektronen, stellt dies die erste kinematisch vollständige Untersuchung (bis auf die Spin-Freiheitsgrade) der Zwei-Elektronen-Photoemission an Oberflächen dar. Im Anschluss an vorangegangene Experimente [HER98], konnte auch hier in den Zwei-Elektronen-Energieverteilungen (innerhalb der experimentellen Auflösung) als Maximal-Energie des Paares der Wert E1 + E2 = h? - 2W0 festgestellt werden, der auf eine Selbst-Faltung der Bänder für die Zwei-Elektronen-Photoemission hindeutet. Die Form der Spektren wird wesentlich durch das Transmissionsverhalten der Elektronen beim Durchgang durch die Oberfläche bestimmt. Die auftretende energieabhängige Brechung der Trajektorie führt dabei zu einer starken Unterdrückung niederenergetischer Elektronen. In der Betrachtung der Kinematik der Emission konnten deutliche Analogien des Effektes zum analogen Prozess der Doppel-Photoionisation an freien Atomen bzw. Molekülen gefunden werden. Die Bewegung des Schwerpunktsimpulses des Paares ist daher durch die Richtung des Polarisationsvektor des Lichtes bestimmt. Im Gegensatz zur Emission am freien System, tritt hier allerdings - je nach Orientierung des Polarisationsvektors - ein Symmetriebruch auf, da Elektronen entweder auf die Oberfläche zu oder von ihr weg emittiert werden. Ein Bruchteil der in den Festkörper emittierten Intensität kann schließlich wieder am Gitter reflektiert werden und die Oberflächenbarriere noch überwinden. Die Energie- und Winkelverteilungen der Elektronen zeigen, dass, je nach Energieaufteilung des Paares, zwischen den Beiträgen durch einen "shake-off"-Mechanismus und einem "knock-out"-Mechanismus unterschieden werden kann. Auch hierin zeigt sich eine Ähnlichkeit des Zwei-Elektronen-Photoemissionsprozesses an Oberflächen mit der Doppel-Ionisation von Helium-Atomen. Während bei der Doppel-Ionisation von Helium diese Unterscheidung allerdings erst bei höheren Photonenenergien (> 100 eV) möglich ist, kann hier schon bei ca. 60 eV zwischen beiden Prozessen getrennt werden. Der Grund hierfür liegt sehr wahrscheinlich in der Abschirmung der Elektronen im Festkörper begründet, die die direkte Coulomb-Wechselwirkung der Elektronen im Endzustand reduziert. Insbesondere der starke Beitrag des "shake-off"-artigen Prozesses ist ein deutlicher Hinweis darauf, dass die gegenwärtigen theoretischen Modelle zur Beschreibung der Zwei-Elektronen-Photoemission nicht ausreichend sein können, da nur die Wechselwirkung im End-Zustand berücksichtigt wird. Vielmehr ist die Einbeziehung von Grundzustandswellenfunktionen jenseits des Bildes unabhängiger Teilchen nötig.
Die vorliegende Arbeit befasst sich mit der Untersuchung einzelner chiraler Moleküle durch Koinzidenzmessungen. Ein Molekül wird chiral genannt, wenn es in zwei Varianten, sogenannten Enantiomeren auftritt, deren Strukturmodelle Spiegelbilder voneinander sind.
Da viele biologisch relevante Moleküle chiral sind, sind Methoden und Erkenntnisse dieses Gebiets von großer Bedeutung für Biochemie und Pharmazie. Bemerkenswert ist, dass in der Natur meist nur eines der beiden möglichen Enantiomere auftritt. Ob diese Wahl zufällig war, ob sie aufgrund der Anfangsbedingungen bei Entstehung des Lebens erfolgte, oder ob sie eine fundamentale Ursache hat, ist bisher ungeklärt. Seit der Entdeckung chiraler Molekülstrukturen in der zweiten Hälfte des 19. Jahrhunderts ist eine Vielzahl von Methoden entwickelt worden, um die beiden Enantiomere eines Moleküls zu unterscheiden und ihre Eigenschaften zu untersuchen. Aussagen über die mikroskopische Struktur (Absolutkonfiguration) können jedoch meist nur mithilfe theoretischer Modelle getroffen werden.
Der innovative Schritt der vorliegenden Arbeit besteht darin, eine in der Atomphysik entwickelte Technik zur Untersuchung einzelner mikroskopischer Systeme erstmals auf chirale Moleküle anzuwenden: Mit der sogenannten Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) ist es möglich, einzelne Moleküle in der Gasphase mehrfach zu ionisieren und die entstandenen Fragmente (Ionen und Elektronen) zu untersuchen. Die gleichzeitige Detektion dieser Fragmente wird als Koinzidenzmessung bezeichnet.
Zunächst wurde das prototypische chirale Molekül CHBrClF mit einem Femtosekunden-Laserpuls mehrfach ionisiert, sodass alle fünf Atome als einfach geladene Ionen in einer sogenannten Coulomb-Explosion „auseinander fliegen“. Durch Messung der Impulsvektoren dieser Ionen konnte die mikroskopische Konfiguration einzelner Moleküle mit sehr hoher Zuverlässigkeit bestimmt werden. Somit eignet sich die Koinzidenzmethode auch dazu, die Anteile der rechts- bzw. linkshändigen Enantiomere in einer Probe zu bestimmen. Die Messungen an der verwendeten, racemischen Probe zeigen bei der Ionisation mit linear polarisiertem Licht im Rahmen der statistischen Unsicherheit wie erwartet eine Gleichverteilung der beiden Enantiomere.
In einem nachfolgenden Experiment konnte gezeigt werden, dass sich die Coulomb-Explosion auch mit einzelnen hochenergetischen Photonen aus einer Synchrotronstrahlungsquelle realisieren lässt. Für beide Ionisationsmechanismen – am Laser und am Synchrotron - wurden mehrere Fragmentationskanäle untersucht. Im Hinblick auf die Erweiterung der Methode hin zu komplexeren, biologisch relevanten Molekülen ist es entscheidend zu wissen, inwieweit sich die Händigkeit bestimmen lässt, wenn nicht alle Atome des Moleküls als atomare Ionen detektiert werden. Hierbei stellte sich heraus, dass auch molekulare Ionen zur Bestimmung der Absolutkonfiguration herangezogen werden können. Eine signifikante Steigerung der Effizienz konnte für den Fall demonstriert werden, dass nicht alle Fragmente aus der Coulomb-Explosion des Moleküls detektiert wurden – hier lassen sich allerdings nur noch statistische Aussagen über die Absolutkonfiguration und die Häufigkeit der beiden Enantiomere treffen.
Um die Grenzen der Methode in Bezug auf die Massenauflösung zu testen, wurden isotopenchirale Moleküle, d.h. Moleküle, die nur aufgrund zwei verschiedener Isotope chiral sind, untersucht. Auch hier ist eine Trennung der Enantiomere möglich, wenn auch mit gewissen Einschränkungen.
Ein wichtiges Merkmal chiraler Moleküle ist das unterschiedliche Verhalten der Enantiomere bei Wechselwirkung mit zirkular polarisierter Strahlung. Diese Asymmetrie wird Zirkulardichroismus genannt. Die koinzidente Untersuchung von Ionen und Elektronen aus der Fragmentation eines Moleküls eröffnet neue Möglichkeiten für die Untersuchung des Dichroismus. So können die Impulsvektoren der Ionen mit bekannten Asymmetrien in der Elektronenverteilung (Photoelektron-Zirkulardichroismus) verknüpft werden, was zu einem besseren Verständnis der Wechselwirkung elektromagnetischer Strahlung mit chiralen Molekülen führen kann.
In dieser Arbeit wurde nach Asymmetrien in der Winkelverteilung sowohl der Ionen als auch der Elektronen nach der Ionisation von CHBrClF und Propylenoxid (C3H6O) mit zirkular polarisierter Synchrotronstrahlung gesucht. In den durchgeführten Messungen konnte kein zweifelsfreier Nachweis für einen Dichroismus bei den verwendeten experimentellen Bedingungen erbracht werden. Technische und prinzipielle Limitierungen der Methode wurden diskutiert und Verbesserungsvorschläge für zukünftige Messungen genannt.
Mit der erfolgreichen Bestimmung der Absolutkonfiguration und der prinzipiellen Möglichkeit, Asymmetrien in zuvor nicht zugänglichen Messgrößen zu untersuchen, legt diese Arbeit den Grundstein für die Anwendung der Koinzidenzspektroskopie auf Fragestellungen der Stereochemie.
Für Experimente der Atomphysikgruppe der GSI in Darmstadt wird ein Ionenabbremser gebaut, der niederenergetische, extrem hochgeladene Ionen zur Verfügung stellen wird. Die Planungen zu der soganennten HITRAP (highly charged ion's trap) begannen Anfang der neunziger Jahre. Mit dieser Anlage sollen hochgeladene, schwere Ionen auf sehr niedrige, thermische Geschwindigkeiten in zwei Stufen abgebremst und für hochpräzise Massenspektroskopie, Messungen des g-Faktors des gebundenen Elektrons wasserstoffähnlicher Ionen und andere atomphysikalische Experimente zur Verfügung stehen. Diese Deceleratoranlage soll zunächst im Reinjektionskanal hinter dem ESR aufgebaut werden, mit der Möglichkeit, alle Komponenten später beim Ausbau der GSI im Rahmen des FAIR-Projektes in der neu zu errichtenden Anlage für niederenergetische Antiprotonen und Ionen zu verwenden. Die vorliegende Arbeit behandelt die Entwicklung und den Aufbau eines integrierten RFQ-Debuncher-Abbremsbeschleunigers, der einen Teil der HITRAP-Abbremsstrukturen darstellt. Mit diesem wird der Ionenstrahl, vom IH-Abbremsbeschleuniger mit einer Energie von 5oo keV/u kommend auf 6 keV/u abgebremst. Mit dem integrierten Spiralbuncher kann der Strahl in Energie und Energieabweichung an die nachfolgende Kühlerfalle angepasst werden. Es wurden in dieser Arbeit die Grundlagen der Teilchendynamik in einem RFQ-Beschleuniger zum Abbremsen von Teilchenstrahlen erarbeitet und umgesetzt, die zur Auslegung einer solchen Struktur notwendigen Teilchendynamikrechnungen mit RFQSim durchgeführt, geeignete Hf-Strukturen mit dem Simulationsprogramm Microwave Studio entwickelt und untersucht, sowie die thermische Belastung der Strukturen mit dem finite Elementeprogramm ALGOR untersucht. Ein weiterer zentraler Punkt dieser Arbeit ist der Aufbau und die Hf-Abstimmung der RFQ-Struktur, um eine möglichst homogene Feldverteilung entlang der Elektroden zu erreichen. Messungen der Felder im RFQ wurden mit einem Störkondensator, am Debuncher mit einem Störkörper durchgeführt. Nach erfolgreich durchgeführten Vakuumtests am IAP ist die RFQ-Debuncher-Kombination nun bereit für erste Hochleistungstests an der GSI.
In der Betrachtung dieser Arbeit werden hauptsächlich die vier Geistesgestalten der ersten Hälfte des 18. Jahrhunderts, nämlich G. W. LEIBNIZ, JOHANN BERNOULLI (I), DANIEL BERNOULLI, und LEONHARD EULER in ihrem Verhältnis zur Gravitation bzw. zu NEW TONS Gravitationstheorie gewürdigt. Die herangezogenen Arbeiten wurden von mir aus dem Lateinischen bzw. dem Französischen übersetzt. Es wird dargestellt, daß sowohl LEIBNIZ als auch JOHANN BERNOULLI Darstellungen gegeben haben, die beanspruchen, die gesamte Himmelsmechanik zu erklären. DANIEL BERNOULLI wird hauptsächlich in bezug auf seine Konkurrenz mit dem Vater in seiner Preisschrift betrachtet, und EULER liefert neben einer fulminanten Kritik an der fehlenden Ursachenerklärung NEWTONS eine Version von Gravitationserklärung, von der er später wieder Abstand nehmen mußte. Allen kontinentalen Gelehrten ist gemeinsam, daß sie auf einer nahwirkenden Ursache als Erklärung der Gravitation bestehen und sich damit deutlich von ISAAC NEWTON absetzen. Fast gemeinsam allerdings ist ihnen auch die Achtung vor NEWTON, insbesondere dadurch, daß sie (bis auf LEIBNIZ) dessen Ergebnisse aus den principia durchaus verwenden. Sie sind nur mit dessen ''Fernwirkungstheorie" nicht einverstanden. LEIBNIZ hebt sich insofernhin ab, als er in seiner Arbeit sich nicht mit der NEWTONS aus einandersetzt, sondern sein eigenes Konzept verfolgt. Er kannte NEWTONS Arbeit nicht und publizierte seine Version ziemlich bald nach Erscheinen der principia. Dabei benutzt er seine neu entwickelte Analysis und leitet aus Prämissen, die er angibt, die Eigenschaften der Plane tenbewegung ab. Zur Erklärung der Schwere dient ihm ein schon von HUYGENS angegebe nes Modell der Schwereerzeugung durch Rückstoß und Verdrängung im Wirbel. Die Plane tenbewegung wird dann bei ihm durch Zentrifugalbewegung und ''parazentrische" Rückstoßbewegung in radialer Richtung und durch ''harmonische" Kreisbewegung in tangentialer Richtung infinitesimal zusammengesetzt. JOHANN BERNOULLI erfindet eine eigene ''Himmelsphysik", indem er nach eigener Äuße rung das Beste aus beiden System, dem von DESCARTES und dem NEWTONS, zusammen führt. Bei ihm wird alles aus Stößen und nach den Stoßgesetzen erklärt. Die gesamte Spekulation verwendet subtile Materie des ersten Elementes, die durch eine Art Siedevorgang aus dem Zentralgestirn (jeweils) austritt, durch Stöße und Anlagerungen im Laufe der Zeit zur Materie des zweiten Elementes verdichtet wird und schließlich als ''Zentralstrom" zurückgestoßen, auf jeden Himmelskörper einwirkend, für alle Phänomene verantwortlich gemacht wird. Seine Spekulationen sind großartig formuliert und aus Alltagsbildern wie Sieden, Destillationen, Weihrauch Wahrnehmung, Lichtausbreitung, Schneelawinen, Flammruß Erscheinungen und ähnlichem entnommen. Seine von der Pariser Akademie preisgekrönte Arbeit teilte sich den Preis mit der Arbeit sei nes Sohnes DANIEL BERNOULLI, der sich aber darauf beschränkt, die spezielle Fragestel lung der Preisaufgabe zu bearbeiten und dabei nur erkennen läßt, was er von den Ursachen der anderen Himmelserscheinungen denkt. Während sein Vater sich als strenger CARTESI ANER gibt und die Preisaufgabe nur dadurch bewältigen kann, daß er sich den Erdglobus als langgestrecktes Ellipsoid, im tragenden Medium schwimmend, vorstellt, benutzt Daniel die Vorstellung einer sich überall erstreckenden Sonnenatmosphäre, um deren Einwirkung für seine Lösung nutzbar zu machen. Aus seinen Bemerkungen über NEWTON und über Wirbel theorien schimmert schon durch, daß er sich als Anhänger NEWTONS eher verstehen kann, denn als Anhänger der Wirbeltheorien. Bei LEONHARD EULER handelt es sich vermutlich um den Menschen, der die Physik, ins besondere die Mechanik, im 19. Jahrhundert am meisten beeinflußt hat. Zwei Schriften von ihm werden betrachtet, von denen die erste anonym erschien und erst 1996 ihrem Verfasser sicher zugeordnet werden konnte. Nach meiner Übersetzung hier und dem Vergleich mit einer posthumen Arbeit, ''Handreichungen zur Naturlehre", kann diese jetzt sicher datiert werden als zu Beginn der vierziger Jahre des 18. Jahrhunderts entstanden. Die anonyme Arbeit, ''De causa gravitatis" enthält in komprimierter Form eine fundamentale Kritik der Fernwirkungs theorie NEWTONS mit zum Teil sehr plastischen Beispielen der Ablehnung dieser Theorie. Daran anschließend wird der Aetherdruck, der in der Nähe der Planetenoberfläche geringer als weiter draußen sei, als Ursache der Gravitation vorgestellt. Es wird sogar eine Formel für die Druckverteilung angegeben. In der zweiten betrachteten Arbeit EULERS zeigt sich, daß LEONHARD EULER von der Erklärung der Ursache der Schwere Abstand nimmt. Allerdings beharrt er darauf, daß eine solche, mechanische Ursache existieren müsse und sie vermutlich im Aether zu suchen sei. Solche Vorsicht erschien ihm angeraten, nachdem LE SAGE ihm gezeigt hatte, daß der Aether als Erklärung für alle Phänomene der Optik, des Elektromagnetismus und der Mecha nik nicht herangezogen werden konnte. So kam es denn dazu, daß man NEWTONS Gesetze zum Rechnen gerne benutzte, seine Wei gerung, Gravitation als Masseeigenschaft zu definieren, einfach nicht mehr zur Kenntnis nahm und LEONHARD EULER folgte, der wohl der erste war, der aus der Definition NEW TONS, Kraft sei die Änderung der ''quantitas motus", die Formulierung Kraft sei gleich Mas se mal Beschleunigung machte. Es brauchte auf dem Kontinent fast ein ganzes Jahrhundert seit NEWTONS Arbeit, bevor, auf diese Art abgeändert, NEWTON als Säule der neuen Wis senschaft ''Physik" installiert war. Es wird mit dieser Arbeit gezeigt, daß die Modellbildung, die Vermittlung einer Vorstellung, auch für die ausgewiesene Elite der Wissenschaft einen hohen Stellenwert hatte. Das Funktionieren eines mathematischen Modells ist zwar wichtig und als Mittel der Arbeit unabdingbar, aber erst ein befriedigendes, vorstellbares, und damit mechanisches, Modell sichert ein Phä nomen als ''verstanden" ab. Unsere Probleme heute mögen zwar andere sein, in dieser Hin sicht aber hat sich die Wissenschaft auch heute noch nicht gewandelt und wird sich auch nicht wandeln. Es bleibt also bei der Frage: ''Was ist ein befriedigendes Modell?"
Ziel der vorliegenden Arbeit war die Optimierung der Kristallzüchtung von eisenbasierten Supraleitern. Im ersten Teil lag der Fokus dabei auf der Züchtung der 1111-Verbindung unter Hochdruck/Hochtemperaturbedingungen (HD/HT), sowie der systematischen Untersuchung verschiedener Einflüsse der Züchtung dieser Familie unter Normaldruckbedingungen.
Die HD/HT-Experimente führten unter den gewählten Parametern, sowohl unter der Verwendung eines Flussmittels als auch ohne, nicht zur Stabilisierung der gewünschten Zielphase. Stattdessen kam es zur Phasenseparation So bildete sich immer im Inneren des verwendeten BN-Tiegels ein, häufig kugelförmig ausgeformtes, Gebilde, bestehend aus einer Fe-As-Phase. Dies gilt sowohl für NdFeAsO als auch LaFeAsO1-xFx. Bei der Verwendung von Salz als Flussmittel kam es neben dieser Fe-As-Phase auch häufig zur Bildung einer Cl-haltigen Phase. Auch zeigte sich, dass es zu einer B-Diffusion während des Versuches kam, sodass Selten-Erd-Oxoborate nachgewiesen werden konnten. Durch einen Versuch unter Normaldruckbedingungen zeigte sich, dass dies kein Problem in der Hochdrucksynthese ist, sondern ein grundlegendes Problem bei der Verwendung von BN mit den Selten-Erden ist.
Nachdem gezeigt wurde, dass eine systematische Untersuchung bzw. Optimierung der Züchtungsparameter der 1111-Verbindungen unter HD/HT-Bedingungen enorm schwierig ist, lag der weitere Fokus auf der Züchtung unter Normaldruckbedingungen. Dazu wurde zu Beginn gezeigt, dass die Verwendung von Quarzampullen bei Temperaturen bis zu 1200 °C nicht zu einer zusätzlichen Sauerstoffdiffusion führen. Dies ermöglichte es ohne zusätzliche Schweißarbeit oder hohen Kosten den Optimierungsprozess für ein geeignetes Temperatur-Zeit-Profil durchzuführen. Das so erhaltene Profil wurde anschließen für alle weiteren Versuche verwendet. Mit dieser Basis wurde daraufhin untersucht, welchen Einfluss die Menge an Flussmittel auf die Stabilisierung der Phase und demnach auf die Kristallzüchtung hat. Dabei zeigte sich, dass ein molares Material-zu-Flussmittel-Verhältnis von 1:7 die besten Resultate liefert. Der nächste Optimierungsschritt, die Frage nach einem geeigneten Sauerstoffspender, in Angriff genommen. Bei dieser Frage wurde sich auf einen Sauerstoffspender aus der Gruppe der Eisenoxide konzentriert. Es zeigte sich, dass, für das gewählte Temperatur-Zeit-Profil die Verbindung FeO und Fe3O4 die besten Resultate liefern. In diesen Versuchen ist es gelungen Kristalle zu züchten die Kantenlängen bis zu 800 μm aufweisen. Allerdings zeigten Vergleichsversuche mit einen anderen Temperatur-Zeit-Profil, dass Fe2O3 in diesen Fällen die besten Resultate liefern. Dies macht deutlich, dass es bisher keine vollständige Kontrolle in der Züchtung der 1111-Verbindung gibt. Die Veränderung eines Züchtungsparameters bedeutet, dass auch alle anderen Parameter erneut geprüft werden müssen. Somit zeigte sich, dass eine fundierte und systematische Untersuchung der Züchtungsparameter notwendig ist.
Nachdem die grundlegenden Fragen für die undotierte Verbindung NdFeAsO beantwortet wurden, wurde untersucht, welche Sauerstoff-Fluorspenderkombination bei gegebenem Temperatur-Zeit-Profil optimal für den Kristallwachstum und den Fluoreinbau ist. Die erhaltenen Resultate belegten, dass in diesem Fall Fe3O4 und FeF2 zu den besten Resultaten führte. Die so gezüchteten Kristalle wiesen Kantenlängen bis zu 800 μm auf und Messungen des elektrischen Widerstandes zeigten einen maximalen Tc ≈ 53 K mit einen RRR-Wert im magnetischem Bereich von über 10. Damit unterscheiden sich die gezüchtete Kristalle hinsichtlich ihrer Qualität um den Faktor ~3 von den bisherigen Einkristallen bekannt aus der Literatur.
Durch die Ermittlung des reellen Fluorgehalts der Proben mittels WDX in Kombination mit elektrischen Widerstandsmessungen wurde ein vorläufiges Phasendiagramm erstellt.
Magnetische Messungen unter Normaldruck und Hochdruckbedingungen ermöglichten es die Anisotropie zwischen der ab- Ebene und der c-Ebene zu messen, sowie das Verhalten des elektrischen Widerstandes in Abhängigkeit vom Druck.
Es zeigte sich dabei, dass ab einem Druck von etwa 22.9 GPa die Supraleitung in diesen Kristallen nicht mehr vorhanden ist, und der Kristall wieder normalleitend ist. Mit weiter steigendem Druck steigen die Absolut-Widerstandswerte ebenfalls wieder an, was auf eine mögliche ferromagnetische Ordnung deutet.
Im zweiten Teil der Arbeit lag der Fokus auf einer Verbindung aus der 122-Familie der Pniktide: SrFe2As2. Zu Beginn wurde untersucht, welches der drei gewählten Tiegelmaterialien BN, Al2O3 oder Glaskohlenstoff, für Züchtungen dieser Phase am geeigneten ist. In allen Versuchen konnte die gewünschte Zielphase stabilisiert werden, jedoch kam es bei der Verwendung von Glaskohlenstoff zu Diffusion von Kohlenstoff aus dem Tiegel in die Probe hinein, sodass C-haltige Phasen nachweisbar waren. Ebenso zeigte sich, dass es auch eine Diffusion vom Material in den Tiegel hinein gegeben hat. Diese Probleme traten auch bei der Verwendung von Al2O3 auf. Durch ein Röntgenpulverdiffrakgtogramm konnte eine Al-haltige Verbindung in der Probe nachgewiesen werden. Ein weiterer Nachteil dieses Materials ist die Benutzung des Tiegels durch die Schmelze. Von den drei Materialien erwies sich BN als am besten geeignetes Tiegelmaterial. Es kommt zu keiner Benetzung oder Diffusion, auch der Fremdphasenanteil ist sehr gering in dieser Probe.
Mit diesem Wissen wurde im weiteren Verlauf ein quasi-binäres Phasendiagramm des Systems SrFe2As2-FeAs erstellt. Die intermetallische Verbindung FeAs fungiert hierbei als Flussmittel. Eine wichtige Frage in diesem Zusammenhand ist die Frage ob das System kongruent erstarrend ist. Diese Frage lässt sich anhand der vorhandenen DTA-kurven nicht eindeutig beantworten, zeigte das System bei Aufheizen keine zusätzlichen Schmelzprozesse, es scheint allerdings, dass es in der Schmelze zu einem Abdampfen von Arsen kommt. Somit verschiebt sich die Zusammensetzung der Schmelze und beim Abkühlen treten zusätzliche Erstarrungsprozesse auf. Die Schmelztemperatur TM wurde so auf T = 1320 °C bestimmt. Mit steigendem Flussmittelanteil verschob sich diese Temperatur zu niedrigeren Temperaturen unter 1200 °C, was eine Züchtung in Quarzampullen wieder möglich macht.
Die Ergebnisse in dieser Arbeit liefern eine fundierte Grundlage für weitere Optimierungen. So ist zum Beispiel der Frage nach dem am besten geeigneten Sauerstoffspender nicht auf die Selten-Erd-Oxide eingegangen worden. Auch ob die Verwendung eines anderen Salzes, wie zum Beispiel den Iodiden für die Züchtung bessere Resultate liefert kann weiterhin untersucht werden.
Nachdem der Schmelzpunkt von SrFe2As2 bestimmt wurde und im quasi-binärem Phasendiagramm ein Eutektikum vorhanden ist, kann mit den weiteren Optimierungsschritten für die Kristallzüchtung dieses Systems begonnen werden. Dazu gehört die Entwicklung eines Temperatur-Zeit-Profils, sowie im nächsten Schritt Züchtungen von dotierten Verbindungen.
Diese Arbeit behandelt die Züchtung von La 1 x Sr x MnO 3 -Einkristallen. Auf- grund des hohen Schmelzpunktes und der Agressivität der Schmelze muss bei der Züchtung aus der Schmelze mit tiegelfreien Verfahren gearbeitet werden. Diese Bedingung wird von beiden in dieser Arbeit eingesetzten Züchtungsver- fahren erfüllt. Mit dem Skullverfahren, das Hochfrequenzheizung mit einem geschlossenen Eigentiegel aus dem zu schmelzenden Material kombiniert, werden mit einer Arbeitsfreuqenz von 100 kHz LaMnO 3 -Einkristalle mit einer Grösse von bis zu 5x5x5 mm 3 gezüchtet. Bei der Züchtung von La 1 x Sr x MnO 3 mit dem Skull- verfahren kommt es jedoch zu einem ungleichmässigen Einbau von Stronti- um. Dies ist auf einen Verteilungskoeffizienten von k eff < 1 für Strontium in La 1 x Sr x MnO 3 zurückzuführen. Für die Kristallzüchtung von La 1 x Sr x MnO 3 mit x > 0 wird ein lasergeheiztes tiegelfreies vertikales Zonenschmelzen eingesetzt. Dazu ist es nötig die Spiegel- optik einer für Materialien mit niedrigeren Schmelztemperaturen bereits ein- gesetzten Anlage für Materialien mit einem Schmelzpunkt von etwa 2200K zu optimieren. Dies wird durch eine Spiegelanordnung erreicht, die das Laserlicht senkrecht und homogen auf die Probe fokussiert. Der fokussierende Spiegel ist auswechselbar, so dass leicht Kristalle aus Materialien mit einem noch höheren Schmelzpunkt gezüchtet werden können. Dies macht die Anlage flexibel ein- setzbar. Mit einem Sinterverfahren gelingt es, die für das Laserzonenschmelzen benötigten geraden und homogenen keramischen Fütterstäbe herzustellen. Die aus diesen Stäben mit dem Laser gezüchteten La 1 x Sr x MnO 3 -Kristalle sind zy- linderförmig mit einem Durchmesser von etwa 2,5 mm und eine Länge von bis zu 35 mm und haben einen konstanten Strontiumgehalt. Mit dem Laserzonenschmelzen wird der Ein uss des Sauerstoffgehaltes der Züchtungsatmosphäre auf die Kristallzüchtung von LaMnO 3 untersucht. Es zeigt sich, dass Kristalle, die in Argonatmosphären mit einem Sauerstoffpar- tialdruck von 10 5 mbar und 10 2 mbar gezüchtet werden, Einschlüsse eines LaMnO 3 -MnO-Eutektikums enthalten. Solche Einschlüsse werden in Kristallen, die in Luft gezüchtet werden, nicht gefunden. Der für die Bestimmung des Mn 4 /Mn 3 -Verhältnisses wichtige Sauerstoffgehalt der Kristalle wird mittels Thermogravimetrie in einer reduzierenden Atmosphäre bestimmt. Der Sauer- stoffgehalt y der in Luft gezüchteten LaMnO y -Kristalle beträgt y=3,00 - 0,03. Die aus der Schmelze hergestellten Kristalle sind verzwillingt. Die einzelnen Domänen lassen sich mit Polarisations- und Ultraschallmikroskopie nachwei- sen. Zusammen mit Röntgendiffraktometrie und Laueverfahren wird die (112)- Ebene in orthorhombischen LaMnO 3 -Kristallen als Zwillingsebene identifiziert. In rhomboedrischen La 1 x Sr x MnO 3 -Kristallen findet man mit den gleichen Verfahren, dass die Zwillingsebenen parallel zu den pseudokubischen (100)- Ebenen liegen. Die für die Entstehung der Zwillinge verantwortlichen Phasenübergänge wer- den mit Röntgendiffraktometrie und Polarisationsmikroskopie bei hohen Tem- peraturen untersucht. Der strukturelle Übergang von orthorhombisch nach rhomboedrisch lässt sich mit Röntgendiffraktometrie nachweisen. Der Über- gang zu einer kubischen Phase in LaMnO 3 wird bis zu einer Temperatur von 1520 o C nicht gefunden.
l-(1520)-Produktion in Proton-Proton- und zentralen Blei-Blei-Reaktionen bei 158-GeV-pro-Nukleon
(2000)
In ultrarelativistischen Schwerionenkollisionen ist es möglich, Dichten und Temperaturen von hochangeregter Kernmaterie zu erreichen, die einen Übergang einer hadronischen Phase in eine partonische Phase zur Folge haben. Der Einschluss von Quarks und Gluonen in den Hadronen hebt sich auf, so dass sie sich quasi frei bewegen (Quark-Gluon-Plasma). Gitter-QCD-Rechnungen zu Folge kann dieser Zustand bei einer zentralen 208 Pb 208 Pb-Kollision am CERN-SPS mit den dort zur Verfügung stehenden Einschussenergien erreicht werden. Ziel dieser Arbeit ist die Untersuchung der Delta(1520)Produktion in p p und zentralen Pb Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des NA49-Experimentes durchgeführt und basiert auf den Analysemethoden zur Rekonstruktion der invarianten Masse anhand von jeweis 400000 p p und Pb Pb-Ereignissen. Die gesamte Phasenraum-Akzeptanz der NA49-Spurendriftkammern liegt bei etwa 1200 nachgewiesenen geladenen Reaktionsprodukten, für das Delta(1520), das zu 22.5 % in ein Proton und ein negativ geladenes Kaon zerfällt, bei etwa 80 %. Da der Endzustand zu 90 % aus Pionen besteht, wird eine Teil chenidentifikation zur Reduzierung des kombinatorischen Untergrundes notwendig. Der mit einer Auflösung von besser als 5 % gemessene spezifische Energieverlust erlaubt eine Reduktion der Kombinationen um einen Faktor 11 bei einem Signal verlust von einem Faktor 2. Zur Extraktion des Signals vom kombinatorischen Untergrund wird dieser durch ein Mischverfahren erzeugt, bei dem die Kandidaten aus unterschiedlichen Ereignissen miteinander kombiniert werden und vom Origi nalspektrum subtrahiert werden. Die Analyse der Pb PbDaten stellt eine große Herausforderung an das Verfahren, da das SignalzuUntergrundverhältnis von et wa 1/600 im Vergleichz u der p pDatenanalyse sehr klein ist, bei der es bei 1/6 liegt, und somit das subtrahierte Spektrum von der genauen Beschreibung des kombinatorischen Untergrundes abhängt. Dabei hat sich gezeigt, dass ein für die p pAnalyse entwickeltes spurmultiplizitätsabhängiges Mischen die Form des Untergrundes im Maximum der Verteilung besser beschreiben kann als ein Mischen der nur benachbarten Ereignisse. Dies lässt sich jedoch nicht auf die Pb PbAnalyse übertragen. Nach vielen Untersuchungen bleibt in dem Signalspektrum eine syste matische Struktur zurück, die allein von der Anzahl der Kombinationen abhängt und durch die Mischmethode und die Form des Originalspektrums gegeben ist. Eine große Herausforderung der Pb PbAnalyse ist das Nichtvorhandensein ei nes signifikanten Signals im invarianten Massenspektrum, so dass der Einfluss der nötigen Qualitäts und Auswahlkriterien nicht direkt an dem Verhalten des Signals untersucht werden kann. Die Teilchenidentifikationskriterien wurden zur sinnvollen Optimierung des SignalzuUntergrundverhältnisses aus den dE/dxSpektren her geleitet und zur Kontrolle an dem #Signal überprüft. Die Optimierung von Signal S zu Untergrund BG erfolgt über die Signifikanz, die sich nach S/Wurzel aus B*G berechnet. Die Einträge des Signals werden mit den Korrekturfaktoren aus einer Simulati on auf die gesamte PhasenraumAkzeptanz zu einer totalen Multiplizität hochgerechnet. Dabei ergibt sich aus der p pDatenanalyse eine totale Multiplizät des Delta(1520) von 0.0121 ± 0.0020 ± 0.0010, die in guter Übereinstimmung mit den bisher veröffentlichten Literaturdaten liegt. Die Pb PbDatenanalyse liefert für die Multiplizät eine Abschätzung der oberen Grenze von 1.4 bei einem Confidence Level von 95 % (2#). Aus den Modellvorhersagen von Becattini ergibt sich eine Multiplizät von 3.5 für den chemischen Freezeout. Nach den Rechnungen von UrQMD erfahren die Zer fallsprodukte des Delta(1520) bis zum thermischen Freezeout noch Wechselwirkungen unter Energie und Impulsaustausch. Dies führt dazu, dass sich diese Teilchen nicht mehr zur invarianten Massen des Delta(1520) rekonstruieren lassen, was einen Verlust von 50 % darstellt. Damit hätten wir laut Becattini 1.7 nachweisbare Delta(1520). Eine weitere Möglichkeit liegt in der Theorie des dichten Mediums, in der die d Welle der Delta(1520)Resonanz an das Medium koppelt und somit ihren Charakter verändert, was eine Verbreiterung oder eine Verschiebung des Signals zur Folge haben kann. Eine solche Signaländerung kann durch den direkten Vergleich der Si gnale der p pAnalyse mit der Pb PbAnalyse im Bereich des statistischen Fehlers nicht bestätigt werden. Von der Experimentseite ist in ein paar Wochen noch mit der Verdopplung der Pb PbDatenz u rechnen, so dass diese Fragestellung mit besserer Statistik untersucht werden kann. Unter anderem kann auch die Phasenraumverteilung der Delta(1520)Resonanz bestimmt werden, für die es bis jetzt noch keine Messung gibt. Zum zeitlichen Ende dieser Arbeit wurde mit vielen Spurfindungs und dE/dx Verbesserungen von 4.5 % auf etwa 3.5 % der dE/dxAuflösung der Datensatz neu erstellt, der dann mit der hier angepassten Analyse untersucht wurde. Die Ana lyse brachte ein Delta(1520)Signal mit einer Signifikanz von 6 hervor, aus dem sich eine Multiplizität von 1.45 ± 0.29 ± 0.14 berechnen ließ. Im wesentlichen zeigt dies, dass die hier besprochene Vorgehensweise der Optimierung eines nicht signi fikanten Signals erfolgreich ist, da sie direkt auf den neuen Datensatz übertragen werden konnte, um die beste Signifikanz des Signals zu erhalten. Die obere Grenzabschätzung ohne Signal und die neu berechnete Multiplizität aus dem Signal sind im Bereich ihrer Fehler konsistent, so dass die am Ende folgende Diskussion sich nicht unterscheidet, und dieses Signal einen schönen Abschluss gibt und die vorher berechnete obere Grenze bestätigt. Die Analyse von Delta(1520) war der Auslöser der Idee, open charmTeilchen in NA49 zu messen. Der ebenfalls kleine Wirkungsquerschnitt der DMesonen liegt in der Größenordnung der Delta(1520)Resonanz. Anhand einer Simulation wurde unter Ver wendung der gleichen Analysemethode, die zur Bestimmung der Multiplizität der Delta(1520) verwendet wurde, die Signifikanz für ein Signal oder eine obere Grenze abgeschätzt [Gaz00]. Dies führte weiterhinz u dem Vorschlag mit dem NA49 Experiment eine größere Statistik an Pb PbEreignissen aufzuzeichnen, um das Programm der Delta(1520) und der open charmMessung fortzusetzen [Bot00], worauf in der Strahlzeit Herbst 2000 3.5 Millionen Ereignisse aufgezeichnet wurden.
Die vorliegende Arbeit befasst sich mit der Untersuchung der Transporteigenschaften inklusive Ladungsträgerdynamik von quasi-zweidimensionalen organischen Ladungstransfersalzen. Diese Materialien besitzen eine Schichtstruktur und weisen eine hohe Anisotropie der elektrischen Leitfähigkeit auf. Aufgrund der geringen Bandbreite und der niedrigen Ladungsträgerkonzentration gehören die Materialien zu den stark-korrelierten Elektronensystemen, wobei sich die elektronischen Eigenschaften leicht durch chemische Modifikationen oder äußere Parameter beeinflussen lassen. Die starken Korrelationen resultieren in Metall-Isolator-Übergängen, die sich beim Mott-isolierenden Zustand in einer homogenen Verteilung und beim ladungsgeordneten Zustand in einer periodischen Anordnung der lokalisierten Ladungsträger manifestieren.
Mithilfe der Fluktuationsspektroskopie, die sich mit der Analyse der zeitabhängigen Widerstandsfluktuationen befasst, konnten im Rahmen dieser Arbeit neue Erkenntnisse über die Ladungsträgerdynamik in den verschiedenen elektronischen Zuständen gewonnen werden. Die Metall-Isolator-Übergänge in den untersuchten Systemen, die auf den Molekülen BEDT-TTF (kurz: ET) bzw. BEDT-TSF (kurz: BETS) basieren, sind von der Stärke der strukturellen Dimerisierung abhängig und wurden durch die Kühlrate, eine Zugbelastung sowie durch die Ausnutzung des Feldeffekts beeinflusst.
In den Systemen κ-(BETS)₂Mn[N(CN)₂]₃, κ-(ET)₂Hg(SCN)₂Cl und κ-(ET)₂Cu[N(CN)₂]Br sind die Donormoleküle als Dimere angeordnet, sodass aufgrund der effektiv halben Bandfüllung bei genügender Korrelationsstärke häufig ein Mott-Übergang auftritt. In κ-(ET)₂Hg(SCN)₂Cl führt eine schwächere Dimerisierung jedoch zu einem Ladungsordnungsübergang, der mit elektronischer Ferroelektrizität einhergeht. Dabei wird die polare Ordnung durch eine Ladungsdisproportionierung innerhalb der Dimere verursacht. Die Widerstandsfluktuationen zeigen am ferroelektrischen Übergang einen starken Anstieg der spektralen Leistungsdichte, eine Abhängigkeit vom angelegten elektrischen Feld sowie Zeitabhängigkeiten, die auf räumliche Korrelationen der fluktuierenden Prozesse hindeuten. Diese Eigenschaften wurden ebenfalls für das System κ-(BETS)₂Mn[N(CN)₂]₃ beobachtet. Hierbei wurden mithilfe der dielektrischen Spektroskopie ebenfalls Hinweise auf Ferroelektrizität gefunden, während durch die Analyse der stromabhängigen Widerstandsfluktuationen die Größe der polaren Regionen abgeschätzt werden konnte. Das System κ-(ET)₂Cu[N(CN)₂]Br, das in einer Feldeffekttransistor-Struktur vorliegt, erlaubt neben der Untersuchung des Bandbreiten-getriebenen Mott-Übergangs durch die Zugbelastung eines Substrats auch die Beeinflussung der elektronischen Eigenschaften durch die Änderung der Bandfüllung mittels elektrostatischer Dotierung. Hierbei wurden starke Abhängigkeiten des Widerstands von der Gatespannung beobachtet und Ähnlichkeiten der Ladungsträgerdynamik zu herkömmlichen Volumenproben gefunden.
Bei den Systemen θ-(ET)₂MM'(SCN)₄ mit MM'=CsCo, RbZn, TlZn tritt ein Ladungsordnungsübergang auf, der eine starke Abhängigkeit von der Kühlrate zeigt. Durch schnelles Abkühlen lässt sich der Phasenübergang erster Ordnung kinetisch vermeiden, wodurch ein Ladungsglaszustand realisiert wird. Dieser metastabile Zustand zeigt neuartige physikalische Eigenschaften mit Ähnlichkeiten zu herkömmlichen Gläsern und wurde als Folge der geometrischen Frustration der Ladung auf einem Dreiecksgitter diskutiert. Im Rahmen dieser Arbeit konnte die Ladungsträgerdynamik in den verschiedenen Ladungszuständen von unterschiedlich frustrierten Systemen verglichen werden. Zur Realisierung sehr schneller Abkühlraten wurde dafür eine Heizpulsmethode verwendet und weiterentwickelt. Der Ladungsglaszustand zeigte dabei für verschiedene Systeme ein deutlich niedrigeres Rauschniveau als der ladungsgeordnete Zustand. In Kombination mit Messungen der thermischen Ausdehnung und kühlratenabhängiger Transportmessungen wurde in den Systemen mit der stärksten Frustration die Existenz eines strukturellen Glasübergangs nachgewiesen, der von einer starken Verlangsamung der Ladungsträgerdynamik begleitet wird. Diese Erkenntnisse werfen ein neues Licht auf die bisherige rein elektronische Interpretation des Ladungsglaszustands und heben den Einfluss der strukturellen Freiheitsgrade hervor.
Im Rahmen dieser Promotionsarbeit wurden fünf verschiedene Experimente mit der Schwerionen-Mikrosonde der GSI durchgeführt. Vier dieser Experimente waren erfolgreich, bei einem Experiment wurden nicht die erhofften Ergebnisse erzielt. Alle Experimente haben Ziele und Fragestellungen verfolgt, die vornehmlich mit einer Ionen-Mikrosonde bearbeitet werden können. Es wurde gezeigt, dass durch die Anwendung fein fokussierter Ionenstrahlen physikalische und technische Probleme im Mikrometerbereich sehr effizient und erfolgreich aufgeklärt werden können. Die hohe örtliche Auflösung der Mikrosonde in Verbindung mit den bekannten auf Ionenstrahlen basierenden Analysemethoden ermöglicht den Zugriff auf Informationen, die auf anderem Wege gar nicht oder nur schwer zugänglich sind. Das erste der fünf Experimente an der Mikrosonde untersuchte die Eigenschaften von polykristallinem CVD Diamant, bei der Verwendung dieses Materials als Detektor für Schwerionen. Der große Nachteil dieses Detektormaterials ist die geringe Fähigkeit, im Detektor erzeugte Ladungsträger verlustfrei zu den Elektroden zu transportieren, um sie dort zu sammeln. Häufig werden bei diesem Transportprozess vom Entstehungsor t der Ladungsträger zu den Elektroden über 90 % der ursprünglich vorhandenen Ladungsträger von Ladungsträgerfallen im Diamantmaterial eingefangen. Es bestand der starke Verdacht, dass diese Fallen vorwiegend in den Korngrenzen zwischen den Diamanteinkrista llen lokalisiert sind. Aus diesem Verdacht begründete sich die Hoffnung, dass die Einkristalle im CVD Diamant ein wesentlich besseres Ladungssammlungsverhalten zeigen würden. Da die Ionenmikrosonde einen Ionenmikrostrahl mit einem lateralen Fokusdurchmesser von ca. 0,5 µm über eine Targetfläche von 1 x 1 mm² rastern kann und dabei Punkt für Punkt die Reaktion des Targetmaterials nachweisen kann, ist sie das geeignete Werkzeug zur Untersuchung von Ladungssammlungsprozessen im Bereich der Einkristalle und der Korngrenzen. Bei der Auswertung der Ergebnisse des Experiments ist aufgefallen, dass man für das CVD Diamantmaterial innerhalb der Ionenbestrahlung zwei verschiedene Zustände unterscheiden muss. Ein unbestrahlter CVD Diamant verhält sich in Bezug auf die Ladungssammlungs- eigenschaften wesentlich anders als ein bestrahlter CVD Diamant, der schon eine gewisse Ionendosis akkumuliert hat. Beim unbestrahlten Diamant ist zu beobachten, dass sowohl in den Einkristallen als auch in den Korngrenzen sehr effektive Ladungsträge rfallen existieren. Die generelle Aussage, dass Diamanteinkristalle eine bessere Ladungssammlung zeigen, kann hier nicht bestätigt werden. Es konnte aber gezeigt werden, dass es, im etwa 300 x 350 µm großen Scannfeld, Bereiche mit sehr guten Ladungssammlungseigenschaften (Effizienz über 90 % im Maximum der Verteilung) gibt und in unmittelbarer Nähe Bereiche mit geringster Ladungssammlungs- effizienz (etwa 8 % im Maximum der Verteilung) existieren. Es konnte nicht geklärt werden, ob diese Bereiche aus Einkristallen bestehen oder sich über Korngrenzen ausdehnen. Die beobachtete 90%ige Ladungssammlungseffizienz ist jedoch ein eindeutiger Nachweis der Möglichkeit, die Detektoreigenschaften dieses Materials wesentlich verbessern zu können, wenn es gelingt, die Besonderheiten dieses hocheffizienten Bereichs aufzuklären. CVD Diamantdetektoren, die schon eine gewisse Ionendosis akkumuliert haben, werden auch als gepumpte Detektoren bezeichnet. Das Pumpen des Detektors kann dabei auch durch andere Formen der Energiezufuhr, beispielsweise mit Hilfe eines Lasers erfolgen, wichtig ist nur, dass eine große Zahl der Ladungsträgerfallen mit Ladungsträgern gefüllt sind. Da diese Fallen im CDV Diamant relativ tief sind, werden gefüllte Fallen nicht schnell entleert und sie stören, so lange sie gefüllt sind, die Ladungssammlung nicht mehr. Die Ladungs- sammlungseffizienz gepumpter Diamantdetektoren verbessert sich sehr stark im Vergleich zum ungepumpten Material. Das Maximum der Verteilung des Ladungssammlungsspektrums verschob sich von etwa 15 % Effizienz beim ungepumpten Detektor zu mehr als 50 % Effizienz beim gepumpten Detektor gemittelt über das gesamte Scannfeld. Bei der Betrachtung des Einflusses der Korngrenzen im gepumpten Material konnte festgestellt werden, dass die Einkristalle nun tatsächlich wesentlich weniger zum Verlust der Ladungsträger beitragen als die Korngrenzen. Die Korngrenzen zeichneten sich beim gepumpten CVD Diamant deutlich als dominante Bereiche des Ladungsträgerverlustes ab. Somit haben wir die bestehende Vermutung über den dominierenden Ladungsträgereinfang in den Korngrenzen für den gepumpten CVD Diamanten bestätigen können, beim ungepumpten Material hingegen verwerfen müssen. Eine weitere Aufklärung der Unterschiede zwischen den beiden Zuständen wür de hier zu einem besseren Verständnis der Vorgänge führen. Zudem wurde am CVD Diamant eine Hochdosisbestrahlung vorgenommen, bei der bestimmt werden sollte ab, welcher Ionendosis das Material soweit geschädigt ist, dass eine Trennung der Detektorsignale von den Rauschsignalen nicht mehr möglich ist. Für einen 8,3 MeV/u 12C-Strahl war diese Trennung ab einer Dosis von 8,0 x 1013 Ionen/cm² nicht mehr möglich, was bedeutet, dass der Detektor hier seine Verwendbarkeit verliert. Eine weitere Gruppe von drei Experimenten befasste sich mit der Wirkung von schnellen, schweren Ionen auf Halbleiterbauelemente. Diese anwendungsorientierten Experimente sollten Ursachen für das Fehlverhalten mikroelektronischer Bauelemente bei Ionentreffern an bestimmten Orten und zu bestimmten Zeitpunkten untersuchen, beziehungsweise Grundlagen für die theoretische Betrachtung der Vorgänge liefern. Beim ersten der drei Experimente wurde das Auftreten von Single Event Upsets in Verbindung mit Single Event Latchups in SRAM Bausteinen untersucht. Die Latchups werden bei den üblichen Testverfahren durch einen Spannungsabfall an einem externen Widerstand in der Versorgungsleitung erkannt. Mit Hilfe der Mikrosonde wurde nachgewiesen, dass diese Methode der Latchupdetektion unzureichend sein kann. Da die internen Versorgungsleitungen in der Halbleiterstruktur selber Widerstände bilden, kann der Latchup am äußeren Widerstand unter bestimmten Bedingungen nicht erkannt werden. Hier spielt die Länge der integrierten Versorgungsleitung eine wesentliche Rolle. Die bild- gebenden Verfahren der Mikrosonde bei der simultanen Messung von Latchups und Upsets können hier Latchups entdecken, die im üblichen Testverfahren nicht erkennbar waren. Das zweite dieser drei Experimente hatte das Ziel, die Upsetempfindlichkeit einer getakteten CMOS- Struktur im Bereich der Schaltflanken zu bestimmen. Hierzu wurden die Schaltzeit- punkte des ICs mit dem vom UNILAC gelieferten Ionenstrahl synchronisiert. Einzelne Ionen trafen den Schaltkreis nur innerhalb eines Zeitfensters von 2 nsec um die Schaltflanke. Da der getaktete integrierte Schaltkreis im Bereich der Schaltflanken besonders empfindlich auf die vom Ion erzeugten zusätzlichen Ladungsträger reagiert, sollten die Upsetwahrscheinlichkeiten innerhalb des Schaltprozesses mit möglichst hoher zeitlicher Auflösung vermessen werden. Die Bestimmung der Trefferzeitpunkte mit einer zeitlichen Genauigkeit von 1 ns oder besser brachte jedoch eine Vielzahl von Problemen mit sich, die letztlich dazu führten, dass dieses Experiment nicht erfolgreich abgeschlossen werden konnte. Auf Grund seiner hohen technischen Bedeutung wurde es in dieser Arbeit aber beschrieben und sollte nach der Verbesserung der Treffererkennung erneut durchgeführt werden. Es wäre das erste Experiment, in dem die Empfindlichkeit einer CMOS- Struktur gegen Ionenstrahlen mit hoher örtlicher und zeitlicher Auflösung gemessen wird. Das dritte Experiment dieser Serie befasste sich mit der für theoretische Vorhersagen wichtigen Größe des elektronischen Durchmessers der Ionenspur. Aus der vom Schwerion erzeugten Spur breitet sich eine elektronische Stoßkaskade aus. Diese freien Ladungsträger können ungewollte Schaltvorgänge in integrierten Schalkreisen auslösen. Da die Integrationsdichte in modernen Baugruppen immer höher wird, kann die vom Ion erzeugte Spur aus freien Ladungsträgern mehrere Transistoren beeinflussen. Die Ausdehnung dieser Spur kann nicht mehr als vernachlässigbare Größe eingestuft werden. Um den Durchmesser der Spur zu bestimmen, wurde ein fein fokussierter 5,9 MeV/u Nickel-Strahl über eine Probe aus Mikrostreifen gerastert, und die in den Streifen gesammelten Ladungssignale wurden gemessen. Trotz einiger Probleme mit der kapazitiven Kopplung von Signalen zwischen den Streifen und dem Substrat und de n Streifen untereinander konnte der Durchmesser der elektronischen Spur bei diesem Test zu etwa 1,2 µm bestimmt werden. Es sollte der Versuch unternommen werden, diesen ersten experimentellen Wert durch weitere verfeinerte Messungen zu bestätigen und vor allem sollte versucht werden, das Dichteprofil der Elektronen in der Ionenspur mit dieser Technik zu bestimmen. Diese Informationen wären von großem Wert für theoretische Modelle zur Empfindlichkeit von integrierten Elektroniken gegen die Effekte einzelner Ionen. Im fünften und letzten Experiment dieser Arbeit wurde die Ionen-Mikrosonde als Werkzeug zur Strukturierung eines Hochtemperatur Dünnfilm Supraleiters eingesetzt. In der sogenannten Shubnikov-Phase können magnetische Flussquanten in den Supraleiter eindringen, obwohl der Zustand der Supraleitung noch vorhanden ist. Diese Flussquanten können durch säulenartige korrelierte Defekte im Supraleiter gebunden werden. Die Spuren schwerer Ionen bilden solche kolumnaren Defekte, die mit Hilfe der Mikrosonde aufgeprägt werden können. Da bei dieser Strukturierung eine hohe Defektdichte erforderlich war, konnte aus Zeitgründen eine Strukturierung mit dem schreibenden Ionenstrahl nicht realisiert werden. Stattdessen wurde eine Schlitzmaske verwendet, die mit Hilfe der Mikrosonde verkleinert auf der Oberfläche des Supraleiters abgebildet wurde. Auf diese Weise wur de dem Supraleiter eine Defektstruktur aus Stegen, die in einem bestimmten Winkel orientiert waren, aufgeprägt. An dem so erzeugten Supraleiter wurden dann an der Universität Mainz die elektrischen Transporteigenschaften des Materials unter dem Einfluss eines gepinnten magnetischen Feldes gemessen. Da die erwarteten Effekte aus dem Pinning der magnetischen Flussquanten erst dann eine messbare Größe annehmen, wenn dem Supraleiter Defektstrukturen in der Größenordnung von einigen µm aufgeprägt werden, ist auch hier die Ionen-Mirkrosonde das einzige verfügbare Instrument für diese Aufgabe. Mit dieser Arbeit wurde deutlich gemacht, dass eine Ionen-Mikrosonde ein vielseitig einsetzbares Instrument ist, das vor allem aufgrund der hohen Bedeutung von miniaturisierten Systemen in der modernen Forschung und Technik ein hohes Verwendungspotential besitzt. Alle hier vorgestellten Experimente wären ohne den Einsatz der Mikrosonde nicht durchführbar gewesen. Neben diesen Experimenten werden an der GSI noch eine Reihe weiterer Experimenten zum Beispiel im Bereich der Biophysik bearbeitet, die ihrerseits von der einzigartigen Möglichkeit der µm-genauen Platzierung schwerer Ionen profitieren.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
Quantum chromodynamics (QCD) is the theory of the strong interaction between quarks and gluons. Due to Confinement, at lower energies quarks and gluons are bound into colorless states called hadrons. QCD is also asymptotically free, i.e. at large energies or densities it enters a deconfined state, termed quark-gluon plasma (QGP), where quarks and gluons are quasi-free. This transition occurs at an energy scale around 200 MeV where QCD cannot be treated perturbatively. Instead it can be formulated on a space-time grid. The resulting theory, lattice quantum chromodynamics (LQCD), can be simulated efficiently on high performance parallel-computing clusters. In recent years graphic processing units (GPUs), which outperform CPUs in terms of parallel-computing and memory bandwidth capabilities, became very popular for LQCD computations. In this work the QCD deconfinement transition is studied using CL2QCD, a LQCD application that runs efficiently on GPUs. Furthermore, CL2QCD is extended by a Rational Hybrid Monte Carlo algorithm for Wilson fermions to allow for simulations of an odd number of quark flavors.
Due to the sign-problem LQCD simulations are restricted to zero or very small baryon densities, where, in the limit of infinite quark mass QCD has a first order deconfinement phase transition associated to the breaking of the global centre symmetry. Including dynamical quarks breaks this symmetry explicitly. Lowering their mass weakens the first order transition until it terminates in a second order Z2 point. Beyond this point the transition is merely an analytic crossover. As the lattice spacing is decreased, the reduction of discretization errors causes the region of first order transitions to expand towards lower masses. In this work the deconfinement critical point with 2 and 3 flavors of standard Wilson fermions is studied. To this end several kappa values are simulated on temporal lattice extents 6,8,10 (4) for two flavors (three flavors) and various aspect ratios (spatial lattice extent / temporal lattice extent) so as to extrapolate to the thermodynamic limit, applying finite size scaling. For two flavors an estimate is done if and when a continuum extrapolation is possible.
The chiral and deconfinement phase transitions at zero density for light and heavy quarks, respectively, have analytic continuations to purely imaginary chemical potential, where no sign-problem exists and LQCD simulations can be applied. At some critical value of the imaginary chemical potential, the transitions meet the endpoint of the Roberge-Weiss transition between adjacent Z3 sectors. For light and heavy quarks the transition lines meet in a triple point, while for intermediate masses they meet in a second order point. At the boundary between these regimes the junction is a tricritical point, as shown in studies with two and three flavors of staggered and Wilson quarks on lattices with a temporal lattice extent of 4. Employing finite size scaling the nature of this point as a function of the quark mass is studied in this work for two flavors of Wilson fermions with a temporal lattice extent of 6. Of particular interest is the change of the location of tricritical points compared to an earlier study on lattices with temporal extent of 4.