Universitätspublikationen
Refine
Year of publication
- 2014 (131) (remove)
Document Type
- Article (56)
- Doctoral Thesis (28)
- Master's Thesis (20)
- Bachelor Thesis (10)
- Conference Proceeding (7)
- Preprint (5)
- Part of Periodical (2)
- Book (1)
- Contribution to a Periodical (1)
- Habilitation (1)
Has Fulltext
- yes (131)
Is part of the Bibliography
- no (131)
Keywords
- Beschleuniger (2)
- Beschleunigerphysik (2)
- Dyson–Schwinger equations (2)
- Ionenstrahl (2)
- Nonperturbative methods (2)
- Nucleus–nucleus collisions (2)
- Nukleosynthese (2)
- Particle Accelerator (2)
- Radio Frequenz Quadrupol (2)
- Strahldynamik (2)
Institute
- Physik (131) (remove)
Transverse momentum spectra of π±, K± and p(p¯) up to pT = 20 GeV/c at mid-rapidity in pp, peripheral (60–80%) and central (0–5%) Pb–Pb collisions at √sNN = 2.76 TeV have been measured using the ALICE detector at the Large Hadron Collider. The proton-to-pion and the kaon-to-pion ratios both show a distinct peak at pT ≈ 3 GeV/c in central Pb–Pb collisions. Below the peak, pT < 3 GeV/c, both ratios are in good agreement with hydrodynamical calculations, suggesting that the peak itself is dominantly the result of radial flow rather than anomalous hadronization processes. For pT > 10 GeV/c particle ratios in pp and Pb–Pb collisions are in agreement and the nuclear modification factors for π±, K± and p(p¯) indicate that, within the systematic and statistical uncertainties, the suppression is the same. This suggests that the chemical composition of leading particles from jets in the medium is similar to that of vacuum jets.
Freeze-out radii extracted from three-pion cumulants in pp, p–Pb and Pb–Pb collisions at the LHC
(2014)
In high-energy collisions, the spatio-temporal size of the particle production region can be measured using the Bose–Einstein correlations of identical bosons at low relative momentum. The source radii are typically extracted using two-pion correlations, and characterize the system at the last stage of interaction, called kinetic freeze-out. In low-multiplicity collisions, unlike in high-multiplicity collisions, two-pion correlations are substantially altered by background correlations, e.g. mini-jets. Such correlations can be suppressed using three-pion cumulant correlations. We present the first measurements of the size of the system at freeze-out extracted from three-pion cumulant correlations in pp, p–Pb and Pb–Pb collisions at the LHC with ALICE. At similar multiplicity, the invariant radii extracted in p–Pb collisions are found to be 5–15% larger than those in pp, while those in Pb–Pb are 35–55% larger than those in p–Pb. Our measurements disfavor models which incorporate substantially stronger collective expansion in p–Pb as compared to pp collisions at similar multiplicity.
We report on a polarization measurement of inclusive J/ψ mesons in the di-electron decay channel at mid-rapidity at 2 < pT < 6 GeV/c in p + p collisions at √s = 200 GeV. Data were taken with the STAR detector at RHIC. The J/ψ polarization measurement should help to distinguish between different models of the J/ψ production mechanism since they predict different pT dependences of the J/ψ polarization. In this analysis, J/ψ polarization is studied in the helicity frame. The polarization parameter λθ measured at RHIC becomes smaller towards high pT , indicating more longitudinal J/ψ polarization as pT increases. The result is compared with predictions of presently available models.
The ALICE Collaboration at the LHC reports measurement of the inclusive production cross section of electrons from semi-leptonic decays of beauty hadrons with rapidity |y| < 0.8 and transverse momentum 1 < pT < 10 GeV/c, in pp collisions at √s = 2.76 TeV. Electrons not originating from semi-electronic decay of beauty hadrons are suppressed using the impact parameter of the corresponding tracks. The production cross section of beauty decay electrons is compared to the result obtained with an alternative method which uses the distribution of the azimuthal angle between heavy-flavour decay electrons and charged hadrons. Perturbative QCD predictions agree with the measured cross section within the experimental and theoretical uncertainties. The integrated visible cross section, σb→e = 3.47 ± 0.40(stat) +1.12 −1.33(sys) ± 0.07(norm) μb, was extrapolated to full phase space using Fixed Order plus Next-to-Leading Log (FONLL) calculations to obtain the total bb production ¯ cross section, σbb¯ = 130 ± 15.1(stat) +42.1 −49.8(sys) +3.4 −3.1(extr) ± 2.5(norm) ± 4.4(BR) μb.
Weltweit arbeiten Astrophysiker noch immer mit einer Theorie, die bereits vor rund 100 Jahren aufgestellt wurde – die Einstein’sche Relativitätstheorie. Nahezu jeder hat den genialen Kopf dahinter vor Augen: Albert Einstein. Was aber ist der von Einstein prognostizierte gekrümmte Raum, was sind schwarze Löcher und Neutronensterne und wer sind die Menschen, die auf diesen Gebieten forschen? Luciano Rezzolla, seit Oktober 2013 Professor für Theoretische Astrophysik an der Goethe-Universität sowie Leiter einer Arbeitsgruppe am Max-Planck-Institut für Gravitationsphysik in Potsdam, ist einer dieser Forscher.
The ( J, T ) = (1, 1) parity doublet in 20Ne at 11.26 MeV is a good candidate to study parity violation in nuclei. However, its energy splitting is known with insufficient accuracy for quantitative estimates of parity violating effects. To improve on this unsatisfactory situation, nuclear resonance fluorescence experiments using linearly and circularly polarized γ -ray beams were used to determine the energy difference of the parity doublet E = E(1−) − E(1+) = −3.2(±0.7)stat( +0.6 −1.2)sys keV and the ratio of their integrated cross sections I (+) s,0 /I (−) s,0 = 29(±3)stat( +14 −7 )sys. Shell-model calculations predict a parityviolating matrix element having a value in the range 0.46–0.83 eV for the parity doublet. The small energy difference of the parity doublet makes 20Ne an excellent candidate to study parity violation in nuclear excitations.
In this paper we discuss to what extent one can infer details of the interior structure of a black hole based on its horizon. Recalling that black hole thermal properties are connected to the non-classical nature of gravity, we circumvent the restrictions of the no-hair theorem by postulating that the black hole interior is singularity free due to violations of the usual energy conditions. Further these conditions allow one to establish a one-to-one, holographic projection between Planckian areal “bits” on the horizon and “voxels”, representing the gravitational degrees of freedom in the black hole interior. We illustrate the repercussions of this idea by discussing an example of the black hole interior consisting of a de Sitter core postulated to arise from the local graviton quantum vacuum energy. It is shown that the black hole entropy can emerge as the statistical entropy of a gas of voxels.
Top-down influences on ambiguous perception: the role of stable and transient states of the observer
(2014)
The world as it appears to the viewer is the result of a complex process of inference performed by the brain. The validity of this apparently counter-intuitive assertion becomes evident whenever we face noisy, feeble or ambiguous visual stimulation: in these conditions, the state of the observer may play a decisive role in determining what is currently perceived. On this background, ambiguous perception and its amenability to top-down influences can be employed as an empirical paradigm to explore the principles of perception. Here we offer an overview of both classical and recent contributions on how stable and transient states of the observer can impact ambiguous perception. As to the influence of the stable states of the observer, we show that what is currently perceived can be influenced (1) by cognitive and affective aspects, such as meaning, prior knowledge, motivation, and emotional content and (2) by individual differences, such as gender, handedness, genetic inheritance, clinical conditions, and personality traits and by (3) learning and conditioning. As to the impact of transient states of the observer, we outline the effects of (4) attention and (5) voluntary control, which have attracted much empirical work along the history of ambiguous perception. In the huge literature on the topic we trace a difference between the observer's ability to control dominance (i.e., the maintenance of a specific percept in visual awareness) and reversal rate (i.e., the switching between two alternative percepts). Other transient states of the observer that have more recently drawn researchers' attention regard (6) the effects of imagery and visual working memory. (7) Furthermore, we describe the transient effects of prior history of perceptual dominance. (8) Finally, we address the currently available computational models of ambiguous perception and how they can take into account the crucial share played by the state of the observer in perceiving ambiguous displays.
In self-organized critical (SOC) systems avalanche size distributions follow power-laws. Power-laws have also been observed for neural activity, and so it has been proposed that SOC underlies brain organization as well. Surprisingly, for spiking activity in vivo, evidence for SOC is still lacking. Therefore, we analyzed highly parallel spike recordings from awake rats and monkeys, anesthetized cats, and also local field potentials from humans. We compared these to spiking activity from two established critical models: the Bak-Tang-Wiesenfeld model, and a stochastic branching model. We found fundamental differences between the neural and the model activity. These differences could be overcome for both models through a combination of three modifications: (1) subsampling, (2) increasing the input to the model (this way eliminating the separation of time scales, which is fundamental to SOC and its avalanche definition), and (3) making the model slightly sub-critical. The match between the neural activity and the modified models held not only for the classical avalanche size distributions and estimated branching parameters, but also for two novel measures (mean avalanche size, and frequency of single spikes), and for the dependence of all these measures on the temporal bin size. Our results suggest that neural activity in vivo shows a mélange of avalanches, and not temporally separated ones, and that their global activity propagation can be approximated by the principle that one spike on average triggers a little less than one spike in the next step. This implies that neural activity does not reflect a SOC state but a slightly sub-critical regime without a separation of time scales. Potential advantages of this regime may be faster information processing, and a safety margin from super-criticality, which has been linked to epilepsy.
High resolution gamma spectroscopy with sophisticated detector arrays significantly contributes to nuclear structure physics. The Advanced Gamma Tracking Array (AGATA) combines gamma tracking and pulse shape analysis to achieve an efficiency and quality of the spectra that could not be reached with spectrometers of the previous generation. Tracking of the photons interacting in the detector requires a precise knowledge of the individual interaction positions. The task of the pulse shape analysis is to provide a position resolution of better than $5mm$ FWHM, a value that could not be achieved by segmentation of the detector alone. As the signals induced on the electrodes of the detectors depends on the position of interaction, the charge pulses can be used to infer the interaction position. To be able to handle high rates, algorithms that are used have to be optimized to be able to process the data in real-time. Pulse shape analysis is the most involved part of the real-time processing and requires further improvement. This work is dealing with optimizations and improvements of pulse shape analysis algorithms. The Grid Search algorithm localizes the interaction position by comparing the measured pulse shape with precomputed shapes in a database to find the best fit. Two linear filters based on orthogonal transformations have been compared and it could be concluded that the one based on a singular value decomposition of the pulse shapes works best. It speeds up the pulse shape analysis by a factor of roughly $2-3$ (depending on how it is combined with the other modifications). Further, a new method to exclude most signals from the database as best fit has been developed based on the principle of lateration. Most interaction positions can be excluded by means of a fast check and for single interactions on average only $34.8\%$ of all signals from the database have to be compared to the measured one. The overhead introduced by the method is negligible and the reduced number of comparisons almost direclty translates into increased efficiency of the algorithm. A similar method could also be applied for double interactions. Two or more interactions taking place in the same segment require special treatment as the measured signals cannot be directly compared to signals from the database. A new method to calculate the figure of merit that quantifies the fit in case of a double interaction has been introduced. Compared to the unmodified algorithm the new method finds the best fit for double interactions roughly two orders of magnitude faster. Actually, the time required to localize double interactions is almost the same as for single interactions. Apart from optimizing the algorithm, also the achievable position resolution was investigated. It strongly varies inside the volume of the detector and it crucially depends on the shape of all signals in the database and the amplitude of the noise present in the measured signals. As a first step towards a precise analytic expression for the position resolution, an estimate for the probability to find the correct position has been derived.
Physics at its core is an experimental pursuit. If one theory does not agree with experimental results, then the theory is wrong. However, it is becoming harder and harder to directly test some theories of fundamental physics at the high energy/small distance frontier exactly because this frontier is becoming technologically harder to reach. The Large Hadron Collider is getting near the limit of what we can do with present accelerator technology in terms of directly reaching the energy frontier. The motivation for this special issue was to try and collect together ideas and potential approaches to experimentally probe some of our ideas about physics at the high energy/small distance frontier. Some of the papers in this special issue directly deal with the issue of what happens to spacetime at small distance scales. In the paper by A. Aurilia and E. Spallucci a picture of quantum spacetime is given based on the effects of ultrahigh velocity length contractions on the structure of the spacetime. The work of P. Nicolini et al. further pursues the idea that spacetime has a minimal length. The consequences of this minimal length are investigated in terms of the effects it would have on the gravitational collapse of a star to form a black hole. In the article by G. Amelino-Camelia et al. the quantum structure of spacetime is studied through the Fermi LAT data on the Gamma Ray Burst GRB130427A. The article by S. Hossenfelder addressed the question of whether spacetime is fundamentally continuous or discrete and postulates that in the case when spacetime is discrete it might have defects which would have important observational consequences. ...
This paper studies the geometry and the thermodynamics of a holographic screen in the framework of the ultraviolet self-complete quantum gravity. To achieve this goal we construct a new static, neutral, nonrotating black hole metric, whose outer (event) horizon coincides with the surface of the screen. The spacetime admits an extremal configuration corresponding to the minimal holographic screen and having both mass and radius equalling the Planck units. We identify this object as the spacetime fundamental building block, whose interior is physically unaccessible and cannot be probed even during the Hawking evaporation terminal phase. In agreement with the holographic principle, relevant processes take place on the screen surface. The area quantization leads to a discrete mass spectrum. An analysis of the entropy shows that the minimal holographic screen can store only one byte of information, while in the thermodynamic limit the area law is corrected by a logarithmic term.
The Generalized Uncertainty Principle (GUP) arises from Quantum Gravity thought experiments and contains a minimal lenght. In this thesis I calculate Schwarzschild Black Holes that are modified by the GUP. These Black Holes have the property, that their temperature does not diverge for small masses, although they still posses a curvature singularity. I calculate analytically that in more than 3+1 dimensions the temperature diverges again.
In this thesis, Planck size black holes are discussed. Specifically, new families of black holes are presented. Such black holes exhibit an improved short scale behaviour and can be used to implement gravity self-complete paradigm. Such geometries are also studied within the ADD large extra dimensional scenario. This allows black hole remnant masses to reach the TeV scale. It is shown that the evaporation endpoint for this class of black holes is a cold stable remnant. One family of black holes considered in this thesis features a regular de Sitter core that counters gravitational collapse with a quantum outward pressure. The other family of black holes turns out to nicely fit into the holographic information bound on black holes, and lead to black hole area quantization and applications in the gravitational entropic force. As a result, gravity can be derived as emergent phenomenon from thermodynamics.
The thesis contains an overview about recent quantum gravity black hole approaches and concludes with the derivation of nonlocal operators that modify the Einstein equations to ultraviolet complete field equations.
The radiative capture cross section of 238U is very important for the developing of new reactor technologies and the safety of existing ones. Here the preliminary results of the 238U(n,γ) cross section measurement performed at n_TOF with C6D6 scintillation detectors are presented, paying particular attention to data reduction and background subtraction.
Electromagnetic calorimeter (ECAL) is being developed to complement dilepton spectrometer HADES. ECAL will enable the HADES@FAIR experiment to measure data on neutral meson production in heavy ion collisions at the energy range of 2-10 AGeV on the beam of future accelerator SIS100@FAIR. We will report results of the last beam test with quasi-monoenergetic photons carried out in MAMI facility at Johannes Gutenberg Universität Mainz.
The quark gluon plasma produced in heavy ion collisions behaves like an almost ideal fluid described by viscous hydrodynamics with a number of transport coefficients. The second order coefficient κ is related to a Euclidean correlator of the energy-momentum tensor at vanishing frequency and low momentum. This allows for a lattice determination without maximum entropy methods or modelling, but the required lattice sizes represent a formidable challenge. We calculate κ in leading order lattice perturbation theory and simulations on 1203 × 6, 8 lattices with a < 0.1 fm. In the temperature range 2Tc − 10Tc we find κ = 0.36(15)T2. The error covers both a suitably rescaled AdS/CFT prediction as well as, remarkably, the result of leading order perturbation theory. This suggests that appropriate noise reduction methods on the lattice and NLO perturbative calculations could provide an accurate QCD prediction in the near future.
Ultrafast protein dynamics are of great interest for understanding the molecular basis of biochemical function. One method to study structural changes with highest time-resolution starting in the femtosecond regime is 2D-IR spectroscopy. However its application to investigate protein dynamics both with high temporal and spatial resolution is currently limited to few biological systems with intrinsic chromophores. Spectral congestion, the contribution of many similar oscillators to the same signals, makes it difficult to draw conclusions about local structural dynamics in most other proteins.
The aim of this thesis is to extend the application of 2D-IR spectroscopy to a wider range of proteins by introducing unnatural amino acids (UAAs) with azide or nitrile groups as site-specific vibrational probes, which absorb in the free spectral window between 1800 to 3000 cm-1 by using methods from chemical biology.
In a comparative experimental study using FTIR and 2D-IR spectroscopy of single amino acids azidohomoalanine (Aha), a methionine analogue, was identified as preferred label. To demonstrate the application potential of UAAs as site-specific probes, Aha was then incorporated into different positions in a small globular protein. By using both FTIR and ultrafast 2D-IR it was shown, that indeed the local microenvironment as well as conformational fluctuations on picosecond timescale could be monitored with high spatial information. The azide moiety shows a shift of its absorption frequency depending on the polarity of its surrounding. Using this approach, different subensembles for the protein conformations with more polar and less polar environment around the vibrational probe can be distinguished.
A second major application of site-specific labels is the study of vibrational energy transfer processes (VET), predicted to be relevant for allosteric communication in protein domains such as the PDZ domain. VET can be tracked with high spatial resolution using time-resolved IR spectroscopy by exciting a localized vibrational mode and probing separate modes in a two-colour 2D-IR experiment. To extend this kind of experiment to proteins, a specific donor-acceptor pair of two UAAs was introduced. It uses an azulene moiety as donor that can be excited in the visible range but deposits the excess energy by internal conversion into the vibrational modes of the ground state. In small peptides this VET pair was applied successfully, showing a distance-dependent energy transfer induced signal for VET through covalent bonds. These findings bare great promise for the direct observation of vibrational energy flow in proteins in real-time.
Overall this thesis is the basis for extending the usability of 2D-IR spectroscopy to study structural dynamics in a wide range of proteins systems both with high temporal and spatial resolution.
The measurement of dielectrons (electron-positron pairs) allows to investigate the properties of strongly interacting matter, in particular the Quark-Gluon Plasma (QGP), which is created in relativistic heavy-ion collisions at the LHC. The evolution of the collision can be probed via dielectrons since electrons do not interact strongly and are created during all stages of the collision. One of the interests in dielectron measurements is motivated by possible modifications of the electromagnetic emission spectrum in the QGP, where pp collisions are used as a medium-free reference. The dielectron spectrum consists of contributions from various processes. In order to estimate contributions of known dielectron sources, simulations of the so-called dielectron cocktail are performed. In this thesis, dielectron cocktails in minimum bias pp collisions at p s = 7 TeV, p–Pb collisions at p sNN = 5.02 TeV and in central (0-10%) and semi-central (20-50%) Pb–Pb collisions at p sNN = 2.76 TeV at the LHC are presented.
In dieser Arbeit wurde die Leistungsfähigkeit des neuen Inner Tracking System (ITS) in Bezug auf die Messung von Spektren der invarianten Masse von Dielektronpaaren im Rahmen des ALICE Experiments am LHC ausgewertet. Zu Beginn der Planungen zum zukünftigen ITS wurden zwei verschiedene Designmöglichkeiten in Betracht gezogen: Auf der einen Seite ein ITS, welches die Möglichkeit zur Teilchenidentifizierung mittels spezifischem Energieverlust pro Wegstrecke bietet und auf der anderen Seite ein ITS welches diese Möglichkeiten nicht hat. Es wurde untersucht, ob es zukünftig möglich sein wird aus der Steigung des Spektrums der invarianten Masse von Dileptonen zwischen 1,1 GeV/c2 < Mee < 2,0 GeV/c2 direkt die Temperatur des Quark-Gluon-Plasmas zu extrahieren. Weiterhin wurde geprüft welches der beiden Systeme diese Aufgabe besser erfüllt.
Das neue ITS bietet gegenüber dem alten ITS Vorteile, die in dieser Analyse genutzt wurden. Zuerst, siehe Abschnitt 3.4, wurde ein zweidimensionaler Schnitt auf den Öffnungswinkel und die invariante Masse angewandt um Elektronen und Positronen aus Dalitzzerfällen und Photonkonversionen zu identifizieren und für die folgende Analyse zu verwerfen. Hierzu wurde die verbesserte Spurfindungseffizienz hin zu kleinen Transversalimpulsen ausgenutzt, um die Anzahl an zu kombinierenden Teilchen und damit die Wahrscheinlichkeit richtige Paare zu finden, zu erhöhen. Allerdings können Teilchen, welche nur im ITS nachgewiesen werden können, nicht zweifelsfrei (ITSPID), beziehungsweise gar nicht (ITSnoPID) identifiziert werden. Die Simulationen ergeben, dass ein zukünftiges ITS mit der Möglichkeit zur Teilchenidentifizierung leicht bessere Werte in der Signifikanz und im Verhältnis von Signal zu Untergrund liefern kann.
Die verbesserte Vertexfindung wird zur Reduktion des Beitrags durch Elektronen und Positronen aus semileptonisch zerfallenden D-Mesonen (Abschnitt 3.4.4) ausgenutzt.
Die Elektronen und Positronen, welche nach den Schnitten in der Stichprobe blieben, wurden verwendet um den Untergrund zu simulieren (Abschnitt 3.4.5). Daraufhin wurde die Signifikanz und das Verhältnis von Signal zu Untergrund berechnet. Mit diesen Informationen (Abschnitt 3.5.3) wurde ein Spektrum der invarianten Masse von Dileptonen mit der zu erwartenden Anzahl von 2,5 · 109 zentralen Blei-Blei-Kollisionen erzeugt. Dies führt zu den in Abschnitt 3.5.4 gezeigten Spektren. Nach Abzug der Beiträge durch die semileptonischen D-Meson Zerfälle und durch den hadronischen Cocktail ist noch der zu erwartende Beitrag durch die thermische Strahlung (Abschnitt 1.5) im Spektrum vorhanden. Eine Parametrisierung dieser Kurve ergibt die Temperatur des Quark-Gluon-Plasmas.
Der Unterschied der ermittelten Messwerte der Temperatur zwischen dem zukünftigen ITS mit Teilchenidentifizierung und ohne ist gering (Abschnitt 3.5.5). Die Messung ergibt keine signifikanten Unterschiede zwischen beiden ITS Entwürfen. Aufgrund dieses Ergebnisses kann man sagen, dass für die Messung von Dileptonen im Niedrigmassenbereich keine ITS PID notwendig ist. In den mittlerweile veröffentlichten ITS Technical Design Report sind die Ergebnisse dieser Studie eingeflossen. Es wurde beschlossen, dass der ITSnoPID umgesetzt wird.
Da in der Run 3 Periode des CERN LHC die Kollisionsrate auf 50 kHz erhöht werden soll, muss die ALICE TPC umgebaut werden. Die Vieldrahtproportionalkammern mit Sperrgitter sollen gegen eine GEM-basierte Auslese ausgetauscht werden, um eine kontinuierliche Auslese zu ermöglichen.
Es wurde eine GEM-Testkammer, die mit drei und vier GEM-Folien betrieben werden kann, entwickelt und gebaut. GEM-Folien wurden unter dem Mikroskop auf Fehler untersucht und auf ihre Spannungsfestigkeit hin getestet sowie gerahmt und in die Kammer eingesetzt. Mit der fertigen kleinen TPC mit GEM-basierter Auslese wurden IBF und Energieauflösung gemessen. Ziel der Messungen war es, einen möglichst geringen IBF von unter 1 % zu erhalten, um so wenig wie möglich Feldverzerrungen im Driftvolumen der TPC zu erhalten, bei gleichzeitig guter Energieauflösung von mindestens 12 %, um eine gute Teilchenidentifikation in der TPC sicherzustellen.
Da standard GEM-Konfigurationen mit nur drei GEM-Folien zwar eine gute Energieauflösung, jedoch zu viel IBF aufweisen, wurden die Messungen hauptsächlich mit vier GEM-Folien durchgeführt. Es wurden zwei verschiedene Arten von GEM-Folien verwendet, Standard (S) und Large-Pitch (LP) GEM-Folien, die bei einem Großteil der Messungen in der S-LP-LP-S-Konfiguration angeordnet waren.
Es wurde festgestellt, dass sich IBF und Energieauflösung gegenläufig verhalten, bei besser werdendem IBF also die Energieauflösung schlechter wird und umgekehrt.
Es wurden zwei verschiedene Gasmischungen, Ne-CO2-N2 (90-10-5) und Ar-CO2 (90-10), untersucht. Mit Neon wurde bei einem Gain von 2000 gemessen, mit Argon nur bei einem Gain von 1000, da bei Argon die Anzahl der produzierten Elektronen pro cm etwa doppelt so groß ist.
Der IBF war mit beiden Gasmischungen etwa gleich groß. Die Energieauflösung war mit Argon jedoch aufgrund des niedrigeren Gains erheblich schlechter. Mit Ne-CO2-N2 (90-10-5) gelang es, einen Arbeitspunkt mit einer Energieauflösung von etwa 12 % und einem IBF von unter 1 % zu finden, mit Ar-CO2 (90-10) war dies jedoch nicht der Fall.
In dieser Arbeit wurden die ersten Schritte unternommen um Elektronen aus den Zerfällen schwerer Quarks zu messen. Im Folgenden wird zunächst ein Überblick zum physikalische Hintergrund gegeben und der elliptische Fluss als Sonde zur Untersuchung des QGP motiviert. Anschließend werden der LHC und ALICE näher beleuchtet und die einzelnen Detektorsysteme, die für diese Analyse wichtig sind, vorgestellt. Im weiteren wird eine Methode zur Identifizierung von Elektronen vorgestellt und die Kontamination des Elektronensignals durch Hadronen bestimmt. Abschließend wird der elliptische Fluss eines von Hadronen bereinigten Inklusiv-Elektronen Spektrums bestimmt und ein Ausblick auf weitere Analyseschritte gegeben.
We have studied one-proton-removal reactions of about 500MeV/u 17Ne beams on a carbon target at the R3B/LAND setup at GSI by detecting beam-like 15O-p and determining their relative-energy distribution. We exclusively selected the removal of a 17Ne halo proton, and the Glauber-model analysis of the 16F momentum distribution resulted in an s2 contribution in the 17Ne ground state of about 40%.
Generating functionals may guide the evolution of a dynamical system and constitute a possible route for handling the complexity of neural networks as relevant for computational intelligence.We propose and explore a new objective function, which allows to obtain plasticity rules for the afferent synaptic weights. The adaption rules are Hebbian, self-limiting, and result from the minimization of the Fisher information with respect to the synaptic flux. We perform a series of simulations examining the behavior of the new learning rules in various circumstances.The vector of synaptic weights aligns with the principal direction of input activities, whenever one is present. A linear discrimination is performed when there are two or more principal directions; directions having bimodal firing-rate distributions, being characterized by a negative excess kurtosis, are preferred. We find robust performance and full homeostatic adaption of the synaptic weights results as a by-product of the synaptic flux minimization. This self-limiting behavior allows for stable online learning for arbitrary durations.The neuron acquires new information when the statistics of input activities is changed at a certain point of the simulation, showing however, a distinct resilience to unlearn previously acquired knowledge. Learning is fast when starting with randomly drawn synaptic weights and substantially slower when the synaptic weights are already fully adapted.
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
The nature of spontaneous brain activity during wakefulness and sleep: a complex systems approach
(2014)
In this thesis we study the organization of spontaneous brain activity during wakefulness and all stages of human non-rapid eye movement sleep using an approach based on developments and tools from the theory of complex systems. After a brief introduction to sleep physiology and different theoretical models of consciousness, we study how the organization of cortical and sub-cortical interactions is modified during the sleep cycle. Our results, obtained by modeling global brain activity as a complex functional interaction network, show that the capacity of the human brain to integrate different segregated functional modules is diminished during deep sleep, in line with an informationintegration account of consciousness. We then show that integration is impaired not only across space but also in the temporal domain, by assesing the emergence of long-range temporal correlations in brain activity and how they are modified during sleep. We propose an encompassing explanation for this observation, namely, that the brain operatsat different dynamical regimes during different states of consciousness. Finally, we gather massive amounts of data from different collaborative projects and apply machine learning techniques to reveal that the \resting state" cannot be considered as a pure brain state and is in fact a mixture containing different levels of conscious awareness. This last result has deep implications for future attempts to develop a discovery science of brain function both in health and disease.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
Experiments for p-process nucleosynthesis with special focus on the most abundant p nucleus 92Mo
(2014)
This thesis describes experimental investigations and astrophysical network calculations relevant for the nucleosynthesis of the p nuclei. These 35 proton-rich isotopes cannot be produced by neutron-capture reactions which is the general production mechanism for elements heavier than iron in the r and s processes. Therefore, other mechanisms like photo-disintegration reactions on heavy seed nuclei (γ process) or proton-capture reactions are taken into account.
The modelling of these processes relies on a hugh amount of reactions which mostly occur for unstable isotopes. This demands, in combination with the contribution of excited states to the stellar rate, the prediction of the rates by a suited theoretical approach: the Hauser-Feshbach statistical model. To improve the reliability of the predictions, systematic experimental investigations are performed within this work for the nuclear input to the calculations. The study of charged-particle optical model potentials using the activation approach for the investigation of (α,n) and (p,n) reactions is described as well as the investigation of (γ,n) reactions in a broad mass range of 140 ≤ A ≤ 210.
However, there are also key reactions which are of special interest for the nucleosynthesis of individual p nuclei. An impressive example is the puzzle about the production of the most abundant p nucleus 92Mo. Within this work, the results of an experiment using high-resolution in-beam γ-spectroscopy for the study of the 90Zr(p,γ) reaction are summarized. In addition, the efforts to investigate the 91Nb(p,γ) reaction in standard kinematics by the production of target of the unstable isotope 91Nb to be used with the high-intensity proton-beam provided by the accelerator of FRANZ, Frankfurt, are discussed.
Finally, the influence of experimental results in astrophysical network calculations is discussed using post-processing nucleosynthesis methods for the γ process in type II supernovae.
Oscillations play a critical role in cognitive phenomena and have been observed in many brain regions. Experimental evidence indicates that classes of neurons exhibit properties that could promote oscillations, such as subthreshold resonance and electrical gap junctions. Typically, these two properties are studied separately but it is not clear which is the dominant determinant of global network rhythms. Our aim is to provide an analytical understanding of how these two effects destabilize the fluctuation-driven state, in which neurons fire irregularly, and lead to an emergence of global synchronous oscillations. Here we show how the oscillation frequency is shaped by single neuron resonance, electrical and chemical synapses.The presence of both gap junctions and subthreshold resonance are necessary for the emergence of oscillations. Our results are in agreement with several experimental observations such as network responses to oscillatory inputs and offer a much-needed conceptual link connecting a collection of disparate effects observed in networks.
A measurement of the transverse momentum spectra of jets in Pb-Pb collisions at sNN−−−√=2.76 TeV is reported. Jets are reconstructed from charged particles using the anti-kT jet algorithm with jet resolution parameters R of 0.2 and 0.3 in pseudo-rapidity |η|<0.5. The transverse momentum pT of charged particles is measured down to 0.15 GeV/c which gives access to the low pT fragments of the jet. Jets found in heavy-ion collisions are corrected event-by-event for average background density and on an inclusive basis (via unfolding) for residual background fluctuations and detector effects. A strong suppression of jet production in central events with respect to peripheral events is observed. The suppression is found to be similar to the suppression of charged hadrons, which suggests that substantial energy is radiated at angles larger than the jet resolution parameter R=0.3 considered in the analysis. The fragmentation bias introduced by selecting jets with a high pT leading particle, which rejects jets with a soft fragmentation pattern, has a similar effect on the jet yield for central and peripheral events. The ratio of jet spectra with R=0.2 and R=0.3 is found to be similar in Pb-Pb and simulated PYTHIA pp events, indicating no strong broadening of the radial jet structure in the reconstructed jets with R<0.3.
Within the nucleosynthetic processes of the slow neutron-capture reaction network (called the s process) the so called branching points, unstable isotopes where different nuclear reactions are competing, are important to understand . For modeling and calculating the nucleosynthesis and compare the resulting abundances to the observed ones, it is indispensable to know the branching ratios as well as the corresponding cross sections.
A great challenge in measuring those rates in experiments may be the radioactivity of the isotopes involved, which can make it nearly impossible to manufacture the needed targets. In addition, in stellar environments the excited states of isotopes can be in equilibrium with the ground state, affecting the half-lives and the branching ratios significantly. The isotope 152Eu is such a branching point, with neutron captures and β-decays competing. Those challenges were approached in the s405 experiment performed at the GSI Helmholtzzentrum für Schwerionenforschung GmbH: the challenge the challenge of the radioactivity can be approached by experiments carried out in inverse kinematics with radioactive beams, solving the problem of unstable targets. Also a reversed reaction was used to access the excited states of the studied isotope. The performed 152Sm(p,n)152Eu is a pioneering attempt to use those methods on heavy ions. The (p,n) reaction was used as a substitute for electron capture, the focus lies on reactions with low-momentum transfers, resulting in the emission of low-energy neutrons. The new developed low-energy detector array LENA was put to test for the fist time in the s405 experiment.
Ziel dieser Arbeit war, mittels einer (n,γ)-Aktivierung, 129Te zu erzeugen und eine Teilchenzahlbestimmung durchzuführen. Aktivierung der Probe am Forschungsreaktor TRIGA und Spektrenaufnahme mittels eines HPGe-Detektors erfolgten im Mai 2014 am Institut für Kernchemie der Johannes Gutenberg Universität in Mainz.
Die Teilchenzahl des Tochternuklids 129I kann anhand der Teilchenzahlen des Isomers und des Grundzustandes von 129Te berechnet werden. In den Aktivierungen #2 bis #6 wurden (14.27 ± 0.53)x10exp12 Iodnuklide erzeugt. Angegeben ist die maximal mögliche Anzahl von Iodteilchen bei unendlich langer Wartezeit und vollständigem Zerfall aller Tellurnuklide.
Beobachtet werden konnte die Abnahme der Grundzustandsaktivität bis zum Erreichen des Gleichgewichts aus Nachbevölkerung durch das Isomer und Zerfall. Die Grundzustandslinien der Energien von 459.60 keV, 487 keV, 1083 KeV und 1111 keV konnten zu dieser Untersuchung herangezogen werden. Diese 4 Linien erfüllen die erforderten Konsistenzkriterien bezüglich der Systematik und können daher zur Teilchenzahlbestimmung des Grundzustandes verwendet werden (Seite 31).
Der Einfluss der Eigenabsorption ist noch zu untersuchen, da die genaue Position der Probe im Polyethylenbehältnis nicht bestimmt werden konnte. Weiterhin ist die Datenanalyse der ersten Aktivierung aufgrund des Detektorwechsels noch nicht erfolgt. Der Austausch war wegen technischer Probleme notwendig. Ziel weiterführender Untersuchungen ist, eine erneute Halbwertszeitbestimmung des radioaktiven 129I vorzunehmen. Sie ist von Interesse, angesichts des Widerspruchs zweier Veröffentlichungen. Die Halbwertszeit des 129I kann Aufschluss über stellare Bedingungen des s-Prozesses geben.
This thesis presents experimental studies of proton capture and fragmentation reactions with heavy-ion storage rings. In one experiment, the 96Ru(p, γ)97Rh cross sections near the Gamow window have been measured at the ESR of GSI. In the other experiment, the measurement of the fragmentation yields has been carried out at the CSRe of IMP.
It is essential to determine the cross sections of (γ, p) or (p, γ) reactions for p-process network calculations. However, only very few of the required cross sections have been measured and thus most of them rely solely on Hauser-Feshbach model predictions. The predictions of the model have always very large uncertainties because of the not well-known input parameters. These parameters can be constrained by experiments. Compared to the traditional activation technique, a novel method using a storage ring has been developed to measure the cross sections of (p, γ) reactions in inverse kinematics.
This proton capture experiment has been performed at the ESR, where the circulating 96Ru44+ ions interacted with a hydrogen gas target at 9, 10 and 11 MeV/u. The nuclear reaction products of (p, p), (p, α), (p, n) and (p, γ) reactions were registered by position sensitive detectors. A Geant4 simulation code has been developed to distinguish the (p, γ) reaction products unambiguously from the background reactions. In this work, a relative normalization method has been utilized to accurately determine the cross sections of the (p, γ) reaction. The 96Ru(p, γ)97Rh cross section in the Gamow window of the p process is sensitive to two parameters, i.e., the γ-ray strength function and the optical model potential, while it is mainly sensitive to the γ-ray strength function in the energy region of our experiment. Therefore, our experimental (p, γ) cross sections near 10 MeV/u have been used to directly constrain the γ-ray strength function used in the model. Furthermore, the proton potential has also been constrained by combining our results with additional experimental data for this reaction in the lower energy region. The constrained model has been used to calculate the reaction rate over a wide temperature range, which is an extremely important input for astrophysical calculations.
The yields of fragments produced by 78Kr fragmentation reactions have been measured at the CSRe for the Tz = −1/2 and Tz = 1/2 nuclei along or close to the paths of αp- and rp-processes. The measured yields present a significant odd-even staggering effect for Tz = −1/2 nuclides but they are small for Tz = 1/2 nuclides.
The magnitude of this effect for four consecutive yields has been quantified using a third-order difference formula. It is found that the largest odd-even staggering is reached near the closed shells Z = 20 and Z = 28. Our experimental results could also compared with the data from other experiments with different projectile-target combinations. All these experimental data strongly support the closed shells Z = 20 and Z = 28 for the Tz = −1/2 nuclei.
This work derived the value of α-induced production cross sections of 77Kr and 77Br at α-energies of 12 MeV and 14 MeV, the thick target yields of 77Kr and 77Br at α-energies of 11.19 MeV, 13 MeV and 15.1 MeV and the thick target yield of 80Br as well as 80mBr at an α-energy of 15.1 MeV using the activation technique...
Eines der wichtigsten Experimente für Kernstrukturforschung und Messung stellarer Reaktionsraten ist das R3B-Experiment im Rahmen des FAIR-Projekts am GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt. Der experimentelle Aufbau von R3B besteht aus mehreren einzelnen Teilchendetektoren für verschiedene Teilchensorten (Neutronen, Protonen, Spallationsund Spaltprodukte, Gammastrahlen), die alle möglichst vollständig detektiert und gemessen werden müssen. Für die Identifikation und Energiemessung schwerer, geladener Reaktionsprodukte ist eine sogenannte Time-of-Flight-Wall (Flugzeitwand) nötig. Der Name ergibt sich aus der Hauptaufgabe, der Flugzeitmessung für die Energiebestimmung der Teilchen, sowie der Geometrie eines solchen Detektors. Die in vorherigen Aufbauten verwendeten Detektoren diesen Typs erfüllen noch nicht die Anforderungen, die die Forschungsziele des R3B-Experiments stellen, daher wurde ein neues Design basierend auf Plastikszintillatoren entwickelt.
Für diese Arbeit wurde die theoretisch erreichbare Zeitauflösung des neuen Designs abgeschätzt sowie Testmessungen mit verschiedenen experimentellen Setups durchgeführt. Insbesondere wurde ein Prototyp der ToF-Wand im Rahmen einer Strahlzeit an der Beschleunigeranlage der GSI getestet. Die Ergebnisse dieser Messungen mit einem 58Ni28+-Strahl wurden im Hinblick auf Energie-, Zeit- und Ladungsauflösung sowie die Stabilität dieser Werte bei hohen Raten ausgewertet und so ein erster Eindruck von der Leistungsfähigkeit des Detektors und der Ausleseelektronik gewonnen und Einschränkungen und nötige Verbesserungen erkannt.
XIII Nuclei in the Cosmos, 7-11 July, 2014 Debrecen, Hungary.
As an alternative production scenario to the so-called g process, the most abundant p nucleus 92Mo may be produced by a chain of proton-capture reactions in supernovae type Ia. The reactions 90Zr(p,g) and 91Nb(p,g) are the most important reactions in this chain. We have measured the first reaction using high-resolution in-beam g-spectroscopy at HORUS, Cologne, Germany, to contribute to the existing experimental data base. So far, we only investigated the high-energy part of the Gamow window and the analysis is still in progress. We plan to study the second reaction in standard kinematics at the FRANZ facility, Frankfurt, Germany. Current developments at FRANZ will be explained in detail.
Cryo-electron tomography (CET) is a unique technique to visualize biological objects under near-to-native conditions at near-atomic resolution. CET provides three-dimensional (3D) snapshots of the cellular proteome, in which the spatial relations between macromolecular complexes in their near native cellular context can be explored. Due to the limitation of the electron dose applicable on biological samples, the achievable resolution of a tomogram is restricted to a few nanometers, higher resolution can be achieved by averaging of structures occurring in multiples. For this purpose, computational techniques such as template matching, sub-tomogram averaging and classification are essential for a meaningful processing of CET data.
This thesis introduces the techniques of template matching and sub-tomogram averaging and their applications on real biological data sets. Subsequently, the problem of reference bias, which restricts the applicability of those techniques, is addressed. Two methods that estimate the reference bias in Fourier and real space are demonstrated. The real space method, which we have named the “M-free” score, provides a reliable estimation of the reference bias, which gives access to the reliability of the template matching or sub-tomogram averaging process. Thus, the “M-free” score makes those approaches more applicable to structural biology. Furthermore, a classification algorithm based on Neural Networks (NN) called “KerDenSOM3D” is introduced, which is implemented in 3D and compensates for the missing-wedge. This approach helps extracting different structural states of macromolecular complexes or increasing the class purity of data sets by eliminating outliers. A comprehensive comparison with other classification methods shows superior performance of KerDenSOM3D.
Conventional radar-based image reconstruction techniques fail when they are applied to heterogeneous breast tissue, since the underlying in-breast relative permittivity is unknown or assumed to be constant. This results in a systematic error during the process of image formation. A recent trend in microwave biomedical imaging is to extract the relative permittivity from the object under test to improve the image reconstruction quality and thereby to enhance the diagnostic assessment. In this paper, we present a novel radar-based methodology for microwave breast cancer detection in heterogeneous breast tissue integrating a 3D map of relative permittivity as a priori information. This leads to a novel image reconstruction formulation where the delay-and-sum focusing takes place in time rather than range domain. Results are shown for a heterogeneous dense (class-4) and a scattered fibroglandular (class-2) numerical breast phantom using Bristol's 31-element array configuration.
The elements in the universe are mainly produced by charged-particle fusion reactions and neutron-capture reactions. About 35 proton-rich isotopes, the p-nuclei, cannot be produced via neutron-induced reactions. To date, nucleosynthesis simulations of possible production sites fail to reproduce the p-nuclei abundances observed in the solar system. In particular, the origin of the light p-nuclei 92Mo, 94Mo, 96Ru and 98Ru is little understood. The nucleosynthesis simulations rely on assumptions about the seed abundance distributions, the nuclear reaction network and the astrophysical environment. This work addressed the nuclear data input.
The key reaction 94Mo(g,n) for the production ratio of the p-nuclei 92Mo and 94Mo was investigated via Coulomb dissociation at the LAND/R3B setup at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt, Germany. A beam of 94Mo with an energy of 500 AMeV was directed onto a lead target. The neutron-dissociation reactions following the Coulomb excitation by virtual photons of the electromagnetic field of the target nucleus were investigated. All particles in the incoming and outgoing channels of the reaction were identified and their kinematics were determined in a complex analysis. The systematic uncertainties were analyzed by calculating the cross sections for all possible combinations of the data selection criteria. The integral Coulomb dissociation cross section of the reaction 94Mo(g,n) was determined to be (571 +- 14 (stat) +- 46 (syst) ) mb. The result was compared to the data obtained in a real photon experiment carried out at the Saclay linear accelerator. The ratio of the integral cross sections was found to be 0.63 +- 0.07, which is lower than the expected value of about 0.8.
The nucleosynthesis of the light p-nuclei 92Mo, 94Mo, 96Ru and 98Ru was investigated in post-processing nucleosynthesis simulations within the NuGrid research platform. The impact of rate uncertainties of the most important production and destruction reactions was studied for a Supernova type II model. It could be shown that the light p-nuclei are mainly produced via neutron-dissociation reactions on heavier nuclei in the isotopic chains, and that the final abundances of these p-nuclei are determined by their main destruction reactions. The nucleosynthesis of 92Mo and 94Mo was also studied in different environments of a Supernova type Ia model. It was concluded that the maximum temperature and the duration of the high temperature phase determine the final abundances of 92Mo and 94Mo.
Das Strahldynamikdesign für den MYRRHA-Injektor wurde im Hinblick auf eine hohe Zuverlässigkeit und Verfügbarkeit, sowie eine verbesserte Strahlausgangsemittanz, neu entwickelt und erfüllt nun die Anforderungen des Kernreaktors.
In der statistischen Fehleranalyse zeigt sich die Strahldynamik der CH-Sektion als äußerst robust und liefert selbst unter pessimistischen Fehlerannahmen eine Transmission von über 99,9 %.
Das neue Injektorkonzept bietet wesentliche Vorteile gegenüber dem in „MAX Referenzdesign 2012“ vorgestellten Injektordesign und wird als neues „MAX Referenzdesign 2014“ für den MYRRHA-Injektor verwendet. Die guten strahldynamischen Eigenschaften des neuen Injektordesigns konnten in Vergleichsrechnungen mit TraceWin am IN2P3@CNRS1 (Institut National de Physique Nucléaire et de Physique des Particules @ Centre National de la Recherche Scientifique, Orsay, Frankreich) bestätigt werden.
Neben der Strahldynamik wurde das HF-Design für die benötigten Beschleunigerkavitäten entwickelt und ebenfalls für eine hohe Zuverlässigkeit und Verfügbarkeit optimiert. Das HF-Design der CH-Strukturen ist für eine größtmögliche Ausfallsicherheit auf den Betrieb mit niedrigen elektrischen Feldgradienten, weit unterhalb der technischen Leistungsgrenzen und Möglichkeiten der jeweiligen Kavität, ausgelegt.
Nichtinvasive Detektoren für ortsaufgelöste Strahlprofilmessungen gewinnen mit zunehmenden Strahlströmen und -energien immer mehr an Bedeutung. An der Universität Frankfurt im Institut für Angewandte Physik (IAP) wird ein “Figure Eight”-förmiger magnetostatischer Speichering mit Stellarator-Konfiguration (F8SR) entwickelt. Einige Aspekte der Strahldynamik in einem solchen Ring können mit einem experimentellen Aufbau am IAP untersucht werden. Die Herausforderung bei der Entwicklung eines Detektors an einem (F8SR) liegt auf der einen Seite darin den Strahl nichtinvasiv zu detektieren, und andererseits müssen magnetisch unempfindliche Komponenten für den Detektor ausgewählt werden. Dabei sollte der Detektor so flexibel sein, dass der Strahl entlang der Flugbahn transversal gemessen werden kann. In dieser Arbeit geht es um einen Detektor mit radial um den Strahl angeordneten Photodioden, mit deren Hilfe die strahlinduzierte Fluoreszenz detektiert wird und mit einem geeigneten Rekonstruktionsverfahren, Strahlposition und den Strahldurchmesser ermittelt werden kann. Die Messungen werden mit einem weiteren schon erprobten Detektor - einem Szintillationsschirm verglichen.
The PANDA experiment at FAIR will perform world class physics studies using high-intensity cooled antiproton beams with momenta between 1.5 and 15 GeV/c. A rich physics program requires very good particle identification (PID). Charged hadron PID for the barrel section of the target spectrometer has to cover the angular range of 22-140° and separate pions from kaons for momenta up to 3.5 GeV/c with a separation power of at least 3 standard deviations. The system that will provide it has to be thin and operate in a strong magnetic field. A ring imaging Cherenkov detector using the DIRC principle meets those requirements. The design of the PANDA Barrel DIRC is based on the successful BABAR DIRC counter with several important changes to improve the performance and optimize the costs. The design options are being studied in detailed Monte Carlo simulation, and implemented in increasingly complex system prototypes and tested in particle beams. Before building the full system prototypes the radiator bars and lenses are measured on the test benches. The performance of the DIRC prototype was quantified in terms of the single photon Cherenkov angle resolution and the photon yield. Results for two full system prototypes will be presented. The prototype in 2011 aimed at investigating the full size expansion volume. It was found that the resolution for this configuration is at the level of in good agreement with ray tracing simulation results. A more complex prototype, tested in 2012, provided the first experience with a compact fused silica prism expansion volume, a wide radiator plate, and several advanced lens options for the focusing system. The performance of the baseline configuration of the prototype with a standard lens and an air gap met the requirements for the PANDA PID for most of the polar angle range but failed at polar angles around 90° due to photon loss at the air gap. Measurements with a prototype high-refractive index compound lens without an air gap at a polar angle of 128° beam angle showed a good resolution of σΘC = 11.8 ± 0.7 mrad and a high photon yield of Nph = 26.1 ± 0.4. Even at polar angles close to 90° the photon yield with this lens exceeded 15 detected photons per particle, meeting the PANDA Barrel DIRC PID requirements for the entire phase space and demonstrating that the compact focusing DIRC is a very promising option for PANDA.
We present the results of two-pion production in tagged quasi-free np collisions at a deutron incident beam energy of 1.25 GeV/c measured with the High-Acceptance Di-Electron Spectrometer (HADES) installed at GSI. The specific acceptance of HADES allowed for the first time to obtain high-precision data on π+π− and π−π0 production in np collisions in a region corresponding to large transverse momenta of the secondary particles. The obtained differential cross section data provide strong constraints on the production mechanisms and on the various baryon resonance contributions (∆∆, N(1440), N(1520), ∆(1600)). The invariant mass and angular distributions from the np → npπ+π −and np → ppπ−π0 reactions are compared with different theoretical model predictions.
We have measured the radiative neutron-capture cross section and the total neutron-induced cross section of one of the most important isotopes for the s process, the 25Mg. The measurements have been carried out at the neutron time-of-flight facilities n_TOF at CERN (Switzerland) and GELINA installed at the EC-JRC-IRMM (Belgium). The cross sections as a function of neutron energy have been measured up to approximately 300 keV, covering the energy region of interest to the s process. The data analysis is ongoing and preliminary results show the potential relevance for the s process.
The ab-initio molecular dynamics framework has been the cornerstone of computational solid state physics in the last few decades. Although it is already a mature field it is still rapidly developing to accommodate the growth in solid state research as well as to efficiently utilize the increase in computing power. Starting from the first principles, the ab-initio molecular dynamics provides essential information about structural and electronic properties of matter under various external conditions. In this thesis we use the ab-initio molecular dynamics to study the behavior of BaFe2As2 and CaFe2As2 under the application of external pressure. BaFe2As2 and CaFe2As2 belong to the family of iron based superconductors which are a novel and promising superconducting materials. The application of pressure is one of two key methods by which electronic and structural properties of iron based superconductors can be modified, the other one being doping (or chemical pressure). In particular, it has been noted that pressure conditions have an important effect, but their exact role is not fully understood. To better understand the effect of different pressure conditions we have performed a series of ab-initio simulations of pressure application. In order to apply the pressure with arbitrary stress tensor we have developed a method based on the Fast Inertial Relaxation Engine, whereby the unit cell and the atomic positions are evolved according to the metadynamical equations of motion. We have found that the application of hydrostatic and c axis uniaxial pressure induces a phase transition from the magnetically ordered orthorhombic phase to the non-magnetic collapsed tetragonal phase in both BaFe2As2 and CaFe2As2. In the case of BaFe2As2, an intermediate tetragonal non-magnetic tetragonal phase is observed in addition. Application of the uniaxial pressure parallel to the c axis reduces the critical pressure of the phase transition by an order of magnitude, in agreement with the experimental findings. The in-plane pressure application did not result in transition to the non-magnetic tetragonal phase and instead, rotation of the magnetic order direction could be observed. This is discussed in the context of Ginzburg-Landau theory. We have also found that the magnetostructural phase transition is accompanied by a change in the Fermi surface topology, whereby the hole cylinders centered around the Gamma point disappear, restricting the possible Cooper pair scattering channels in the tetragonal phase. Our calculations also permit us to estimate the bulk moduli and the orthorhombic elastic constants of BaFe2As2 and CaFe2As2.
To study the electronic structure in systems with broken translational symmetry, such as doped iron based superconductors, it is necessary to develop a method to unfold the complicated bandstructures arising from the supercell calculations. In this thesis we present the unfolding method based on group theoretical techniques. We achieve the unfolding by employing induced irreducible representations of space groups. The unique feature of our method is that it treats the point group operations on an equal footing with the translations. This permits us to unfold the bandstructures beyond the limit of translation symmetry and also formulate the tight-binding models of reduced dimensionality if certain conditions are met. Inclusion of point group operations in the unfolding formalism allows us to reach important conclusions about the two versus one iron picture in iron based superconductors.
And finally, we present the results of ab-initio structure prediction in the cases of giant volume collapse in MnS2 and alkaline doped picene. In the case of MnS2, a previously unobserved high pressure arsenopyrite structure of MnS2 is predicted and stability regions for the two competing metastable phases under pressure are determined. In the case of alkaline doped picene, crystal structures with different levels of doping were predicted and used to study the role of electronic correlations.
We discuss recent applications of the partonic perturbative QCD based cascade model BAMPS with focus on heavy-ion phenomenology in the hard and soft momentum range. First, the elliptic flow and suppression of charm and bottom quarks are studied at LHC energies. Thereafter, we compare in a detailed study the standard Gunion-Bertsch approximation of the matrix elements for inelastic processes to the exact results in leading order perturbative QCD. Since a disagreement is found, we propose an improved Gunion-Bertsch matrix element, which agrees with the exact result in all phase space regions.
We investigate the properties of the QCD matter across the deconfinement phase transition. In the scope of the parton-hadron string dynamics (PHSD) transport approach, we study the strongly interacting matter in equilibrium as well as the out-of equilibrium dynamics of relativistic heavy-ion collisions. We present here in particular the results on the electromagnetic radiation, i.e. photon and dilepton production, in relativistic heavy-ion collisions and the relevant correlator in equilibrium, i.e. the electric conductivity. By comparing our calculations for the heavy-ion collisions to the available data, we determine the relative importance of the various production sources and address the possible origin of the observed strong elliptic flow ν2 of direct photons.
We present results for calculating fusion cross-sections using a new microscopic approach based on a time-dependent density-constrained DFT calculations. The theory is implemented by using densities and other information obtained from TDDFT time-evolution of the nuclear system as a constraint on the density for DFT calculations.
We enlarge the so-called extended linear Sigma model (eLSM) by including the charm quark according to the global U(4)r × U(4)l chiral symmetry. In the eLSM, besides scalar and pseudoscalar mesons, also vector and axial-vector mesons are present. Almost all the parameters of the model were fixed in a previous study of mesons below 2 GeV. In the extension to the four-flavor case, only three additional parameters (all of them related to the bare mass of the charm quark) appear.We compute the (OZI dominant) strong decays of open charmed mesons. The results are compatible with the experimental data, although the theoretical uncertainties are still large.
In the framework of an interference setup in which only two outcomes are possible (such as in the case of a Mach–Zehnder interferometer), we discuss in a simple and pedagogical way the difference between a standard, unitary quantum mechanical evolution and the existence of a real collapse of the wavefunction. This is a central and not-yet resolved question of quantum mechanics and indeed of quantum field theory as well. Moreover, we also present the Elitzur–Vaidman bomb, the delayed choice experiment, and the effect of decoherence. In the end, we propose two simple experiments to visualize decoherence and to test the role of an entangled particle.
Zunächst sind einige Methoden und Techniken zusammenfassend aufzuzählen, welche mir in meiner Zeit am IKF nahegebracht wurden.
Von technischer Seite her sind hier der Umgang mit der Instituts-eigenen Lichtmikroskop und den pA-Messgeräten sowie der analogen Messkette zu nennen. Außerdem gegebenen GEM-Folien auf Fehlstellen zu untersuchen, sie unter Spannung zu testen und anschließen in die Testkammer zu montieren und diese anschließend ordnungsgemäß in Betrieb zu nehmen. Während des Betriebs der Kammer sind neben den Messungen selbst auch die Programmierung in C++ um ein vorhandenes GUI zu verstehen und erweitern zu können zu nennen. In der Analyse der gewonnenen Daten ist vor allem die im Institut verbreiteten Analyse-Software „Root“ zu nennen um Daten zu verarbeiten, zu plotten und zu fitten.
Der physikalische Gehalt der Messungen war in Folge der ersten Messung nicht mit Sicherheit zu bestimmen, da die Raten-Abhängigkeit des IB entweder grundlegender physikalischer oder technischer Natur sein konnte, was näher zu untersuchen blieb. Nach wiederholter Messung mit größerem Messbereich und einer zweiten Messreihe mit einer anderen Gas-Mischung konnten jedoch Aussagen getroffen werden.
So konnte in der Argon-Messung die gleiche Raten-Abhängigkeit des IBF wie zuvor festgestellt werden, während der IBF in der Neon-Mischung kaum merklich anstieg. Außerdem ist festzuhalten, dass Messungen an der Kathode nur über 10 pA problemlos genau sind. Darunter werden die Werte bei zu wenig Messzeit weniger aussagekräftig.
The present work deals with the integration of variable renewable energy sources, wind and solar energy into the European and US power grid. In contrast to other networks, such as the gas supply mains, the electricity network is practically not able to store energy. Generation and consumption therefore always have tobe balanced. Currently, the load curve is viewed as a rigid boundary condition, which must be followed by the generation system. The basic idea of the approach followed here is that weather-dependent generation causes a shift of focus of the electricity supply. At high shares of wind and solar generation, the role of the rigid boundary condition falls to the residual load, that is, the remaining load after subtraction of renewable generation. The goal is to include the weather dependence as well as the load curve in the design of the future electricity supply.
After a brief introduction, the present work first turns to the underlying weather-, generation and load data, which form the starting point of the analysis. In addition, some basic concepts of energy economics are discussed, which are needed in the following.
In the main part of the thesis, several algorithms are developed to determine the load flow in a network with a high share of wind and solar energy and to determine the backup supply needed at the same time. Minimization of the energy needed from controllable power plants, the capacity variable power plants, and the capacity of storing serve as guiding principles. In addition, the optimization problem of grid extensions is considered. It is shown that it can be formulated as a convex optimization problem. It turns out that with an optimized, international transmission network which is about four times the currently available transmission capacity, much of the potential savings in backup energy (about 40%) in Europe can be reached. In contrast, a twelvefold increase the transmission capacity would be necessary for a complete implementation of all possible savings in dispatchable power plants.
The reduction of the dispatchable generation capacity and storage capacity, however, presents a greater challenge. Due to correlations in the generation of time series of individual countries, it may be reduced only with difficulty, and by only about 30%.
In the following, the influence of the relative share of wind and solar energy is illuminated and examined the interplay with the line capacitance. A stronger transmission network tends to lead to a higher proportion of wind energy being better integrated. With increasing line capacity, the optimal mix in Europe therefore shifts from about 70% to 80% wind. Similar analyses are carried out for the US with comparable results.
In addition, the cost of the overall system can be reduced. It is interesting at this point that the advantages for the network integration may outweigh higher production costs of individual technologies, so that it is more favourable from the viewpoint of the entire system to use the more expensive technologies.
Finally, attention is given to the flexibility of the dispatchable power plants. Starting from a Fourier-like decomposition of the load curve as it was a few years ago, when hardly renewable generation capacity was present, capacities of different flexibility classes of dispatchable power plant are calculated. For this purpose, it is assumed that the power plant park is able to follow the load curve without significant surplusses or deficits. From this examination, it is derived what capacity must at least be available without having to resort to a detailed database of existing power plants.
Assuming a strong European cooperation, with a stronger international transmission network, the dispatchable power capacity can be significantly reduced while maintaining security of supply and generating relatively small surplusses in dispatchable power plants.
Focus on quantum efficiency
(2014)
Technologies which convert light into energy, and vice versa, rely on complex, microscopic transport processes in the condensed phase, which obey the laws of quantum mechanics, but hitherto lack systematic analysis and modeling. Given our much improved understanding of multicomponent, disordered, highly structured, open quantum systems, this ‘focus on’ collection collects cuttingedge research on theoretical and experimental aspects of quantum transport in truly complex systems as defined, e.g., by the macromolecular functional complexes at the heart of photosynthesis, by organic quantum wires, or even photovoltaic devices. To what extent microscopic quantum coherence effects can (be made to) impact on macroscopic transport behavior is an equally challenging and controversial question, and this "focus on" collection provides a setting for the present state of affairs, as well as for the "quantum opportunities" on the horizon.
In dieser Arbeit wird der Strahltransport in einem CH-Driftröhrenbeschleuniger untersucht. Hierfür wurden numerische Simulationen zur elektromagnetischen Feldverteilung und dem strahldynamischen Einfluss der CH-Driftröhrenkavität durchgeführt. Sie fungiert als Prototyp für CH-Strukturen im Injektor des MYRRHA-Projekts, einem beschleunigergetriebenen System (ADS) zur Transmutation radioaktiven Abfalls. Zudem wird sie an der im Aufbau befindlichen Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum (FRANZ) an der Goethe-Universität Frankfurt am Main experimentell mit Strahl getestet werden. FRANZ dient neben dem Einsatz als Experimentierfeld für neuartige Beschleuniger- und Strahldiagnostikkonzepte vor allem der Forschung im Bereich nuklearer Astrophysik.
In this thesis, a novel 257 kHz chopper device was numerically developed, technically designed and experimentally commissioned; a 4-solenoid, low-energy ion beam transport line was numerically investigated, installed and experimentally commissioned; and a novel massless beam-separation system was numerically developed.
The chopper combines a pulsed electric field with a static magnetic field in an ExB or Wien-filter type field configuration. Chopped beam pulses with a 257 kHz repetition rate and rise times of 110 ns were experimentally achieved using a 14 keV helium beam.
Due to the achieved results, the complete LEBT line for the future Frankfurt Neutron Source FRANZ is ready to deliver a dc or a pulsed beam. At the same time, the LEBT section represents an attractive test stand for the study of low-energy ion beams. It combines magnetic lenses, which allow space-charge compensated beam transport, and a chopper system capable of producing short beam pulses in the hundred nanosecond range. Since these beam pulses are transported onwards, their longitudinal and transverse properties can be analyzed. The pulse duration and time of flight are well below the rise time for the space-charge compensation through residual gas ionization. This opens the possibility for dedicated investigations of the transport of short, low-energy beam pulses including longitudinal and transverse space-charge effects and of relevant issues like the dynamics of space-charge compensation and electron effects in short pulses.
In dieser Arbeit wird der Strahltransport in einer Niederenergietransportsektion (LEBT) untersucht. Die Untersuchungen werden für die Betriebsmodi der im Aufbau befindlichen Neutronenquelle FRANZ an der Frankfurter Goethe-Universität durchgeführt. Hierbei wird die Akzeptanz eines Choppersystems nach der ersten Sektion des Transportwegs sowie die Akzeptanz des auf die zweite Sektion folgenden RFQ betrachtet und bestmöglich erfüllt. Die Auswirkungen durch die Raumladungswirkung des Ionenstrahls werden berücksichtigt, ebenso die mögliche thermische Belastung durch Strahlverlust an den Komponenten entlang des Strahlwegs. Weiterhin wird der Einfluss eines nicht optimierten Einschusses in den RFQ und die sich daraus ergebenden Strahleigenschaften am Ende des RFQs untersucht.
Der Radiofrequenzquadrupol (RFQ) wird typischerweise als erstes beschleunigendes Element in Beschleunigeranlagen eingesetzt. Das elektrische Quadrupolfeld ermöglicht die gleichzeitige Fokussierung und Beschleunigung des Ionenstrahls. Zudem ist der RFQ in der Lage den Gleichstromstrahl von der Ionenquelle zu Teilchenpaketen (Bunche) zu formen, die von den nachfolgenden Driftröhrenbeschleunigern benötigt werden. Ziel der vorliegenden Arbeit war die Untersuchung zur Realisierbarkeit eines 325 MHz 4-rod RFQ Beschleunigers. Die Frequenz von 325 MHz stellt eine ungewöhnlich hohe Betriebsfrequenz für die 4-rod Struktur dar und wird z.B. für den Protonenlinac des FAIR Projektes benötigt. Ein Problem hierbei war, dass durch die bauartbedingten unsymmetrischen Elektrodenaufhängung und der hohen Frequenz ein, das Quadrupolfeld überlagerndes, Dipolfeld erzeugt wird. Dieses störende Feld kann z.B. zu einem Versatz der Strahlachse führen. Hierzu wurde die 4-rod Struktur in Simulationen grundlegend auf Einflüsse von verschiedenen Parametern auf die Resonanzfrequenz und das Dipolfeld untersucht. Es wurden Lösungsstrategien erarbeitet das Diopolfeld zu kompensieren und auf einen Prototypen angewendet. Zudem wurde das Verhalten höherer Schwingungsmoden dieser Struktur simuliert. In diesem Rahmen wurden auch Simulationen zu Randfeldern zwischen den 4-rod Elektroden und der Tankwand untersucht, um nachteilige Effekte für die Strahlqualität auszuschließen. Basierend auf den Simulationsergebnissen wurde ein Prototyp angefertigt. Dieser Prototyp wurde zur Demonstration der Betriebseigenschaften mit Leistungen bis 40 kW getestet. Hierbei wurde die Elektrodenspannung mittels Gammaspektroskopie bestimmt und daraus die Shuntimpedanz berechnet. Diese Werte wurden mit anderen Methoden der Shuntimpedanzbes- timmung verglichen. Außerdem wurden alternative RFQ Resonatorkonzepte ebenfalls auf ihre Realisierbarkeit für den Protonenlinac untersucht. Die Einflüsse verschiedener Parameter auf die Betriebsfrequenz, die Möglichkeiten des Frequenztunings und der Einstellung der longitudinalen Spannungsverteilung gefertigter Modelle wurden in einer Diskussion gegenübergestellt.
We study the equilibrium properties of strongly-interacting infinite parton-hadron matter, characterized by the transport coefficients such as shear and bulk viscosity and electric conductivity, and the non-equilibrium dynamics of heavy-ion collisions within the Parton-Hadron-String Dynamics (PHSD) transport approach, which incorporates explicit partonic degrees of freedom in terms of strongly interacting quasiparticles (quarks and gluons) in line with an equation of state from lattice QCD as well as the dynamical hadronization and hadronic collision dynamics in the final reaction phase. We discuss in particular the possible origin for the strong elliptic flow v2 of direct photons observed at RHIC energies.
The laser-driven acceleration of protons from thin foils irradiated by hollow high-intensity laser beams in the regime of target normal sheath acceleration is reported for the first time. The use of hollow beams aims at reducing the initial emission solid angle of the TNSA source, due to a flattening of the electron sheath at the target rear side. The experiments were conducted at the PHELIX laser facility at the GSI Helmholtzzentrum für Schwerionenforschung GmbH with laser intensities in the range from 10^18 to 10^20 W/cm^2. We observed an average reduction of the half opening angle by (3.07±0.42)° or (13.2±2)% when the targets have a thickness between 12 to 14 μm. In addition, the highest proton energies were achieved with the hollow laser beam in comparison to the typical Gaussian focal spot.
The subatomic world is governed by the strong interactions of quarks and gluons, described by Quantum Chromodynamics (QCD). Quarks experience confinement into colour-less objects, i.e. they can not be observed as free particles. Under extreme conditions such as high temperature or high density, this constraint softens and a transition to a phase where quarks and gluons are quasi-free particles (Quark-Gluon-Plasma) can occur. This environment resembles the conditions prevailing during the early stages of the universe shortly after the Big Bang.
The phase diagram of QCD is under investigation in current and future collider experiments, for example at the Large Hadron Collider (LHC) or at the Facility for Antiproton and Ion Research (FAIR). Due to the strength of the strong interactions in the energy regime of interest, analytic methods can not be applied rigorously. The only tool to study QCD from first principles is given by simulations of its discretised version, Lattice QCD (LQCD).
These simulations are in the high-performance computing area, hence, the numerical aspects of LQCD are a vital part in this field of research. In recent years, Graphic Processing Units (GPUs) have been incorporated in these simulations as they are a standard tool for general purpose calculations today.
In the course of this thesis, the LQCD application cl2qcd has been developed, which allows for simulations on GPUs as well as on traditional CPUs, as it is based on OpenCL. cl2qcd constitutes the first application for Wilson type fermions in OpenCL.
It provides excellent performance and has been applied in physics studies presented in this thesis. The investigation of the QCD phase diagram is hampered by the notorious sign-problem, which restricts current simulation algorithms to small values of the chemical potential.
Theoretically, studying unphysical parameter ranges allows for constraints on the phase diagram. Of utmost importance is the clarification of the order of the finite temperature transition in the Nf=2 chiral limit at zero chemical potential. It is not known if it is of first or second order. To this end, simulations utilising Twisted Mass Wilson fermions aiming at the chiral limit are presented in this thesis.
Another possibility is the investigation of QCD at purely imaginary chemical potential. In this region, QCD is known to posses a rich phase structure, which can be used to constrain the phase diagram of QCD at real chemical potential and to clarify the nature of the Nf=2 chiral limit. This phase structure is studied within this thesis, in particular the nature of the Roberge-Weiss endpoint is mapped out using Wilson fermions.
Das Schwerionenkollisionen Programm der Beschleuniger RHIC und LHC gibt Hinweise auf einen neuen Zustand hadronischer Materie --- das Quark-Gluon Plasma. Dieses zeichnet sich durch eine zumindest partielle Aufhebung des confinements aus, welches besagt, dass keine freien Quarks beochtbar sind.
Aus einer Beschreibung der experimentellen Daten mit relativistischer Hydrodynamik folgen weitere Eigenschaften. So geht das in einer Schwerionenkollision erzeugte Quark-Gluon Plasma nach sehr kurzer Zeit, etwa 1 fm/c, in ein zumindest lokales thermisches Gleichgewicht über. Durch die Lorentzkontraktion der beiden Schwerionen erwartet man, dass der Zustand direkt nach der Kollision durch eine Impulsanisotropie in der transversal-longitudinalen Ebene bestimmt wird. Somit setzt das Erreichen eines thermischen Gleichgewichts zunächst eine Isotropisierung voraus. Bisherige Studien haben gezeigt, dass gluonische Moden bei dieser Isotropisierung durch Verursachung einer chromo-Weibel Instabilität eine entscheidende Rolle spielen.
Weiterhin verhält sich das Quark-Gluon Plasma wie eine fast perfekte Flüssigkeit. Eine Berücksichtigung dissipativer Terme in der hydrodynamischen Beschreibung erfordert das Hinzufügen weiterer Terme zu den entsprechenden Bewegungsgleichungen. Diese sind proportional zu Transportkoeffizienten, welche durch die zugrunde liegende mikroskopische Theorie festgelegt sind.
Diese Theorie ist Quantenchromodynamik. Sie beschreibt die starke Wechselwirkung der Quarks und Gluonen und ist ein fundamentaler Baustein des Standardmodells der Teilchenphysik. Da im Regelfall Prozesse der starken Wechselwirkung nichtperturbativ sind, beschreiben wir QCD unter Verwendung einer Gitterregularisierung. Diese beruht auf einer Diskretisierung der vierdimensionalen Euklidischen Raumzeit durch einen Hyperkubus mit periodischen Randbedingungen und ermöglicht ein Lösen der QCD mit numerischen Methoden. Allerdings ist die Anwendung der Gittereichtheorie auf Systeme im thermischen Gleichgewicht beschränkt und kann somit keine Prozesse beschreiben, die auf Echtzeit basieren.
Transportkoeffizienten entsprechen Proportionalitätskoeffizienten, die die Relaxation einer Flüssigkeit oder eben eines Quark-Gluon Plasmas von einer kleinen Störung beschreiben. Damit sind sie unmittelbar mit der Zeit verknüpft. Über Kubo-Formeln lassen sie sich jedoch mit Gleichgewichtserwartungswerten retardierter Korrelatoren verknüpfen und werden so in Gitter QCD zugänglich.
In der vorliegenden Dissertation berechnen wir den Transportkoeffizienten κ in Gittereichtheorie für das Yang-Mills Plasma. Dabei nutzen wir aus, dass dieser Transportkoeffizient eine triviale analytische Fortsetzung vom retardierten zum Euklidischen Korrelator besitzt, welcher direkt in Gittereichtheorie zugänglich ist. Es ist die erste nichtperturbative Berechnung eines Transportkoeffizienten in QCD ohne weitere Annahmen, wie die Maximum Entropie Methode oder Ansätze, zu treffen.
This thesis serves two main purposes:
1. The introduction of a novel experimental method to investigate phase change dynamics of supercooled liquids
2. First-time measurements for the crystallization behaviour for hydrogen isotopes under various conditions
1) The new method is established by the synergy of a liquid microjet of ~ 5 µm diameter and a scattering technique with high spatial resolution, here linear Raman spectroscopy. Due to the high directional stability and the known velocity of the liquid filament, its traveling axis corresponds to a time axis static in space. Utilizing evaporative cooling in a vacuum environment, the propagating liquid cools down rapidly and eventually experiences a phase transition to the crystalline state. This temporal evolution is probed along the filament axis, ultimately resulting in a time resolution of 10 ns. The feasibility of this approach is proven successfully within the following experiments.
2) A main object of study are para-hydrogen liquid filaments. Raman spectra reveal a temperature gradient of the liquid across the filament. This behaviour can quantitatively be reconstructed by numerical simulations using a layered model and is rooted in the effectiveness of evaporative cooling on the surface and a finite thermal conductivity. The deepest supercoolings achieved are ~ 30% below the melting point, at which the filament starts to solidify from the surface towards the core. With a crystal growth velocity extracted from the data the appropriate growth mechanism is identified. The crystal structure that initially forms is metastable and probably the result of Ostwald’s rule of stages. Indications for a transition within the solid towards the stable equilibrium phase support this interpretation.
The analog isotope ortho-deuterium is evidenced to behave qualitatively similar with quantitative differences being mass related.
In further measurements, isotopic mixtures of para-hydrogen and ortho-deuterium are investigated. It is found that the crystallization process starts earlier and lasts significantly longer compared to the pure substances with the maximum values between 20-50% ortho-deuterium content. A solely temperature based explanation for this effect can be excluded. The difference in the quantum character and hence effective size of the isotopes suggests a strong influence of the progressing liquid-solid-interface. Small dilutions of each para-hydrogen and ortho-deuterium with neon show an even more extended crystallization process compared to above isotopic mixtures. Additionally, the crystal is strongly altered in favor of the equilibrium lattice structure of neon.
In dieser Arbeit wurde die automatisierte Separation von Heliummono-, -di- und -trimeren beschrieben. Unter Nutzung ihrer unterschiedlichen De-Broglie-Wellenlängen wurden die verschiedenen Fraktionen mit einem Nanogitter getrennt. Zunächst wurden einige physikalische Grundlagen zu den genannten Atom- bzw. Molekülspezies, der hier auftretenden Bindungsform der Van-der-Waals-Bindung und insbesondere zur Materiewellenbeugung gelegt. Anschließend wurde der Versuchsaufbau dargestellt.
Bei der Durchführung wurden zunächst die drei jeweils vorhandenen Gitter und Spalte zu je einer Messung kombiniert und die beste Kombination für die weiteren Messungen ausgewählt. Das Experiment wurde weitergeführt, indem für verschiedene Temperaturen und Quelldrücke jeweils ein Beugungsspektrum von der für alle Heliumteilchen identischen nullten Ordnung bis zur ersten Ordnung der Heliummonomere aufgenommen wurde.
In der Auswertung wurde die Detektionswahrscheinlichkeit auf rund 37 % abgeschätzt. Weiterhin wurden die Ereignisse in den ersten Maxima der einzelnen Heliumfraktionen gezählt und so unter Verwendung der Detektionswahrscheinlichkeit molare Konzentrationen für das Heliumdi- und -trimer berechnet. Dabei wurden Anteile von bis zu 0,45 % für das Heliumdimer und 4,2 % für das Heliumtrimer erreicht. Diese Molanteile und ihre Abhängigkeit von Druck und Temperatur stimmen qualitativ gut mit der Literatur überein, quantitativ lassen sie sich u. a. wegen abweichender Nachweismethoden kaum vergleichen.
Anschließend wurde der Abstand von Düse und Skimmer variiert mit dem Ergebnis, daß eine Veränderung im betrachteten Bereich keinen nennenswerten Einfluß auf die Bildungsraten von Di- und Trimeren hat. Weiterhin wurde die auf zweierlei Weise bstimmbare Geschwindigkeit der Heliumteilchen im Gasjet ermittelt und verglichen.
Die beiden Geschwindigkeiten weichen lediglich im unteren Temperaturbereich signifikant voneinander ab, wofür plausible Erklärungsansätze dargelegt wurden.
Die Größe der Quellregion der betrachteten Heliumcluster wurde unter geometrischen Gesichtspunkten und unter Extrapolation der für verschiedene Spaltbreiten gemessenen Maximumsbreiten untersucht. Im Ergebnis wird die Quellbreite zu 58,5 μm abgeschätzt.
Die Automatisierung des Aufbaus erlaubte eine Vielzahl von systematischen Messungen, die ohne diese Automatisierung sehr zeitaufwendig gewesen wären. Insbesondere wurden in kurzer Zeit - wie zuvor geschildert - die Beugungsmuster von drei Gittern in Kombination mit je drei verschiedenen Kollimationspalten sowie die Abhängigkeit der Heliumdimer- und -trimerbildung von Temperatur, Druck und Abstand von Düse und Skimmer untersucht. Die Automatisierung erlaubt für zukünftige Messungen, z. B. in Strahlzeiten am Freien Elektronenlaser FLASH, jeweils in situ die Clusterbildung zu untersuchen. Möge das beschriebene Experiment nicht nur diese, sondern auch viele weitere Messungen beschleunigen helfen und so zum gesellschaftlichen Erkenntnisgewinn beitragen!
Hauptbestandteil dieser Masterarbeit war es, ein neues COLTRIMS Experiment zu entwerfen und zu bauen. Den gesamten Aufbau mit allen dazugehörigen Komponenten wie verschiedensten Vakuumkomponenten sowie Detektoren und Elektronik unter realen Messbedingungen zu testen, bildete schließlich den Abschluss des praktischen Teils. Sowohl einige Kalibrationsmessungen mit dem neuen Aufbau, als auch die ersten Ergebnisse der Messungen mit der chiralen Substanz Bromchlorfluormethan wurden hier vorgestellt.
Ein Großteil der Projektarbeit bestand darin, Überlegungen für die vielen verschiedenen Bauteile anzustellen, diese mit Rücksprache erfahrener Gruppenmitglieder zu verbessern und schließlich zu konstruieren und zu zeichnen...
In der vorliegenden Arbeit werden Stabilitätstests an einer Vieldrahtproportionalkammer nach ALICE-Geometrie vorgestellt. Wegen elektrischer Instabilitäten, das heißt dem Abschalten der Hochspannungsversorgung einzelner Kammern aufgrund von Entladungen an der Ausleseebene, wurde die ALICE-TPC bisher mit zwei unterschiedlichen Gasmischungen betrieben. Es wurden die Gasmischungen Ne-CO2 (90-10) und Ne-CO2-N2 (90-10-5) verwendet.
In dieser Arbeit soll nun mit systematischen Stabilitätstests mit einer α- und einer γ-Quelle am Testaufbau am IKF untersucht werden, ob eine Beimischung von Stickstoff zur Gasmischung Ne-CO2 wirklich positive Auswirkungen auf die elektrische Stabilität der Vieldrahtproportionalkammern der ALICE-TPC hat. Messungen mit der Gasmischung Ar-CO2 (90-10) dienen dabei als Referenzmessungen.
Zunächst wurden vorbereitende Messungen zum bessseren Verständnis des Einflusses der Ausleseelektronik auf die Padsignale am Testaufbau durchgeführt. Die Untersuchung der von einem Pulser induzierten Signale zeigt, dass keine Korrektur der Nullverschiebung nötig ist. Auÿerdem konnten durch diese Messung die Verstärkungsfaktoren des verwendeten Hauptverstärkers ermittelt werden. Ein weiterer wichtiger Faktor für Stabilitätstests ist die Genauigkeit des Mischungsverhältnisses des Gases. Um eine hohe Genauigkeit zu gewährleisten, wurde der Gasfliss der verschiedenen Kanäle des zur Herstellung der Gasmischung genutzten Gasmischers überprüft und so die Bereiche für den Gasfluss gefunden, in denen sich das Mischungsverhältnis nicht ändert.
Eine gute Auflösung kann mit Vieldrahtproportionalkammern erreicht werden, wenn die Kammern auch bei einem möglichst groÿen Gain noch stabil betrieben werden können. Um den Gain aus Anodestrommessungen bestimmen zu können, wurden die Primärströme für die α- und die γ-Quelle ermittelt.
Frühere Messungen mit einer γ-Quelle, aufgrund derer Stickstoff als Beimischung in den Fokus rückte, ließen vermuten, dass sich durch die Beimischung von Stickstoff die Stabilität der Auslesekammern verbessern lassen würde. Die durchgeführten Messungen mit der γ-Quellen sollten diese Aussage nun überprüfen. Sie können die früheren Ergebnisse jedoch nicht bestätigen, sondern zeigen, dass die Gasmischung Ne-CO2-N2 (90-10-5) im Gegensatz zur Gasmischung Ne-CO2 (90-10) bei Bestrahlung mit der γ-Quelle zu instabileren Bedingungen für die Auslesekammer führt.
Zum Erzeugen der Anodensignale bei Stabilitätstests wurden erstmals geladene Teilchen aus einer α-Quelle verwendet. Im Gegensatz zur Messung mit der γ-Quelle kann die Auslesekammer bei der Beimischung von Stickstoff zu Ne-CO2 bis zu einem um 25% höheren Gain stabil betrieben werden als bei der Gasmischung Ne-CO2.
Aufgrund des je nach verwendeter Quelle unterschiedlichen Effekts auf die Stabilität der Auslesekammer lässt sich nicht mit absoluter Sicherheit sagen, ob eine Beimischung von Stickstoff die gewünschten Auswirkungen hat. Allerdings werden die Spuren in der ALICE-TPC durch geladene Teilchen hervorgerufen, sodass die Messungen mit der α-Quelle den experimentellen Bedingungen bei ALICE näher kommen als die Messungen mit der γ-Quelle und deshalb die Gasmischung Ne-CO2-N2 (90-10-5) zu bevorzugen ist.
Tuning and optimization of the field distribution for 4-rod radio frequency quadrupole linacs
(2014)
In this thesis, the tuning process of the 4-rod Radio Frequency Quadrupole has been analyzed and a theory for the prediction of the tuning plate's influence on the longitudinal voltage distribution was developed together with RF design options for the optimization of the fringe fields.
The basic principles of the RFQ's particle dynamics and resonant behavior are introduced in the theory part of this thesis. All studies that are presented are based on the work on four RFQs of recent linac projects. These RFQs are described in one chapter. Here, the projects are introduced together with details about the RFQ parameters and performance. In the meantime two of these RFQs are in full operation at NSCL at MSU and FNAL. One is operating in the test phase of the MedAustron Cancer Therapy Center and the fourth one for LANL is about to be built. The longitudinal voltage distribution has been studied in detail with a focus on the influence of the RF design with tuning elements and parameters like the electrodes overlap or the distance between stems. The theory for simulation methods for the field flatness that were developed as part of this thesis, as well as its simulation with CST MWS have been analyzed and compared to measurements. The lumped circuit model has proven to predict results with an accuracy that can be used in the tuning process of 4-rod RFQs. Together with results from the tuning studies, the studies on the fringe fields of the 4-rod structure lead to a proposal for a 4-rod RFQ model with an improved field distribution in the transverse and longitudinal electric field.
Fast nuclei are ionizing radiation which can cause deleterious effects to irradiated cells. The modelling of the interactions of such ions with matter and the related effects are very important to physics, radiobiology, medicine and space science and technology. A powerful method to study the interactions of ionizing radiation with biological systems was developed in the field of microdosimetry. Microdosimetry spectra characterize the energy deposition to objects of cellular size, i.e., a few micrometers.
In the present thesis the interaction of ions with tissue-like media was investigated using the Monte Carlo model for Heavy-Ion Therapy (MCHIT) developed at the Frankfurt Institute for Advanced Studies. MCHIT is a Geant4-based application intended to benchmark the physical models of Geant4 and investigate the physical properties of therapeutic ion beams. We have implemented new features in MCHIT in order to calculate microdosimetric quantities characterizing the radiation fields of accelerated nucleons and nuclei. The results of our Monte Carlo simulations were compared with recent experimental microdosimetry data.
In addition to microdosimetry calculations with MCHIT, we also investigated the biological properties of ion beams, e.g. their relative biological effectiveness (RBE), by means of the modified Microdosimetric-Kinetic model (MKM). The MKM uses microdosimetry spectra in describing cell response to radiation. MCHIT+MKM allowed us to study the physical and biological properties of ion beams. The main results of the thesis are as follows:
MCHIT is able to describe the spatial distribution of the physical dose in tissue-like media and microdosimetry spectra for ions with energies relevant to space research and ion-beam cancer therapy; MCHIT+MKM predicts a reduction of the biological effectiveness of ions propagating in extended medium due to nuclear fragmentation reactions; We predicted favourable biological dose-depth profiles for monoenergetic helium and lithium beams similar to the one for carbon beam. Well-adjusted biological dose distributions for H-1, He-4, C-12 and O-16 with a very flat spread-out Bragg peak (SOBP) plateau were calculated with MCHIT+MKM; MCHIT+MKM predicts less damage to healthy tissues in the entrance channel for SOBP He-4 and C-12 beams compared to H-1 and O-16 ones. No definitive advantages for oxygen ions with respect to carbon were found.
Das Ziel dieser Bachelorarbeit war es, einen Überblick über die Größe der, durch Einbeziehung des Loop-Level-Diagrammes entstehenden, Korrekturen zu erhalten. Die Ergebnisse sollen eingrenzen, wann diese Korrekturen wichtig oder sogar dominant sind. Der Einfluss der Korrekturen lässt sich gut mit Hilfe von g0 und g00 einschätzen. So gilt für g0 gerade Γntl = 1.33 Γ, die Korrekturen sind also für die Berechnung wichtig jedoch nicht dominant. Für g00 beginnen die Korrekturen gerade dominant gegenüber den Berechnungen in erster Ordnung zu werden (es gilt hier Γntl = 2 Γ). Wie anhand von Tabelle 7.2 zu sehen werden die Korrekturen, abhängig von der Massenkonfiguration, ab etwa 1.6 − 2.2mS wichtig und ab etwa 2.2 − 3.4mS dominant. Für sehr kleine Massen mΦ liegt diese Grenze natürlich niedriger, es wurde jedoch gezeigt, dass die Korrekturen selbst für mΦ = 10−13mS erst ab etwa 0.65mS dominant sind. Praktisch dürften die Korrekturen daher nur sehr selten, wenn überhaupt für Werte von g < mS, eine nennenswerte Rolle spielen. Welchen Einfluss die Korrekturen bei realen Zerfallskanälen haben, sollte nun anhand der Zerfälle von f0(500), f0(980), f0(1370) und f0(1500) in Pionen gezeigt werden. Zusätzlich wurde für den Zerfall von f0(500) die Berechnung ein weiteres Mal mit endlichem (niedrigen) Cutoff durchgeführt, um dessen Auswirkungen auf die Ergebnisse zu betrachten. Dies ist dann wichtig, wenn die beobachteten Teilchen eine endliche, räumliche Ausdehnung haben (beispielsweise wenn wie hier Hadronenzerfälle betrachtet werden). Für f0(980) und f0(1500) stellen sich die Korrekturen, wie aufgrund der vorherigen Ergebnisse und des sehr kleinen Verhältnisses von Zerfallsbreite und Masse bereits erwartet, mit 1.22% beziehungsweise 0.032% als sehr gering heraus. Für f0(1370) ist das Verhältnis bereits deutlich größer, hier sind die Korrekturen mit 7.43% bereits im hohen einstelligen Prozentbereich und damit für genaue Rechnungen durchaus wichtig. Für f0(500) zeigt sich nun wiederum, dass die Korrekturen sehr groß sind, die Loop-Level-Kopplungskonstanten ist um 24.57% kleiner. Für diesen Zerfalll sollte also bereits bei einer Abschätzung das Loop-Level Diagramm einbezogen werden. Stellt man die Berechnung mit endlichem Cutoff an, so stellt sich heraus, dass sich die exakten Werte zwar durchaus verändern, die Änderungen sind jedoch nicht so groß dass die Ergebnisse drastisch abweichen. Die Kopplungskonstante wird bei dem angenommenen Cutoff Λ = 0.95 GeV um 6.47% größer. In allen Varitionen fallen die Korrekturen kleiner als 33% aus. Als letztes ist die Genauigkeit der hier erhaltenen Ergebnisse zu beurteilen. Theoretisch sollten die numerischen Berechnungen mit beliebiger Genauigkeit durchführbar sein. Bei den im Rahmen dieser Arbeit durchgeführten Berechnungen trat jedoch das Problem auf, dass die numerischen Berechnungen des Integrals für Winkel sehr nahe 0° beziehungsweise 180° chaotisch wurden. Die Winkelintegration wurde daher nur von −0.99999 bis 0.99999 durchgeführt. Da das Impulsintegral bei diesen Winkeln etwa von der Größe 0.1 − 2 ist, abhängig von der Massenkonfiguration, entstehen dadurch Fehler der Größenordnung 10−5. Die Ursache für diesen Fehler liegt vermutlich darin begründet, dass sich für diese Winkel jeweils der dritte Pol auf den ersten und der vierte Pol auf den zweiten Pol verschiebt. In diesem Fall entsteht zwar an gleicher Stelle im Zähler eine Nullstelle (schaut man sich P1, P2 und P3 an, so befinden sich an diesen Stellen auch nur einfache Pole), die numerische Berechnung kann dadurch allerdings problematisch werden. Im Rahmen dieser Arbeit wurde eine Genauigkeit von 4 Nachkommastellen allerdings als ausreichend betrachtet. Abschließend lässt sich sagen, dass die Korrekturen in (fast) allen betrachteten Fällen klein sind. In Einzelfällen können sie allerdings durchaus relevante Dimensionen erreichen, wie am f0(500) Zerfall zu sehen ist. In zukünftigen Arbeiten sollte dieses Thema also auch für Wechselwirkungen mit Ableitungen und nicht-skalare Teilchen aufgegriffen werden.
Ziel dieser Arbeit ist es einen geeigneten Szintillationsdetektor für die Messungen differentieller Neutroneneinfangquerschnitte im FRANZ-Aufbau zu finden. Dafür wurde untersucht inwiefern sich das Szintillatormaterial LaBr3(Ce) (Lanthanbromid) eignet. Verwendet wurde eine Anordnung von zwei Szintillationsdetektoren dieses Typs. Mit Hilfe von Kalibrationsquellen wurden charakteristische Größen, wie Effizienz (Nachweiswahrscheinlichkeit) und Auflösungsvermögen untersucht und die ermittelten Werte mit GEANT-3.21 Simulationen [2] verglichen.
Im Rahmen dieser Arbeit sollte ein bereits im Jahr 1989 gebauter Neutronenkollimator für den zukünftigen Einsatz an der Frankfurter Neutronenquelle am Stern Gerlach Zentrum (FRANZ) getestet und simuliert werden.
Hierfür wurde der Neutronenkollimator zunächst probeweise aufgebaut und die einzelnen Bauteile ausgemessen. Zunächst wurde die Zusammensetzung der Kollimatorbauteile überprüft und deren Dichte bestimmt. Zu diesem Zweck wurde mit einigen ausgesuchten Bauteilen des Kollimators eine Gammatransmissionsmessung mit Na-22 und Ba-133 als Gammaquelle durchgeführt. Die Messwerte dieser Messung wurden ausgewertet und mit entsprechend angefertigten Simulationen mit GEANT 3 verglichen.
Für die Simulationen wurden die Bauteile, mit denen die Messung durchgeführt wurde, detailgetreu und mit der zu bestätigenden Zusammensetzung sowie einer geschätzten Dichte programmiert. Über die Anpassung der Simulationsergebnisse an die experimentellen Werte, konnte so die Materialzusammensetzung bestätigt und für die jeweiligen Bauteile jeweils eine Dichte ermittelt werden. Für das Lithiumcarbonatrohr wurde eine Dichte von 1,422 g/cm³ ermittelt, für die drei Bauteile aus Borcarbid jeweils 1,169 g/cm³, 1,073 g/cm³, 0,832 g/cm³. Aufgrund von vielen produktionsbedingten, unterschiedlich stark ausgeprägten Lufteinschlüsse in den Borcarbidbauteilen des Kollimators, konnte keine identische Dichte für alle Bauteile gefunden werden.
Nach Untersuchung des Kollimators wurde der Neutronendurchgang mit dem Simulationspaket GEANT 3 simuliert. Die vollständige Geometrie des Kollimators wurde in GEANT 3 programmiert und dabei Bohrlöcher und Besonderheiten einzelner Bauteile berücksichtigt. Um die Simulationszeit zu verkürzen, wurde der Teilchendurchgang durch den gesamten Kollimator nicht in einem Durchgang simuliert, sondern stückweise in vier Stufen entlang des Kollimators. Um die Komplexität der Simulation zu beschränken wurde für alle Kollimatorbauteile aus Borcarbid ein Dichtewert eingesetzt, jedoch jede Simulationsreihe mit den drei verschiedenen Werten, die bei der Gammatransmissionsmessung ermittelt wurden, durchgeführt.
Beim anschließenden Vergleich der Simulationsergebnisse, konnte zwischen den einzelnen Dichtewerten kein signifikanter Unterschied erkannt werden. Die Unsicherheiten in der Dichtebestimmung sind daher vernachlässigbar.
Jede Simulationsreihe wurde mit zwei verschiedenen Neutronenverteilungen durchgeführt: eine Neutronenverteilung bei 1,92 MeV Protonenenergie und eine bei 2 MeV Protonenenergie.
Anhand der Simulationsergebnisse konnte ermittelt werden, dass die auf den Detektor eintreffende Neutronenintensität bis zu einem Abstand von etwa 20 cm vom Strahlachsenzentrum um Faktor 4·10-5 geschwächt wird. Ab 20 cm Strahlachsenabstand beträgt die Transmission der Neutronen etwa 10-3.
Die Bleiabschirmung, die an den Kollimator montiert wird und den Detektor vor den infolge von Neutroneneinfängen emittierten Gammaquanten vor dem Detektor abschirmen soll, reduziert die Zahl der Gammaquanten ebenfalls um Faktor 10-4.
Für den zukünftigen Einsatz des Neutronenkollimators an FRANZ müssen zunächst die fehlenden Kollimatorbauteile ersetzt oder nachgebaut werden. Dazu gehören zwei zylinderförmige innere Einsätze aus Borcarbid sowie eine Verlängerung des Innenrohrs aus Lithiumcarbonat. Neue Geometrien oder Materialzusammensetzungen können durch leichte Modifikation der bereits in GEANT 3 programmierten Kollimator-geometrie getestet und untersucht werden.
Für die Positionierung des Kollimators und Aufstellung vor dem 4 π BaF2-Detektor muss zusätzlich eine Platte angefertigt werden, an welche die Bleiabschirmung montiert und auf welcher der Kollimator stabil aufgebaut werden kann. Nach Fertigstellung der fehlenden Bauteile und der Platte, kann der Kollimator aufgebaut und in der Praxis getestet werden.
In dieser Arbeit wurde der langsame Neutroneneinfang (s-Prozess) mit dem Nukleosynthese-Programm NETZ simuliert. Ziel solcher Programme ist es, die solare Häufigkeitsverteilung zu reproduzieren.
Der s-Prozess dient der Synthese von Elementen schwerer als Eisen und ereignet sich in astrophysikalischen Szenarien mit relativ geringen Neutronendichten. Dadurch sind die Neutroneneinfangzeiten meist größer als die Betazerfallszeiten und der Prozesspfad folgt dem Stabilitätstal in der Nuklidkarte. Aus diesem Grund sind die Reaktionsraten gut messbar und es steht ein umfangreiches Daten-Netzwerk zur Verfügung, welches in die Simulationen einfließen kann.
Man unterschiedet zwischen der schwachen- und der Hauptkomponente des s-Prozesses. Die schwache Komponente findet in massereichen Sternen (M > 8M⊙) beim Helium-Kernbrennen und Kohlenstoff-Schalenbrennen statt. Bei Temperaturen über 2.5 × 108 K wird die Reaktion 22Ne(α ,n)25Mg aktiviert, welche Neutronen liefert, die von der Eisensaat eingefangen werden. Bei einer mittleren Neutronendichte von 106/cm3 reicht die Neutronenbestrahlung jedoch nicht aus, um den Synthesefluss über die abgeschlossene Neutronenschale bei N = 50 hinweg zu treiben. Folglich werden nur Isotope zwischen Eisen und Yttrium (56 < A < 90) aufgebaut.
Schwerere Isotope (90 ≤ A ≤ 208) werden dagegen in der Hauptkomponente synthetisiert. Diese findet in thermisch pulsierenden AGB-Sternen statt, in denen während des Helium-Schalenbrennens Neutronen hauptsächlich über die Reaktion 13C(α ,n)16O zur Verfügung gestellt werden.
Am Ende der jeweiligen Brennphasen gibt es einen Anstieg von Temperatur und Neutronendichte, welche jedoch nicht die globale Häufigkeitsverteilung, wohl aber Verzweigungspunkte beeinflussen können. An diesen Punkten liegen die Neutroneneinfang- und Betazerfallszeiten in der gleichen Größenordnung, sodass der s-Prozesspfad aufspaltet.
Hinzu kommt, dass unter stellaren Bedingungen die Reaktionsraten starken Änderungen unterworfen sein können. Bei hohen Temperaturen und Dichten befinden sich die Kerne in angeregten Zuständen, die wie auch der Grundzustand Neutronen einfangen oder radioaktiv zerfallen können, jedoch bei veränderten Raten. Dieser Sachverhalt kann einen Einfluss auf die Häufigkeitsverteilung haben.
Das umfangreiche Reaktionsnetzwerk des s-Prozesses kann schnell und mit guter Genauigkeit mit dem Programm NETZ berechnet werden. Dabei muss dem Programm ein Neutronenpuls - der zeitliche Verlauf von Neutronendichte und Temperatur - vorgegeben werden. Ziel dieser Arbeit war es, einen geeigneten solchen Puls zu finden, um die bisherigen Ergebnisse von NETZ zu optimieren. Außerdem wurde eine Aktualisierung der Reaktionsraten und solaren Häufigkeitsverteilung durchgeführt.
Die neuen Neutronenpulse für die schwache- und Hauptkomponente liefern eine Verbesserung in der Übereinstimmung von berechneter und solarer Häufigkeit. Dabei konnte für die Hauptkomponente sowohl ein Profil mit einem rechteckigen als auch mit einem exponentiellen Verlauf der Neutronendichte gefunden werden.
Darüber hinaus bietet NETZ die Möglichkeit, den Einfluss veränderter Reaktionsraten auf die Häufigkeitsverteilung abzuschätzen. Dazu steht inzwischen auch ein Online-Interface zur Verfügung. Dies ist besonders interessant, wenn es neue Messungen z.B. für Neutroneneinfangreaktionen gibt und man die Relevanz für den s-Prozess bestimmen möchte. So konnte in dieser Arbeit die Bedeutung der kürzlich neu gemessenen Raten für 63,65Cu(n,γ) und 69,71Ga(n,γ) beurteilt werden.
In this work we study basic properties of unstable particles and scalar hadronic resonances, respectively, within simple quantum mechanical and quantum field theoretical (effective) models. The term 'particle' is usually assigned to entities, described by physical theories, that are able to propagate over sufficiently large time scales (e.g. from a source to a detector) and hence could be identified in experiments - one especially should be able to measure some of their distinct properties like spin or charge. Nevertheless, it is well known that there exists a huge amount of unstable particles to which it seems difficult to allocate such definite values for their mass and decay width. In fact, for extremely short-lived members of that species, so called resonances, the theoretical description turns out to be highly complicated and requires some very interesting concepts of complex analysis.
In the first chapter, we start with the basic ideas of quantum field theory. In particular, we introduce the Feynman propagator for unstable scalar resonances and motivate the idea that this kind of correlation function should possess complex poles which parameterize the mass and decay width of the considered particle. We also brie
y discuss the problematic scalar sector in particle physics, emphasizing that hadronic loop contributions, given by strongly coupled hadronic intermediate states, dominate its dynamics. After that, the second chapter is dedicated to the method of analytic continuation of complex functions through branch cuts. As will be seen in the upcoming sections, this method is crucial in order to describe physics of scalar resonances because the relevant functions to be investigated (namely, the Feynman propagator of interacting quantm field theories) will also have branch cuts in the complex energy plane due to the already mentioned loop contributions. As is consensus among the physical community, the understanding of the physical behaviour of resonances requires a deeper insight of what is going on beyond the branch cut. This will lead us to the idea of a Riemann surface, a one-dimensional complex manifold on which the Feynman propagator is defined.
We then apply these concepts to a simple non-relativistic Lee model in the third chapter and demonstrate the physical implications, i.e., the motion of the propagator poles and the behaviour of the spectral function. Besides that, we investigate the time evolution of a particle described by such a model. All this will serve as a detailed preparation in order to encounter the rich phenomena occuring on the Riemann surface in quantum field theory. In the last chapter, we finally concentrate on a simple quantm field theoretical model which describes the decay of a scalar state into two (pseudo)scalar ones. It is investigated how the motion of the propagator poles is in
uenced by loop contributions of the two (pseudo)scalar particles. We perform a numerical study for a hadronic system involving a scalar seed state (alias the σ-meson) that couples to pions. The unexpected emergence of a putative stable state below the two-pion threshold is investigated and it is claeifieed under which conditions such a stable state appears.
This work deals with the determination of the scale parameter ΛM̄S̄ from lattice QCD and perturbation theory results of the static quark-antiquark potential for nf = 2. The investigation is done in momentum space. Lattice methods as well as perturbation theory calculations are introduced. Another part of this work concerns the calculation of the quark-antiquark potential from gauge link configurations for nf = 2 + 1 + 1.
Low-energy effective models for two-flavor quantum chromodynamics and the universality hypothesis
(2014)
Die Untersuchung der Natur auf extremen Längenskalen hat seit jeher zu bahnbrechenden Einsichten und Innovationen geführt. Insbesondere zu unserem heutigen Verständnis, dass Nukleonen (Protonen und Neutronen) aus Quarks zusammengesetzt sind, die infolge der starken Wechselwirkung, vermittelt durch Gluonenaustausch, gebunden sind. Mit dem Aufkommen des Quarkmodells wurde bald die Quantenchromodynamik (QCD) erfolgreich in der Beschreibung vieler messbarer Eigenschaften der starken Wechselwirkung. Um es mit Goethe zu sagen: mit den modernen Hochenergie-Beschleuniger-Experimenten wird versucht unser Verständnis davon zu verbessern, was die Welt im Innersten zusammenhält. Am Large Hadron Collider (LHC) werden beispielsweise Protonen derart beschleunigt und miteinander zur Kollision gebracht, dass bislang unerreichte Energiedichten auftreten, infolge derer Temperatur und baryochemisches Potential Werte annehmen, die mit denen des frühen Universums vergleichbar sind. Es gibt sowohl theoretische als auch experimentelle Hinweise darauf, dass hadronische Materie mit zunehmender Temperatur und/oder zunehmendem baryochemischen Potentials einen Phasenübergang durchläuft, hin zu einem exotischen Zustand, der als Quark-Gluon-Plasma bekannt ist. Dieser Übergang wird begleitet von einem sogenannten chiralen Übergang. Es ist eine wichtige Frage, ob es sich bei diesem chiralen Übergang um einen echten Phasenübergang (von erster bzw. zweiter Ordnung) handelt, oder ob ein sogenannter crossover vorliegt. Einige Resultate deuten auf einen crossover für verschwindendes baryochemisches Potential und einen Phasenübergang erster Ordnung für verschwindende Temperatur hin, lassen jedoch noch keinen endgültigen Schluss zu, ob dies tatsächlich der Realität entspricht. Wenn ja, so liegt die Annahme nahe, dass ein kritischer Endpunkt existiert, an dem der chirale Übergang von zweiter Ordnung ist. In der Tat existiert ein kritischer Endpunkt in einigen theoretischen Zugängen zur Beschreibung des chiralen Phasenübergangs, deren Aussagekraft seit jeher lebhaft diskutiert wird. Ein zentrales Ziel des zukünftigen CBM-Experiments an der GSI in Darmstadt ist es, die Existenz im Experiment zu überprüfen.
In der Nähe des QCD-(Phasen)übergangs ist es die Abwesenheit jeglicher perturbativer Entwicklungsparameter, die exakte analytische Berechnungen verbietet. Das gleiche gilt für realistische effektive Modelle für QCD. Nichtperturbative Methoden sind daher unverzichtbar für die Untersuchung des QCD-Phasendiagramms. Zu den populärsten dieser Zugänge gehören Gitter-QCD, Resummierungsverfahren, der Dyson-Schwinger-Formalismus, sowie die Funktionale Renormierungsgruppe (FRG). All diese Methoden ergänzen sich gegenseitig und werden zum Teil auch miteinander kombiniert. Eine der Stärken der FRG-Methode ist, dass sie nicht nur erfolgreich auf effektive Modelle angewendet werden kann, sondern auch auf QCD selbst. Für letztere Ab-Initio-Rechnungen sind die aus effektiven Modellen für QCD gewonnenen Resultate von grossem Wert.
Der Schwerpunkt der vorliegenden Arbeit liegt auf der Fragestellung von welcher Ordnung der chirale Phasenübergang im Fall von genau zwei leichten Quarksorten ist. Problemstellungen wie die Suche nach einer Antwort auf die Frage nach den Bedingungen für die Existenz eines Phasenübergangs zweiter Ordnung, die Bestimmung der Universalitätsklasse in diesem Fall etc. erfordern Wissen aus verschiedenen Gebieten.
Kapitel 1 besteht aus einer allgemeinen Einleitung.
In Kapitel 2 stellen wir zunächst einige allgemeine Aspekte von Phasenübergängen dar, die von besonderer Relevanz für das Verständnis des Renormierungsgruppen-Zugangs zu ebendiesen sind. Unser Fokus liegt hierbei auf einer kritischen Untersuchung der Universalitätshypothese. Insbesondere die Rechtfertigung des linearen Sigma-Modells als effektive Theorie für den chiralen Ordnungsparameter beruht auf der Gültigkeit selbiger.
Kapitel 3 beschäftigt sich mit dem chiralen Phasenübergang von einem allgemeinen Standpunkt aus. Wir ergünzen wohlbekannte Fakten durch eine detaillierte Diskussion der sogenannten O(4)-Hypothese. Die Überprüfung der Gültigkeit selbiger wird schließlich in Kapitel 6 und 7 in Angriff genommen.
In Kapitel 4 stellen wir die von uns benutzte FRG-Methode vor. Außerdem diskutieren wir den Zusammenhang zwischen effektiven Theorien für QCD und der QCD selbst.
Kapitel 5 behandelt ein mathematisches Thema, das für alle unserer Untersuchungen unabdingbar ist, nämlich die systematische Konstruktion polynomialer Invarianten zu einer gegebenen Symmetrie. Wir präsentieren einen einfachen, jedoch neuartigen, Algorithmus für die praktische Konstruktion von Invarianten einer gegebenen polynomialen Ordnung.
Kapitel 6 widmet sich Renormierungsgruppen-Studien einer Reihe dimensional reduzierter Theorien. Von zentralem Interesse ist hierbei das lineare Sigma-Modell, insbesondere in Anwesenheit der axialen Anomalie. Es stellt sich heraus, dass die Fixpunkt-Struktur des letzteren vergleichsweise kompliziert ist und ein tieferes Verständnis der zugrundeliegenden Methode sowie ihrer Annahmen erfordert. Dies führt uns zu einer sorgfältigen Analyse der Fixpunkt-Struktur von Modellen verschiedenster Symmetrien. Im Zusammenhang mit der Untersuchung des Einflusses von Vektor- und Axial-Vektor-Mesonen stoßen wir hierbei auf eine neue Universalitä}tsklasse.
Während wenig Spielraum für die Wahl der Symmetriegruppe der effektiven Theorie für den chiralen Ordnungsparameter besteht, ist die Identifizierung der Ordnungsparameter-Komponenten mit den relevanten mesonischen Freiheitsgraden hochgradig nichttrivial. Diese Wahl entspricht der Wahl einer Darstellung der Gruppe und kann zur Zeit nicht eindeutig aus der QCD hergeleitet werden. Es ist daher unerlässlich, verschiedene Möglichkeiten auszutesten. Eine wohlbekannte Wahl besteht darin, das Pion und seinen chiralen Partner, das Sigma-Meson, der O(4)-Darstellung für SU(2)_A x SU(2)_V zuzuordnen, welche einen Phasenübergang zweiter Ordnung erlaubt. Dieses Szenario ist jedoch nur dann sinnvoll, wenn nahe der kritischen Temperatur alle anderen Mesonen entsprechend schwer sind. Im Fall von genau zwei leichten Quarkmassen erfordert dies eine hinreichend große Anomaliestärke. Berücksichtigt man zusätzlich zum Pion und Sigma-Meson auch das Eta-Meson und das a_0-Meson, liefern unsere derzeitigen expliziten Rechnungen keinen Nachweis für die Existenz eines Phasenübergang zweiter Ordnung. Stattdessen spricht die Abwesenheit eines physikalischen (hinsichtlich der Massen) infrarot-stabilen Fixpunktes für einen fluktuationsinduzierten Phasenübergang erster Ordnung. Dieses Ergebnis ist auch zu erwarten (jedoch nicht impliziert), allein durch die Existenz zweier quadratischer Invarianten. Es besteht jedoch immer noch eine hypothetische Chance auf einen Phasenübergang zweiter Ordnung in der SU(2)_A x U(2)_V -Universalitätsklasse. Dies wäre der Fall, wenn der entsprechende von uns gefundene unphysikalische infrarot-stabile Fixpunkt physikalisch werden sollte in höherer Trunkierungsordnung. Interessanterweise finden wir bei endlicher Temperatur für gewisse Parameter einen Phasenübergang zweiter Ordnung. Es ist unklar, ob diese Wahl der Parameter in den Gültigkeitsbereich der dimensional reduzierten Theorie fällt.
Erst vor kurzem (Ende September 2013) wurde die Existenz eines infrarot-stabilen U(2)_A x U(2)_V-symmetrischen Fixpunkts durch Pelissetto und Vicari verifiziert (die zugehörige anomale Dimension ist mit 0.12 angegeben). Dieses Resultat war sehr
überraschend, da für zwei leichte Quarksorten und abwesende Anomalie ein Phasenübergang erster Ordnung relativ gesichert erschien, insbesondere durch die Epsilon-Entwicklung. Offensichtlich versagt letztere jedoch im Limes D=3, also für drei räumliche Dimensionen, da lediglich Fixpunkte gefunden werden können, die auch nahe D=4 existieren. Inspiriert durch diesen wichtigen Fund führen wir eine FRG-Fixpunktstudie in lokaler Potential-Näherung und hoher Trunkierungsordnung (bis zu zehnter Ordnung in den Feldern) durch. Die Stabilitätsanalyse besitzt jedoch leider keine Aussagekraft, da die Stabilitätsmatrix für den Gaußschen Fixpunkt marginale Eigenwerte besitzt. Wir sind überzeugt davon, dass dies nicht mehr der Fall ist, wenn man über die lokale Potential-Näherung hinausgeht und eine nichtverschwindende anomale Dimension zulässt. Die bisherigen Resultate verdeutlichen die Limitierungen der lokalen Potential-Näherung und der Epsilon-Entwicklung, auf denen unsere Untersuchungen zur Universalitätshypothese in weiten Teilen beruhen. Systematische Untersuchungen der Fixpunktstruktur von Modellen mit acht Ordnungsparameter-Komponenten wurden in der Literatur im Rahmen der Epsilon-Entwicklung durchgeführt und im Rahmen dieser Dissertation innerhalb der lokalen Potential-Näherung. Die meisten der Vorhersagen der Epsilon-Entwicklung konnten bestätigt werden, einige hingegen werden in Frage gestellt durch das Auftauchen marginaler Stabilitätsmatrix-Eigenwerte.
Einige wichtige Fragestellungen können nicht im Rahmen einer dimensional reduzierten Theorie behandelt werden, da die explizite Temperaturabhängigkeit in diesem Fall eliminiert wurde.
Insbesondere ist es in diesem Fall nicht möglich, die Stärke eines Phasenübergangs erster Ordnung vorherzusagen, da diese von Observablen (Meson-Massen und die Pion-Zerfallskonstante im Vakuum) abhängen, an die man bei verschwindender Temperatur fitten muss. Dieser Umstand führt uns zu solchen FRG-Studien, in denen die Temperatur als expliziter Parameter verbleibt.
Ein beträchtlicher Teil der für die vorliegende Dissertation zur Verfügung stehenden Arbeitszeit wurde darauf verwendet, eigene Implementierungen geeigneter Algorithmen zur numerischen Lösung der auftretenden partiellen Differentialgleichungen zu finden. Exemplarische Routinen (welche ausschließlich wohlbekannte Methoden nutzen) sind in einem Anhang zur Verfügung gestellt. Das Hauptziel der vorliegenden Arbeit, die Anwendung auf effektive Modelle für QCD, wird in Kapitel 7 präsentiert. Unsere (vorläufigen) FRG-Studien des linearen Sigma-Modells mit axialer Anomalie bei nichtverschwindender Temperatur erlauben verschiedene Szenarien. Sowohl einen extrem schwach ausgeprägten, als auch einen sehr deutlichen Phasenübergang erster Ordnung, ganz abhängig von der Wahl der Ultraviolett-Abschneideskala und oben genannter Parameter. Sogar ein Phasenübergang zweiter Ordnung scheint möglich für gewisse Parameterwerte. Um verlässliche Schlussfolgerungen zu ziehen, sind weitere Untersuchungen nötig und bereits im Gange. In Kapitel 7 verifizieren wir außerdem bereits bekannte numerische Resultate für das Quark-Meson-Modell.
Der langsame Neutroneneinfang-Prozess (s-Prozess) ist für die Erzeugung von rund der Hälfte der Elemente zwischen Eisen und Blei verantwortlich. Sein Reaktionspfad enthält entlang des Stabilitätstals einige Verzweigungspunkte an instabilen Isotopen, deren Neutroneneinfangquerschnitte die Produktion schwererer Elemente und deren Isotopen-Verhältnisse beeinflussen. Kennt man ihre Zerfalls- und Neutroneneinfangraten unter den angenommenen stellaren Bedingungen ist es möglich, Rückschlüsse auf die physikalischen Umstände während des s-Prozesses zu ziehen. Einer dieser Verzweigungspunkte ist 63-Ni. Die experimentelle Bestimmung des differentiellen Wirkungsquerschnittes für den Neutroneneinfang an diesem Isotop ist das primäre Ergebnis der vorliegenden Arbeit. Der 63-Ni(n,gamma)- Wirkungsquerschnitt hat Einfluss auf die Häufigkeiten von 64-Ni, die Kupfer- und die Zink-Isotope. Die Sensitivität der Produktion dieser Nuklide in s-Prozess-Szenarien wurde ebenfalls im Rahmen dieser Arbeit anhand von Simulationen des entsprechenden Nukleosynthesenetzwerkes untersucht. Zudem wurde die Datenlage für s-Prozess-Modelle mit einer Flugzeit-Messung des 63-Cu(n,gamma)-Wirkungsquerschnitts erweitert.
Die beiden Experimente zur Querschnittsbestimmung von 63-Ni und 63-Cu fanden am Los Alamos Neutron Science Center in New Mexico, USA statt. Eine aus angereichertem 62-Ni hergestellte 63-Ni-Probe wurde im Rahmen einer Flugzeit-Messung gepulst mit Neutronen bestrahlt. Der Nachweis der prompten Gammastrahlung aufgrund von Neutroneneinfängen erfolgte mit dem 4π-BaF_2-Detektor DANCE. Die kalorimetrische Messung macht den Q-Wert der Reaktion für jedes Einfangereignis zugänglich und erlaubt die Unterscheidung von Ereignissen verschiedener Isotope. Es konnte gezeigt werden, dass diese Methode die Bestimmung von Querschnitten selbst mit Proben ermöglicht, die nur zu einem Bruchteil aus dem zu untersuchenden Isotop bestehen. Der 63-Ni(n,gamma)-Wirkungsquerschnitt wurde für den Energiebereich von 40 eV bis 500 keV mit einer maximalen Unsicherheit von 15% bestimmt. Es zeigte sich, dass theoretische Abschätzungen den Querschnitt bislang um etwa einen Faktor 2 unterschätzten. In demselben Energiebereich konnte der 63-Cu(n,gamma)-Wirkungsquerschnitt mit einer maximalen Unsicherheit von 8% vermessen werden.
This thesis is structured into 7 chapters:
• Chapter 2 gives an overview of the ultrashort high intensity laser interaction with matter. The laser interaction with an induced plasma is described, starting from the kinematics of single electron motion, followed by collective electron effects and the ponderamotive motion in the laser focus and the plasma transparency for the laser beam. The three different mechanisms prepared to accelerate and propagate electrons through matter are discussed. The following indirect acceleration of protons is explained by the Target Normal Sheath Acceleration (TNSA) mechanism. Finally some possible applications of laser accelerated protons are explained briefly.
• Chapter 3 deals with the modeling of geometry and field mapping of magnetic lens. Initial proton and electron distributions, fitted to PHELIX measured data are generated, a brief description of employed codes and used techniques in simulation is given, and the aberrations at the solenoid focal spot is studied.
• Chapter 4 presents a simulation study for suggested corrections to optimize the proton beam as a later beam source. Two tools have been employed in these suggested corrections, an aperture placed at the solenoid focal spot as energy selection tool, and a scattering foil placed in the proton beam to smooth the radial energy beam profile correlation at the focal spot due to chromatic aberrations. Another suggested correction has been investigated, to optimize the beam radius at the focal spot by lens geometry controlling.
• Chapter 5 presents a simulation study for the de-neutralization problem in TNSA caused by the fringing fields of pulsed magnetic solenoid and quadrupole. In this simulation, we followed an electrostatic model, wherethe evolution of both, self and mutual fields through the pulsed magnetic solenoid could be found, which is not the case in the quadrupole and only the growth of self fields could be found. The field mapping of magnetic elements is generated by the Matlab program, while the TraceWin code is employed to study the tracking through magnetic elements.
• Chapter 6 describes the PHELIX laser parameters at GSI with chirp pulse amplification technique (CPA), and Gafchromic Radiochromic film RCF) as a spatial energy resolver film detector. The results of experiments with laser proton acceleration, which were performed in two experimental areas at GSI (Z6 area and PHELIX Laser Hall (PLH)), are presented in section 6.3.
• Chapter 7 includes the main results of this work, conclusions and gives a perspective for future experimental activities.
In dieser Arbeit wurden eine Reihe neuer organischer Ladungstransfer (CT)-Verbindungen in Form von Einkristallen und Dünnschichten synthetisiert und grundlegend charakterisiert.
Für die Synthese kamen verschiedene bekannte und bislang unbekannte Donor- und Akzeptormoleküle zum Einsatz. Während einige bekannte Materialien wie TTF und TCNQ kommerziell erworben werden konnten, bestand im Rahmen der Kollaboration mit dem MPI für Polymerforschung zudem Zugang zu mehreren neuen Molekülen wie TMP und HATCN, die besonders mit Blick auf die Möglichkeit zur Dünnschichtpräparation ausgewählt wurden. Auf dieser Grundlage konnten zum einen mittels verschiedener Varianten der Lösungszüchtung erfolgreich neue CT-Komplexe als Einkristalle gezüchtet werden. Dabei kamen mehrere unterschiedliche Lösungsmittel zur Anwendung, die z.T. auch die gezielte Synthese bestimmter Kristallphasen erlaubten. Zum zweiten gelang die Präparation eines Teils dieser Systeme als Dünnschicht über die Methode der Molekularstrahldeposition mit verschiedenen Isolatoren wie SiO2 als Substratmaterial. Hierbei wurde zum Teil zuvor gezüchtetes Material eingesetzt, zum Teil entstand die neue Verbindung erst über diesen Prozess.
Die Proben der neuen Verbindungen wurden zunächst mittels verschiedener Methoden morphologisch und kristallographisch untersucht. Die Kristallzüchtung lieferte in vielen Fällen eine gute Kristallqualität, die sowohl für die Strukturbestimmung als auch die späteren elektrischen Messungen ausreichend war. Die Kristallstruktur konnte für mehrere neue Systeme ermittelt werden und ergab in allen Fällen eine Anordnung mit gemischten Donor-Akzeptor-Stapeln. Für die präparierten Dünnschichten konnte bei einem Großteil der Verbindungen gemäß der Untersuchungen mittels Röntgendiffraktion die gleiche(n) kristalline(n) Struktur(en) wie in den Einkristallen festgestellt werden. Es ließen sich zwei wesentliche Beobachtungen machen: a) Die Morphologie der Schichten besitzt eine ausgeprägte Tendenz zu rauem Inselwachstum; b) In praktisch allen Fällen bilden sich innerhalb der Schicht mindestens zwei stabile CT-Phasen parallel. Beide Verhaltensweisen traten nahezu unabhängig von Substrat, dessen Temperatur, Ausgangszustand (Material vorreagiert oder nicht) und Depositionstemperatur auf.
Die elektronischen Transportmessungen bestanden primär aus temperaturabhängigen Messungen
der elektrischen Leitfähigkeit, während Feldeffektmessungen mit organischen Transistorstrukturen
lediglich den Charakter einer Grundsteinlegung für tiefergehende Untersuchungen mit optimierten Schichten hatten. Die Kryostat-Messungen bis hinunter zu rund 1,5 Kelvin zeigten bei keiner der Verbindungen ein klares Anzeichen für einen Phasenübergang. Die absoluten Werte der Leitfähigkeit bei Raumtemperatur passten qualitativ zu der typischen Erwartung an ein gemischt gestapeltes CT-System, nämlich ein halbleitendes oder isolierendes Verhalten, was durch das arrhenius-artige Temperaturverhalten auch bestätigt wurde.
Dielektrische Messungen mit Kondensatorstrukturen wurden für die neuen Systeme TMP-TCNQ
und ET-DTF in der Dünnschichtform vorgenommen. Im Vordergrund stand dabei die Suche nach neuen Verbindungen, die einen neutral-ionischen Phasenübergang zeigen, der sich im Idealfall durch eine starke, peakförmige Anomalie in der Temperaturabhängigkeit der Dielektrizitätskonstanten bemerkbar machen sollte. Während sich in TMP-TCNQ keinerlei Hinweise auf einen Übergang zeigten, lieferte ET-DTF einen Verlauf, der einen strukturellen
Übergang andeutet, dessen Identität aber noch ungeklärt ist.
Zur Ergänzung wurden mit Hilfe mehrerer Kooperationspartner weitere Untersuchungen zwecks
Charakterisierung der neuen CT-Systeme vorgenommen. Die Bestimmung des Ladungstransfergrades δ mittels IR-Absorption lieferte im Wesentlichen eine Bestätigung der Beobachtung, dass die inspizierten Verbindungen gemischt gestapelte Systeme halbleitender oder
isolierender Natur sind, da δ nur geringe Werte von max. ca. 0,2 zeigte, die für solche Systeme
typisch sind. In ähnlicher Weise bestätigten Bandstruktur-Rechnungen dieses Verhalten, da die Bänder allgemein nur eine eher geringe elektronische Bandbreite zeigten. Zudem ergab sich für die trikline Phase von ET-DTF und das System TMP-F4TCNQ eine deutliche Anisotropie hinsichtlich der Dispersion, da diese erheblich verstärkt entlang der zur Stapelachse des Systems korrespondierenden Richtung des k-Raumes auftritt, also (im Einklang mit den Leitfähigkeitsdaten) 1D-Charakter besitzt. Ein weiterer Beitrag zur Suche nach neuen NI-Verbindungen entstand durch Messung der charakteristischen CT-Absorption einiger Systeme im optischen bzw. IR-Spektrum. In Kombination mit den Werten für Ionisierungsenergie und Elektronenaffinität konnte eine Einordnung in das von Torrance et al. entwickelte, sog. V-Diagramm vorgenommen werden, mit dessen Hilfe sich aussichtsreiche Molekülkombinationen für ein neues NI-System eruieren ließen.
In this thesis hard probes are studied in the partonic transport model BAMPS (Boltzmann Approach to MultiParton Scatterings). Employing Monte Carlo techniques, this model describes the 3+1 dimensional evolution of the quark gluon plasma phase in ultra-relativistic heavy-ion collisions by propagating all particles in space and time and carrying out their collisions according to the Boltzmann equation. Since hard probes are produced in hard processes with a large momentum transfer, the value of the running coupling is small and their interactions should be describable within perturbative QCD (pQCD). This work focuses on open heavy flavor, but also addresses the suppression of light parton jets, in particular to highlight differences due to the mass. For light partons, radiative processes are the dominant contribution to their energy loss. For heavy quarks, we show that also binary interactions with a running coupling and an improved Debye screening matched to hard-thermal-loop calculations play an important role. Furthermore, the impact of the mass in radiative interactions, prominently named the dead cone effect, and the interplay with the Landau-Pomeranchuk-Migdal (LPM) effect are studied in great detail. Since the transport model BAMPS has access to all medium properties and the space time information of heavy quarks, it is the ideal tool to study the dissociation and regeneration of J/psi mesons, which is also investigated in this thesis.
In this thesis, different physical and electrical aspects of silicon microstrip sensors and low-mass multi-line readout cables have been investigated. These silicon microstrip sensors and readout cables will be used in the Silicon Tracking System (STS) of the fixed-target heavy-ion Compressed Baryonic Matter (CBM) experiment which is under development at the upcoming Facility for Antiproton and ion Research (FAIR) in Darmstadt, Germany. The highly segmented low-mass tracking system is a central CBM detector system to resolve the high tracking densities of charged particles originating from beam-target interactions. Considering the low material budget requirement the double-sided silicon microstrip detectors have been used in several planar tracking stations. The readout electronics is planned to be installed at the periphery of the tracking stations along with the cooling system. Low-mass multi-line readout cables shall bridge the distance between the microstrip sensors and the readout electronics. The CBM running operational scenario suggests that some parts of the tracking stations are expected to be exposed to a total integrated particle fluence of the order of 1e14 neq/cm2. After 1e14 neq/cm2 the damaged modules in the tracking stations will be replaced. Thus radiation hard sensor is an important requirement for the sensors. Moreover, to cope with the high reaction rates, free-streaming (triggerless) readout electronics with online event reconstruction must be used which require high signal-to-noise (SNR) ratio (i.e., high signal efficiency, low noise contributions). Therefore, reduction in noise is a major goal of the sensor and cable development.
For better insight into the different aspects of the silicon microstrip sensors and multi-line readout cables, the simulation study has been performed using SYNOPSYS TCAD tools. 3D models of the silicon microstrip sensors and the readout cables were implemented which is motivated by the stereoscopic construction of the silicon microstrip sensors. For the evaluation of the performance of the silicon microstrip sensors in the harsh radiation environment during experimental operation, a radiation damage model has been included. It reproduces the behavior of the irradiated CBM prototype sensors. In addition to the static characteristics, the interstrip parameters relevant to understand strip isolation and cross-talk issues have been extracted. The transient simulations have been performed to estimate the charge collection performance of the irradiated sensors. The signal transmission in the readout cables has been evaluated with the finite element simulation tool RAPHAEL. Based on the performance of the front-end electronics used for early prototyping in the CBM experiment, capacitive and resistive noise contributions from the silicon microstrip sensors and multi-line readout cables have been extracted.
To validate the aforementioned simulations, numerous tests have been performed both on the multi-line readout cables and silicon microstrip sensors. Characterizations of multi-line readout cables and silicon microstrip sensors in laboratory conditions have been found to agree reasonably well with the simulations. Considering the expected radiation environment the behavior of silicon microstrip sensors have been studied especially in terms of noise and charge collection efficiency. Source-scan of the silicon microstrip sensors using 241Am is presented. In order to test a first system of detector stations including the data acquisition system, slow control and online monitoring software and for track reconstruction, in-beam tests have been performed at the COSY synchrotron of the Research Center Juelich, Germany. Further, different design parameters have been suggested to improve the sensor and readout cable design on the basis of the simulations and the measurements. Many of these parameters have been implemented in the new prototypes under production. These new prototypes will be tested in-beam by the end of 2013.
Experimente und Simulationen zur Filterung und Injektion in einen toroidalen Ionenspeicherring
(2014)
Die in dieser Arbeit durchgeführten theoretischen Untersuchungen, Simulationen und Experimente hatten das Ziel, die Erforschung der Injektion in sowie des Transports von Ionenstrahlen bestehend aus verschiedenen, einzelnen Wasserstoffionenspezies durch toroidale Magnetfeldstrukturen zu ermöglichen. Dazu wurde im Rahmen dieser Arbeit ein neues Filter- und Detektorsystem für Wasserstoffionenstrahlen – ein Filterkanal – entwickelt, aufgebaut und untersucht. Zunächst wurde mittels theoretischer Betrachtungen das Konzept des Kanals und die Funktionalität der Filterung sowie Vermessung der Strahlzusammensetzung analysiert. Danach wurde der Kanal mit Hilfe von Simulationen ausgelegt und anschließend nach genauen Vorgaben gebaut. Gleichzeitig wurde mittels weiterer Simulationen das Strahlverhalten im Kanal genauer analysiert und zusätzlich die Auswirkungen verschiedener Parameter auf das Filterverhalten des Kanals untersucht. Anschließend wurde der zusammengebaute Kanal mittels Experimenten erforscht. Dabei wurden mehrere Experimente mit verschiedenen Quellen- und Strahlparametern durchgeführt, wobei vor allem die Filtereigenschaften sowie die Vermessung der Strahlzusammensetzung umfangreich untersucht und im Bezug auf die Funktionalität des Filterkanals diskutiert wurden.
Des Weiteren befasste sich diese Arbeit mit dem Aufbau des Injektionsexperiments zur Untersuchung der Injektion eines Wasserstoffionenstrahls zwischen zwei Toroidsegmente. Dazu wurde ein höhenverstellbarer Injektor samt Hochspannungsterminal und Peripherie entwickelt, aufgebaut und in Betrieb genommen. Dieser besteht aus einer Volumenionenquelle, einer neu entwickelten Faraday-Tasse sowie einem Solenoid. Die Faraday-Tasse, welche zur Vermessung des Quellenstroms im neuen Injektor sowie zusätzlich zur Vermessung des Ionenstrahlstroms hinter dem Filterkanal eingesetzt wird, wurde dabei im Rahmen dieser Arbeit entwickelt, experimentell durchgemessen und auf ihre Funktionalität geprüft. Im Zusammenhang mit dem Hochspannungsterminal für den neuen Injektor wurden die verschiedenen Möglichkeiten für die Verschaltung einer Volumenionenquelle mit dem dazugehörigen Hochspannungsterminal diskutiert und der Zusammenhang zur Strahlenergie hergestellt.
Mittels theoretischer Rechnungen wurde der aufgrund der RxB Drift benötigte Höhenunterschied zwischen Injektionskanal und Transportkanal für das Injektionsexperiment bestimmt und der neue Injektor auf den errechneten Bereich vorkonfiguriert. Zusätzlich wurde mittels Simulationen die optimale Strahlenergie bestimmt, bei der der Strahl beim Transport durch den Transportkanal angepasst ist und somit die Auswirkung der Driftsektion zwischen den beiden Toroidsegmenten sowie die Beeinflussung durch das Injektionssystem am geringsten sein sollten. In diesem Zusammenhang wurde auch auf die möglichen Geometrien zum Aufbau des Injektionsexperiments eingegangen und mittels der angesprochenen Untersuchungen eine Geometrie für den Aufbau des Injektionssystems festgelegt.