Refine
Year of publication
Document Type
- Doctoral Thesis (591) (remove)
Has Fulltext
- yes (591)
Is part of the Bibliography
- no (591) (remove)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (591) (remove)
Mit der vorliegenden Arbeit ist der eindeutige experimentelle Nachweis für die Existenz eines 1997 [Ced97] vorhergesagten, neuartigen Zerfallskanals für Van-der-Waals-gebundene Systeme erbracht worden. Die Untersuchungen wurden an einem Neondimer durchgeführt. Erzeugt man in einem Atom dieses Dimers durch Synchrotronstrahlung eine 2s-Vakanz, so wird diese durch ein 2p-Elektron aufgefüllt. Die hierbei freiwerdende Energie wird an das zweite Atom des Dimers in Form eines virtuellen Photons übertragen und löst dort ein Elektron aus einer äußeren Schale. Untersucht wurde dieser Zerfall namens „Interatomic Coulombic Decay” (ICD) durch Koinzidenzimpulsspektroskopie (COLTRIMS) [Doe00, Ull03, Jah04b]. Der Nachweis der Existenz des Effekts erfolgte dadurch, dass die Summe der Energien der Photofragmente - und im Speziellen des ICD-Elektrons und der beiden im Zerfall entstehenden Ne+-Ionen - eine Konstante ist. Durch die koinzidente Messung der Impulse, der im Zerfall entstehenden Teilchen, konnte hierdurch ICD eindeutig identifiziert werden. Die Übereinstimmung der gemessenen Energiespektren mit aktuellen theoretischen Vorhersagen [Sche04b, Jah04c] ist exzellent. Dadurch, dass das Dimer nach dem IC-Zerfall in einer Coulomb-Explosion fragmentiert, konnten des Weiteren Untersuchungen, wie sie in den letzten Jahren an einfachen Molekülen durchgeführt wurden [Web01, Lan02, Jah02, Web03b, Osi03b, Jah04a], auch am Neondimer erfolgen: Durch die Messung der Ausbreitungsrichtung der ionischen Fragmente des Dimers nach der Coulomb-Explosion wird die räumliche Ausrichtung des Dimers zum Zeitpunkt der Photoionisation bestimmt. Die gemessenen Impulse der emittierten Elektronen können dadurch im Bezug zur Dimerachse dargestellt werden. In dieser Arbeit wurden somit Messungen der Winkelverteilung der 2s-Photoelektronen und des ICD-Elektrons im laborfesten und auch dimerfesten Bezugssystem vorgestellt und mit vorhandenen theoretischen Vorhersagen verglichen. Die Winkelverteilung des Photoelektrons ähnelt stark der Verteilung, die man nach der Photoionisation eines einzelnen Neonatoms erhält und hat somit fast reinen Dipolcharakter. Die Präsenz des zweiten Atoms des Dimers verursacht nur leichte Modulationen, so dass auch die Änderung der Ausrichtung der Dimerachse im Bezug zur Polarisationsrichtung des linear polarisierten Lichtes nur geringe Auswirkungen hat. Durch die koinzidente Messung aller vier nach der Photoionisation entstehenden Teilchen konnte außerdem ein weiterer Doppelionisationsmechanismus des Dimers nachgewiesen werden: Ähnlich wie in einzelnen Atomen [Sam90] gibt es auch in Clustern den TS1-Prozess. Hierbei wird ein 2p-Elektron aus dem einen Atom des Dimers herausgelöst. Es streut dann an einem 2p-Elektron des anderen Atoms, das hierdurch ionisiert wird. Diese etwas andere Form des TS1 im Cluster ist also genau wie ICD ein interatomarer Vorgang. Die Summe der Energien der beiden, in diesem Prozess entstehenden Elektronen hat einen festen Wert von h... − 2 · IP(2p) − KER = 12 eV, so dass dieser Prozess hierdurch im Experiment gefunden werden konnte. Die gemessenen Zwischenwinkel zwischen den beiden Elektronen zeigen des Weiteren genau die für zwei sich abstoßende Teilchen typische Verteilung einer Gauss-Kurve mit einem Maximum bei 180 Grad. Da im Falle von interatomarem TS1 die Potentialkurve der Coulomb-Explosion direkt aus dem Grundzustand populiert wird, konnte im Rahmen der „Reflexion Approximation” die Wahrscheinlichkeitsverteilung der Abstände der beiden Dimeratome experimentell visualisiert werden. Das Betragsquadrat des Kernanteils der Dimergrundzustandswellenfunktion wurde somit direkt vermessen. Die Messungen wurden bei drei verschiedenen Photonenenergien durchgeführt, um die Ergebnisse weiter abzusichern und robuster gegen eventuelle systematische Fehler zu machen. Da kein isotopenreines Neongas im Experiment eingesetzt wurde, konnten genauso Ionisations- und ICD-Ereignisse von isotopischen Dimeren (20Ne22Ne) beobachtet und ausgewertet werden. Die gemessenen Spektren sind innerhalb der Messtoleranzen identisch zu denen für 20Ne2.
The subject of this thesis is the experimental investigation of the neutron-capture cross sections of the neutron-rich, short-lived boron isotopes 13B and 14B, as they are thought to influence the rapid neutron-capture process (r process) nucleosynthesis in a neutrino-driven wind scenario.
The 13;14B(n,g)14;15B reactions were studied in inverse kinematics via Coulomb dissociation at the LAND/R3B setup (Reactions with Relativistic Radioactive Beams). A radioactive beam of 14;15B was produced via in-flight fragmentation and directed onto a lead-target at about 500 AMeV. The neutron breakup of the projectile within the electromagnetic field of the target nucleus was investigated in a kinematically complete measurement. All outgoing reaction products were detected and analyzed in order to reconstruct the excitation energy.
The differential Coulomb dissociation cross sections as a function of the excitation energy were obtained and first experimental constraints on the photoabsorption and the neutron-capture cross sections were deduced. The results were compared to theoretical approximations of the cross sections in question. The Coulomb dissociation cross section of 15B into 14B(g.s.) + n was determined to be s(15B;14B(g:s:)+n) CD = 81(8stat)(10syst) mb ; while the Coulomb dissociation cross section of 14B into a neutron and 13B in its ground state was found to be s(14B;13B(g:s:)+n) CD = 281(25stat)(43syst) mb: Furthermore, new information on the nuclear structure of 14B were achieved, as the spectral shape of the differential Coulomb dissociation cross section indicates a halolike structure of the nucleus.
Additionally, the Coulomb dissociation of 11Be was investigated and compared to previous measurements in order to verify the present analysis. The corresponding Coulomb dissociation cross section of 11Be into 10Be(g.s.) + n was found to be 450(40stat)(54syst ) mb, which is in good agreement with the results of Palit et al.
Most elements heavier than iron are synthesized in stars during neutron capture reactions in the r- and s-process. The s-process nucleosynthesis is composed of the main and weak component. While the s-process is considered to be well understood, further investigations using nucleosynthesis simulations rely on measured neutron capture cross sections as crucial input parameters. Neutron capture cross sections
relevant for the s-process can be measured using various experimental methods. A prominent example is the activation method relying on the 7Li(p,n)7Be reaction as a neutron source, which has the advantage of high neutron intensities and is able to create a quasi-stellar neutron spectrum at kBT = 25 keV. Other neutron sources able to provide quasi-stellar spectra at different energies suffer from lower neutron intensities. Simulations using the PINO tool suggest the neutron activation of samples with different neutron spectra, provided by the 7Li(p,n)7Be reaction, and a subsequent linear combination of the obtained spectrum-averaged cross sections
to determine the Maxwellian-averaged cross section (MACS) at various energies of astrophysical relevance. To investigate the accuracy of the PINO tool at proton energies between the neutron emission threshold at Ep = 1880.4 keV and 2800 keV,
measurements of the 7Li(p,n)7Be neutron fields are presented, which were carried out at the PTB Ion Accelerator Facility at the Physikalisch-Technische Bundesanstalt in Braunschweig. The neutron fields of ten different proton energies were measured.
The presented neutron fields show a good agreement at proton energies Ep = 1887, 1897, 1907, 1912 and 2100 keV. For the other proton energies, E p = 2000, 2200, 2300, 2500, and 2800 keV, differences between measurement and simulation were found and discussed. The obtained results can be used to benchmark and adapt the PINO tool and provide crucial information for further improvement of the neutron activation method for astrophysics.
An application for the 7Li(p,n)7Be neutron fields is presented as an activation experiment campaign of gallium, an element that is mostly produced during the weak s-process in massive stars. The available cross section data for the 69,71Ga(n,γ)
reactions, mostly determined by activation measurements, show differences up toa factor of three. To improve the data situation, activation measurements were carried out using the 7Li(p,n)7Be reaction. The neutron capture cross sections for
a quasi-stellar neutron spectrum at kBT = 25 keV were determined for 69Ga and 71Ga.
In this work the flexibility requirements of a highly renewable European electricity network that has to cover fluctuations of wind and solar power generation on different temporal and spatial scales are studied. Cost optimal ways to do so are analysed that include optimal distribution of the infrastructure, large scale transmission, storage, and dispatchable generators. In order to examine these issues, a model of increasing sophistication is built, first considering different flexibility classes of conventional generation, then adding storage, before finally considering transmission to see the effects of each.
To conclude, in this work it was shown that slowly flexible base load generators can only be used in energy systems with renewable shares of less than 50%, independent of the expansion of an interconnecting transmission network within Europe. Furthermore, for a system with a dominant fraction of renewable generation, highly flexible generators are essentially the only necessary class of backup generators. The total backup capacity can only be decreased significantly if interconnecting transmission is allowed, clearly favouring a European-wide energy network. These results are independent of the complexity level of the cost assumptions used for the models. The use of storage technologies allows to reduce the required conventional backup capacity further. This highlights the importance of including additional technologies into the energy system that provide flexibility to balance fluctuations caused by the renewable energy sources. These technologies could for example be advanced energy storage systems, interconnecting transmission in the electricity network, and hydro power plants.
It was demonstrated that a cost optimal European electricity system with almost 100% renewable generation can have total system costs comparable to today's system cost. However, this requires a very large transmission grid expansion to nine times the line volume of the present-day system. Limiting transmission increases the system cost by up to a third, however, a compromise grid with four times today's line volume already locks in most of the cost benefits. Therefore, it is very clear that by increasing the pan-European network connectivity, a cost efficient inclusion of renewable energies can be achieved, which is strongly needed to reach current climate change prevention goals.
It was also shown that a similarly cost efficient, highly renewable European electricity system can be achieved that considers a wide range of additional policy constraints and plausible changes of economic parameters.
A fundamental work on THz measurement techniques for application to steel manufacturing processes
(2004)
The terahertz (THz) waves had not been obtained except by a huge system, such as a free electron laser, until an invention of a photo-mixing technique at Bell laboratory in 1984 [1]. The first method using the Auston switch could generate up to 1 THz [2]. After then, as a result of some efforts for extending the frequency limit, a combination of antennas for the generation and the detection reached several THz [3, 4]. This technique has developed, so far, with taking a form of filling up the so-called THz gap . At the same time, a lot of researches have been trying to increase the output power as well [5-7]. In the 1990s, a big advantage in the frequency band was brought by non-linear optical methods [8-11]. The technique led to drastically expand the frequency region and recently to realize a measurement up to 41 THz [12]. On the other hand, some efforts have yielded new generation and detection methods from other approaches, a CW-THz as well as the pulse generation [13-19]. Especially, a THz luminescence and a laser, originated in a research on the Bloch oscillator, are recently generated from a quantum cascade structure, even at an only low temperature of 60 K [20-22]. This research attracts a lot of attention, because it would be a breakthrough for the THz technique to become widespread into industrial area as well as research, in a point of low costs and easier operations. It is naturally thought that a technology of short pulse lasers has helped the THz field to be developed. As a background of an appearance of a stable Ti:sapphire laser and a high power chirped pulse amplification (CPA) laser, instead of a dye laser, a lot of concentration on the techniques of a pulse compression and amplification have been done. [23] Viewed from an application side, the THz technique has come into the limelight as a promising measurement method. A discovery of absorption peaks of a protein and a DNA in the THz region is promoting to put the technique into practice in the field of medicine and pharmaceutical science from several years ago [24-27]. It is also known that some absorption of light polar-molecules exist in the region, therefore, some ideas of gas and water content monitoring in the chemical and the food industries are proposed [28-32]. Furthermore, a lot of reports, such as measurements of carrier distribution in semiconductors, refractive index of a thin film and an object shape as radar, indicate that this technique would have a wide range of application [33-37]. I believe that it is worth challenging to apply it into the steel-making industry, due to its unique advantages. The THz wavelength of 30-300 ¼m can cope with both independence of a surface roughness of steel products and a detection with a sub-millimeter precision, for a remote surface inspection. There is also a possibility that it can measure thickness or dielectric constants of relatively high conductive materials, because of a high permeability against non-polar dielectric materials, short pulse detection and with a high signal-to-noise ratio of 103-5. Furthermore, there is a possibility that it could be applicable to a measurement at high temperature, for less influence by a thermal radiation, compared with the visible and infrared light. These ideas have motivated me to start this THz work.
This dissertation is devoted to the study of thermodynamics for quantum gauge theories.The poor convergence of quantum field theory at finite temperature has been the main obstacle in the practical applications of thermal QCD for decades. In this dissertation I apply hard-thermal-loop perturbation theory, which is a gauge-invariant reorganization of the conventional perturbative expansion for quantum gauge theories to the thermodynamics of QED and Yang-Mills theory to three-loop order. For the Abelian case, I present a calculation of the free energy of a hot gas of electrons and photons by expanding in a power series in mD/T, mf /T and e2, where mD and mf are the photon and electron thermal masses, respectively, and e is the coupling constant.I demonstrate that the hard-thermal-loop perturbation reorganization improves the convergence of the successive approximations to the QED free energy at large coupling, e ~ 2. For the non-Abelian case, I present a calculation of the free energy of a hot gas of gluons by expanding in a power series in mD/T and g2, where mD is the gluon thermal mass and g is the coupling constant. I show that at three-loop order hard-thermal-loop perturbation theory is compatible with lattice results for the pressure, energy density, and entropy down to temperatures T ~ 2 - 3 Tc. The results suggest that HTLpt provides a systematic framework that can be used to calculate static and dynamic quantities for temperatures relevant at LHC.
I derive a general effective theory for hot and/or dense quark matter. After introducing general projection operators for hard and soft quark and gluon degrees of freedom, I explicitly compute the functional integral for the hard quark and gluon modes in the QCD partition function. Upon appropriate choices for the projection operators one recovers various well-known effective theories such as the Hard Thermal Loop/ Hard Dense Loop Effective Theories as well as the High Density Effective Theory by Hong and Schaefer. I then apply the effective theory to cold and dense quark matter and show how it can be utilized to simplify the weak-coupling solution of the color-superconducting gap equation. In general, one considers as relevant quark degrees of freedom those within a thin layer of width 2 Lambda_q around the Fermi surface and as relevant gluon degrees of freedom those with 3-momenta less than Lambda_gl. It turns out that it is necessary to choose Lambda_q << Lambda_gl, i.e., scattering of quarks along the Fermi surface is the dominant process. Moreover, this special choice of the two cutoff parameters Lambda_q and Lambda_gl facilitates the power-counting of the numerous contributions in the gap-equation. In addition, it is demonstrated that both the energy and the momentum dependence of the gap function has to be treated self-consistently in order to determine the imaginary part of the gap function. For quarks close to the Fermi surface the imaginary part is calculated explicitly and shown to be of sub-subleading order in the gap equation.
Spin waves in yttrium-iron garnet has been the subject of research for decades. Recently the report of Bose-Einstein condensation at room temperature has brought these experiments back into focus. Due to the small mass of quasiparticles compared to atoms for example, the condensation temperature can be much higher. With spin-wave quasiparticles, so-called magnons, even room temperature can be reached by externally injecting magnons. But also possible applications in information technologies are of interest. Using excitations as carriers for information instead of charges delivers a much more efficient way of processing data. Basic logical operations have already been realized. Finally the wavelength of spin waves which can be decreased to nanoscale, gives the opportunity to further miniaturize devices for receiving signals for example in smartphones.
For all of these purposes the magnon system is driven far out of equilibrium. In order to get a better fundamental understanding, we concentrate in the main part of this thesis on the nonequilibrium aspect of magnon experiments and investigate their thermalization process. In this context we develop formalisms which are of general interest and which can be adopted to many different kinds of systems.
A milestone in describing gases out of equilibrium was the Boltzmann equation discovered by Ludwig Boltzmann in 1872. In this thesis extensions to the Boltzmann equation with improved approximations are derived. For the application to yttrium-iron garnet we describe the thermalization process after magnons were excited by an external microwave field.
First we consider the Bose-Einstein condensation phenomena. A special property of thin films of yttrium-iron garnet is that the dispersion of magnons has its minimum at finite wave vectors which leads to an interesting behavior of the condensate. We investigate the spatial structure of the condensate using the Gross-Pitaevskii equation and find that the magnons can not condensate only at the energy minimum but that also higher Fourier modes have to be occupied macroscopically. In principle this can lead to a localization on a lattice in real space.
Next we use functional renormalization group methods to go beyond the perturbation theory expressions in the Boltzmann equation. It is a difficult task to find a suitable cutoff scheme which fits to the constraints of nonequilibrium, namely causality and the fluctuation-dissipation theorem when approaching equilibrium. Therefore the cutoff scheme we developed for bosons in the context of our considerations is of general interest for the functional renormalization group. In certain approximations we obtain a system of differential equations which have a similar transition rate structure to the Boltzmann equation. We consider a model of two kinds of free bosons of which one type of boson acts as a thermal bath to the other one. Taking a suitable initial state we can use our formalism to describe the dynamics of magnons such that an enhanced occupation of the ground state is achieved. Numerical results are in good agreement with experimental data.
Finally we extend our model to consider also the pumping process and the decrease of the magnon particle number till thermal equilibrium is reached again. Additional terms which explicitly break the U(1)-symmetry make it necessary to also extend the theory from which a kinetic equation can be deduced. These extensions are complicated and we therefore restrict ourselves to perturbation theory only. Because of the weak interactions in yttrium-iron garnet this provides already good results.
The aim of this work is to develop an effective equation of state for QCD, having the correct asymptotic degrees of freedom, to be used as input for dynamical studies of heavy ion collisions. We present an approach for modeling an EoS that respects the symmetries underlying QCD, and includes the correct asymptotic degrees of freedom, i.e. quarks and gluons at high temperature and hadrons in the low-temperature limit. We achieve this by including quarks degrees of freedom and the thermal contribution of the Polyakov loop in a hadronic chiral sigma-omega model. The hadronic part of the model is a nonlinear realization of an sigma-omega model. As the fundamental symmetries of QCD should also be present in its hadronic states such an approach is widely used to describe hadron properties below and around Tc. The quarks are introduced as thermal quasi particles, coupling to the Polyakov loop, while the dynamics of the Polyakov loop are controlled by a potential term which is fitted to reproduce pure gauge lattice data. In this model the sigma field serves a the order parameter for chiral restoration and the Polyakov loop as order parameter for deconfinement. The hadrons are suppressed at high densities by excluded volume corrections. As a next step, we introduce our new HQ model equation of state in a microscopic+macroscopic hybrid approach to heavy ion collisions. This hybrid approach is based on the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The present implementation allows to compare pure microscopic transport calculations with hydrodynamic calculations using exactly the same initial conditions and freeze-out procedure. The effects of the change in the underlying dynamics - ideal fluid dynamics vs. non-equilibrium transport theory - are explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic and directed flow are shown to be not sensitive to changes in the EoS while the smaller mean free path in the hydrodynamic evolution reflects directly in higher flow results which are consistent with the experimental data. This finding indicates qualitatively that physical mechanisms like viscosity and other non equilibrium effects play an essentially more important role than the EoS when bulk observables like flow are investigated. In the last chapter, results for the thermal production of MEMOs in nucleus-nucleus collisions from a combined micro+macro approach are presented. Multiplicities, rapidity and transverse momentum spectra are predicted for Pb+Pb interaction at different beam energies. The presented excitation functions for various MEMO multiplicities show a clear maximum at the upper FAIR energy regime making this facility the ideal place to study the production of these exotic forms of multistrange objects.
The miniaturization of electronics is reaching its limits. Structures necessary to build integrated circuits from semiconductors are shrinking and could reach the size of only a few atoms within the next few years. It will be at the latest at this point in time that the physics of nanostructures gains importance in our every day life. This thesis deals with the physics of quantum impurity models. All models of this class exhibit an identical structure: the simple and small impurity only has few degrees of freedom. It can be built out of a small number of atoms or a single molecule, for example. In the simplest case it can be described by a single spin degree of freedom, in many quantum impurity models, it can be treated exactly. The complexity of the description arises from its coupling to a large number of fermionic or bosonic degrees of freedom (large meaning that we have to deal with particle numbers of the order of 10^{23}). An exact treatment thus remains impossible. At the same time, physical effects which arise in quantum impurity systems often cannot be described within a perturbative theory, since multiple energy scales may play an important role. One example for such an effect is the Kondo effect, where the free magnetic moment of the impurity is screened by a "cloud" of fermionic particles of the quantum bath.
The Kondo effect is only one example for the rich physics stemming from correlation effects in many body systems. Quantum impurity models, and the oftentimes related Kondo effect, have regained the attention of experimental and theoretical physicists since the advent of quantum dots, which are sometimes also referred to as as artificial atoms. Quantum dots offer a unprecedented control and tunability of many system parameters. Hence, they constitute a nice "playground" for fundamental research, while being promising candidates for building blocks of future technological devices as well.
Recently Loss' and DiVincenzo's p roposal of a quantum computing scheme based on spins in quantum dots, increased the efforts of experimentalists to coherently manipulate and read out the spins of quantum dots one by one. In this context two topics are of paramount importance for future quantum information processing: since decoherence times have to be large enough to allow for good error correction schemes, understanding the loss of phase coherence in quantum impurity systems is a prerequisite for quantum computation in these systems. Nonequilibrium phenomena in quantum impurity systems also have to be understood, before one may gain control of manipulating quantum bits.
As a first step towards more complicated nonequilibrium situations, the reaction of a system to a quantum quench, i.e. a sudden change of external fields or other parameters of the system can be investigated. We give an introduction to a powerful numerical method used in this field of research, the numerical renormalization group method, and apply this method and its recent enhancements to various quantum impurity systems.
The main part of this thesis may be structured in the following way:
- Ferromagnetic Kondo Model,
- Spin-Dynamics in the Anisotropic Kondo and the Spin-Boson Model,
- Two Ising-coupled Spins in a Bosonic Bath,
- Decoherence in an Aharanov-Bohm Interferometer.
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
The ab-initio molecular dynamics framework has been the cornerstone of computational solid state physics in the last few decades. Although it is already a mature field it is still rapidly developing to accommodate the growth in solid state research as well as to efficiently utilize the increase in computing power. Starting from the first principles, the ab-initio molecular dynamics provides essential information about structural and electronic properties of matter under various external conditions. In this thesis we use the ab-initio molecular dynamics to study the behavior of BaFe2As2 and CaFe2As2 under the application of external pressure. BaFe2As2 and CaFe2As2 belong to the family of iron based superconductors which are a novel and promising superconducting materials. The application of pressure is one of two key methods by which electronic and structural properties of iron based superconductors can be modified, the other one being doping (or chemical pressure). In particular, it has been noted that pressure conditions have an important effect, but their exact role is not fully understood. To better understand the effect of different pressure conditions we have performed a series of ab-initio simulations of pressure application. In order to apply the pressure with arbitrary stress tensor we have developed a method based on the Fast Inertial Relaxation Engine, whereby the unit cell and the atomic positions are evolved according to the metadynamical equations of motion. We have found that the application of hydrostatic and c axis uniaxial pressure induces a phase transition from the magnetically ordered orthorhombic phase to the non-magnetic collapsed tetragonal phase in both BaFe2As2 and CaFe2As2. In the case of BaFe2As2, an intermediate tetragonal non-magnetic tetragonal phase is observed in addition. Application of the uniaxial pressure parallel to the c axis reduces the critical pressure of the phase transition by an order of magnitude, in agreement with the experimental findings. The in-plane pressure application did not result in transition to the non-magnetic tetragonal phase and instead, rotation of the magnetic order direction could be observed. This is discussed in the context of Ginzburg-Landau theory. We have also found that the magnetostructural phase transition is accompanied by a change in the Fermi surface topology, whereby the hole cylinders centered around the Gamma point disappear, restricting the possible Cooper pair scattering channels in the tetragonal phase. Our calculations also permit us to estimate the bulk moduli and the orthorhombic elastic constants of BaFe2As2 and CaFe2As2.
To study the electronic structure in systems with broken translational symmetry, such as doped iron based superconductors, it is necessary to develop a method to unfold the complicated bandstructures arising from the supercell calculations. In this thesis we present the unfolding method based on group theoretical techniques. We achieve the unfolding by employing induced irreducible representations of space groups. The unique feature of our method is that it treats the point group operations on an equal footing with the translations. This permits us to unfold the bandstructures beyond the limit of translation symmetry and also formulate the tight-binding models of reduced dimensionality if certain conditions are met. Inclusion of point group operations in the unfolding formalism allows us to reach important conclusions about the two versus one iron picture in iron based superconductors.
And finally, we present the results of ab-initio structure prediction in the cases of giant volume collapse in MnS2 and alkaline doped picene. In the case of MnS2, a previously unobserved high pressure arsenopyrite structure of MnS2 is predicted and stability regions for the two competing metastable phases under pressure are determined. In the case of alkaline doped picene, crystal structures with different levels of doping were predicted and used to study the role of electronic correlations.
A new technique for precision ion implantation has been developed. A scanning probe has been equipped with a small aperture and incorporated into an ion beamline, so that ions can be implanted through the aperture into a sample. By using a scanning probe the target can be imaged in a non-destructive way prior to implantation and the probe together with the aperture can be placed at the desired location with nanometer precision. In this work first results of a scanning probe integrated into an ion beamline are presented. A placement resolution of about 120 nm is reported. The final placement accuracy is determined by the size of the aperture hole and by the straggle of the implanted ion inside the target material. The limits of this technology are expected to be set by the latter, which is of the order of 10 nm for low energy ions. This research has been carried out in the context of a larger program concerned with the development of quantum computer test structures. For that the placement accuracy needs to be increased and a detector for single ion detection has to be integrated into the setup. Both issues are discussed in this thesis. To achieve single ion detection highly charged ions are used for the implantation, as in addition to their kinetic energy they also deposit their potential energy in the target material, therefore making detection easier. A special ion source for producing these highly charged ions was used and their creation and interactions with solids of are discussed in detail.
Alignment, characterization and application of polyfluorene in polarized light-emitting devices
(2001)
Ziel im Rahmen der vorliegenden Dissertation war die Realisierung der polarisierten Elektrolumineszenz blau emittierender flüssigkristalliner Polyfluorene. Polymere Leuchtdioden, die aufgrund hoher Orientierung der Moleküle in der aktiven Schicht polarisiert emittieren, sind für eine Anwendung beispielsweise als Hintergrundbeleuchtung in Flüssigkristallanzeigen (LCDs) von Interesse. Es wurde gezeigt, dass sich mit der Ausrichtung von Polyfluoren auf Ori entierungsschichten auf der Basis von geriebenem Polyimid hohe Ordnungsgrade erzielen lassen. Die Dotierung mit lochleitenden Materialien erlaubte erstmals den Einbau solcher Orientierungsschichten in Leuchtdioden und ermöglichte die Realisierung polarisierter Elektrolumineszenz. Die Morphologie und Struktur sowohl der hoch orientierten Polyfluoren filme als auch lochleitender Orientierungsschichten wurden eingehend untersucht. Die ElektrolumineszenzEigenschaften von isotropen sowie polarisierten Leuchtdioden wurden ausführlich analysiert und anschließend durch chemische Modifizierung des Polyfluorens entscheidend verbessert. Zusätzlich wurde Polyfluoren mit fluoreszierenden Farbstoffen dotiert, um ausgehend von blauem Licht grüne und rote Emission zu erhalten. Hierbei wurde unter sucht, in welchem Maß FörsterEnergietransfer sowie Ladungsträgereinfang für die Emission der eingemischten Farbstoffe verantwortlich sind. Eine Einführung in die Grundlagen der Elektrolumineszenz konjugierter Polymere findet sich in Kapitel 2 dieser Arbeit. Da polarisierte Elektrolumineszenz ein hohes Maß an Anistotropie der emittierenden Schicht erfordert, werden anschließend verschiedene Methoden zur Ausrichtung von Polymeren besprochen, wobei besondere Betonung auf der Orientierung flüssigkristalliner Polymere liegt. Kapitel 3 behandelt die signifikanten Eigenschaften der Polymere sowie die experimentel len Methoden, die im Rahmen dieser Arbeit verwendet wurden. Neben Polyfluoren wird ein weiteres blau emittierendes Polymer, Polyphenylenethynylen (PPE), eingeführt. Bei der Cha rakterisierung der Polyfluorene wird im Anschluss an die Beschreibung der reinen Polymere insbesondere der positive Einfluss des Anbringens von lochleitende Endgruppen an die Hauptkettenenden auf wesentliche Eigenschaften bezüglich der Elektrolumineszenz aufgezeigt. Außerdem werden die wesentlichen Merkmale von Polyimid, welches die Matrix der Orientierungsschicht bildet, sowie von verschiedenen Polymeren, die der Lochleitung und der Lochinjektion dienen, besprochen. Die Beschreibung der Methoden zur Präparation isotroper und polarisierter Leuchtdioden sowie zur Untersuchung der optischen, elektrischen und mor phologischen Eigenschaften der Polymerfilme bilden den Abschluss dieses Abschnitts. Im vierten Kapitel dieser Arbeit werden unterschiedliche Verfahren zur Ausrichtung der Polymermoleküle auf Polyfluoren sowie auf PPE angewandt und hinsichtlich der erreichbaren Ordnungsgrade verglichen und beurteilt. Im Falle von Polyfluoren wurde gezeigt, dass eine Orientierung im flüssigkristallinen Zustand mit Hilfe zusätzlicher Orientierungsschichten, welche auf geriebenem Polyimid basieren, die einzige geeignete Methode zur Orientierung dieses Po lymers ist. Durch den Zusatz von niedrigmolekularen lochleitenden Materialien in geeigneter Konzentration in die PolyimidMatrix konnte das nichtleitende Polyimid so modifiziert wer den, dass es sich in Leuchtdioden einbinden ließ, ohne dass die Orientierungseigenschaften der Schichten verloren gingen. Vergleiche unterschiedlicher Polyfluorene ergaben, dass die Länge und Struktur der AlkylSeitenketten das Orientierungsverhalten entscheiden beeinflussen. Hierbei wurde gezeigt, dass sich für verzweigte Seitenketten deutlich höhere Orientierungsgrade erreichen lassen als für solche mit linearen Seitenketten. Dies wurde mit dem vergrößerten Verhältnis aus Persistenzlänge und Polymerdurchmesser erklärt, was gemäß der Theorie der flüssigkristallinen Polymere zu einer Zunahme des erreichbaren Ordnungsparameter führt. Außerdem wiesen die Absorptionsspektren der Polyfluorene mit langen Seitenketten auf eine planare Konformation der Polymerrückgrate hin, welche aufgrund der starken Wechselwirkung zwischen den einzelnen Ketten eine Orientierung im flüssigkristallinen Zustand verhindert. Von allen untersuchten Polyfluorenen ließ sich Poly(diethylhexylfluoren) (PF2/6) am besten orientieren. Im Gegensatz zu Polyfluoren scheiterte der Versuch, PPE im flüssigkristallinen Zustand auf Orientierungsschichten auszurichten. Kalorimetrische DSCUntersuchungen machten deutlich, dass sich die Struktur von PPE in flüssigkristalliner und kristalliner Phase nur unwesentlich voneinander unterscheiden. In beiden Phasen deuteten Absorptionsuntersuchungen auf eine planare Konformation der PPERückgrate. Die Viskosität des als sehr steif bekannten Polymers PPE ist daher auch in flüssigkristallinem Zustand zu hoch, um eine Umordnung der Moleküle zu verursachen, welche allein durch Wechselwirkung mit einer Orientierungsschicht hervorgerufen wird. PPE konnte jedoch im kristallinen Zustand orientiert werden, indem anstatt einer zusätzlichen Orientierungsschicht der Polymerfilm selbst gerieben wurde. Die hohe Steifigkeit von PPE erlaubte die Übertragung der Kräfte, die durch das Reiben verursacht werden, auf das starre Polymerrückgrat und ermöglichte eine homogene Ausrichtung der Moleküle. Mit Hilfe dieser Methode konnten Leuchtdioden mit PPE in der aktiven Schicht verwirklicht werden, die polarisiert emittierten. Die bestmöglichen Methoden zur Ausrichtung der Moleküle unterschie den sich demnach für die beiden flüssigkristallinen Polymere Polyfluoren und PPE, und für beide Polymere wurden Verfahren gefunden, die die Herstellung von polarisierten Leuchtdioden ermöglichten. In Kapitel 5 dieser Arbeit werden die Morphologie, die Struktur sowie weitere wesentliche Eigenschaften sowohl orientierter Polyfluorenfilme als auch der zur Ausrichtung benötigten lochleitenden Orientierungsschichten aus dotiertem Polyimid besprochen. Hierfür wurden die Filme mit Hilfe von Licht und Elektronenmikroskopie sowie von Elektronen und Röntgen beugungsexperimenten untersucht. Im ersten Teil wird die beobachtete Abnahme der Orien tierbarkeit von Polyfluoren mit zunehmendem Molekulargewicht durch Elektronenbeugungs untersuchungen näher beschrieben. Ergebnisse aus TransmissionsElektronenmikroskopie Untersuchungen zeigten, dass sich die Morphologie orientierter PF2/6Filme durch hochgeordnete Lamellen auszeichnet, welche in regelmäßigen Abständen von ungeordneten Regionen unterbrochen werden. Innerhalb der orientierten Lamellen sortieren sich die Moleküle nach ähnlicher Kettenlänge, wohingegen in den ungeordneten Gebieten vornehmlich die Endgruppen der Ketten vorzufinden sind. Strukturuntersuchungen ergaben, dass die einzelnen Polymerketten von PF2/6 zylindrisch sind und eine hexagonale Packung aufweisen, wobei die Polymerrück grate eine 5/2Helixstruktur bilden. Das wurmähnliche Rückgrat ist dabei zylinderförmig von einer Hülle aus ungeordneten Seitenketten umgeben, die ähnlich wie ein Lösungsmittel zwi schen den einzelnen Ketten wirken. Die hieraus folgende geringe Viskosität des Polymers dient als Erklärung für die beobachtete bessere Orientierbarkeit von PF2/6 im Vergleich zu Polyfluoren mit linearen OktylSeitenketten oder zu PPE. Im zweiten Teil des fünften Kapitels werden Ergebnisse von Untersuchungen der lochlei tenden Orientierungsschichten vorgestellt. Der Einfluss der Zugabe von lochleitenden Materialien zu Polyimid auf mechanische sowie auf elektrische Eigenschaften wurde untersucht. Bei moderater LochleiterKonzentration war die mechanische Stabilität der Filme ausreichend, um nach dem Reiben keine merklichen Unterschiede zu undotierten geriebene Filmen aufzuweisen. Vergleiche entsprechender Filme hinsichtlich Ladungsinjektion und transport zeigten, dass erst durch die Dotierung eine Verwendung von PolyimidOrientierungsschichten in Leuchtdioden ermöglicht wird. Sowohl polymere als auch niedrigmolekulare lochleitende Materialien wur den hinsichtlich der erreichbaren Orientierungsgrade sowie der resultierenden ElektrolumineszenzEigenschaften verglichen, wobei nur letztere in beiden Belangen zugleich zu vorteilhaften Ergebnissen führten. Es wurde gezeigt, dass sich die besten Resultate mit polarisierten Leuchtdioden erzielen ließen, bei denen die emittierende Schicht auf eine DoppelschichtStruktur aufgebracht war, die der Lochinjektion und der Orientierung dienten. Hierbei befand sich oberhalb einer LochinjektionsSchicht aus reinem Lochleitermaterial eine weitere lochleitende Orientie rungsSchicht aus dotiertem Polyimid. Variation der Lochleiterkonzentrationen in Polyimid er gaben, dass die Helligkeit mit zunehmender Konzentration zunahm, wohingegen die erreichten Polarisationsverhältnisse gleichzeitig abnahmen. SEM und AFMUntersuchungen über den Einfluss der Lochleiterkonzentration auf die Schichtmorphologie ergaben, dass diese Beobachtungen durch Phasenseparation und mechanische Beschädigung der Filme zu erklären ist, welche bei Konzentrationen oberhalb 20 Gewichtsprozent eintreten. Im Kapitel 6 wird schließlich die Elektrolumineszenz von Leuchtdioden mit Polyfluoren als emittierende Schicht diskutiert. Zuerst wurde in isotropen Leuchtdioden die günstigste Diodenarchitektur ermittelt sowie die Optimierung der verwendeten Schichten vorgenommen. Die Ergebnisse wurden mit den Kenntnissen kombiniert, die im Rahmen der oben beschriebenen Untersuchungen erworben wurden, um die Herstellung von Leuchtdioden mit hochpolarisierter Emission zu verwirklichen. Blaue Elektrolumineszenz mit einem Emissionsmaximum von 450 nm und einem Polarisationsverhältnis von 21 wurden erzielt, wobei die Leuchtdichte bei einer angelegten Spannung von 18 V etwa 100 cd/m 2 betrug, was der typischen Helligkeit eines Computermonitors entspricht. Alle ElektrolumineszenzEigenschaften ließen sich durch End funktionalisierung des Polyfluorens weiter deutlich verbessern, indem lochleitende TriarylaminDerivate an die Enden der Hauptketten angebracht wurden ('Endcapping'). Der unerwünschte Beitrag zur Emission bei höheren Wellenlängen, welcher im Falle des reinen Polyfluoren beo bachtet wurde und gemeinhin aggregierten Polymermolekülen zugeschrieben wird, wurde durch das Konzept der Endfunktionalisierung wirksam unterdrückt. Außerdem war die Farbstabilität wesentlich verbessert und die Effizienz der Leuchtdioden um mehr als eine Größenordnung höher als bei der Verwendung des reinen Polyfluorens. Diese Beobachtungen wurden mit den elektrochemischen Eigenschaften der Endgruppen erklärt. Letztere wirken als anziehende Fallen für Ladungsträger, was dazu führt, dass die Erzeugung von Exzitonen und die anschließende Rekombination vorwiegend in der Nähe der Kettenenden stattfindet, anstatt wie im Falle des reinen Polyfluorens an weniger effizienten Aggregaten oder Exzimererzeugenden Stellen. Es wurde gezeigt, dass die Endfunktionalisierung weder das Verhalten des Polymers im flüssig-kristallinen Zustand, noch dessen Orientierbarkeit beeinträchtigte. Die Verwendung des modifizierten Polyfluorens erlaubte die Herstellung von polarisierten Leuchtdioden mit einem Polarisationsverhältnis von 22 und einer Leuchtdichte von 200 cd/m 2 bei 19 V, wobei die Schwellspannung auf 7,5 V gesenkt wurde. Dioden mit einem Anisotropiefaktor von 15 er reichten Leuchtdichten von bis zu 800 cd/m 2 . Die Effizienz dieser Leuchtdioden war mit 0,25 cd/A bei ähnlichem Polarisationsverhältnis und Leuchtdichte um mehr als doppelt so hoch wie die bisher berichteten Werte. Die Veränderung der eigentlich blauen Emissionsfarbe durch die Zugabe von Materialien mit niedrigerer Bandlücke in eine Polyfluorenmatrix wird im Kapitel 7 beschrieben. Es wurde gezeigt, dass der Zusatz bereits geringer Konzentrationen eines grün emittierenden Thiophen Farbstoffes das Emissionsspektrum des Polyfluorens entscheidend veränderte und die Realisierung grüner Emission ermöglichte. Genau wie im Falle der nichtemittierenden Lochleiter, die für die Endfunktionalisierung des Polyfluoren verwendet wurden, wirken auch die ThiophenFarbstoffe als effektive Ladungsträgerfallen, was neben der Farbveränderung eine drastische Verbesserung der Leuchtdiodeneffizienzen zur Folge hatte. Darüber hinaus konnte mit Hilfe des dotierten Polyfluorens polarisierte grüne Elektrolumineszenz verwirklicht werden, wobei die Polarisationsverhältnisse Werte von bis zu 30 erreichten, bei einer Leuchtdichte von 600 cd/m 2 und einer Effizienz von 0,3 cd/A. Im Hinblick auf rote Elektrolumineszenz wurden Leuchtdioden mit dendronisierten Pery lenfarbstoffen in der emittierenden Schicht untersucht, zum einen in reiner Form und zum an deren in Mischungen mit Polyfluoren. Hierfür wurden zwei Generationen von Dendrimeren, bestehend aus zentralem PerylendiimidChromophor und PolyphenylenGerüst, mit einer nichtdendronisierten Modellverbindung verglichen. Leuchtdioden mit reinen Filmen der ersten und zweiten Dendrimergeneration emittierten rotes Licht mit CIEKoordinaten (0,627/0,372) und einer Leuchtdichte von bis zu 120 cd/m 2 bei 11 V, wobei die Effizienz allerdings nur 0,03 cd/A betrug. Um die unterschiedlichen Mechanismen zu klären, die zur Emission der Farbstoffmoleküle führen, wurden die Farbstoffe in Polyfluoren beigemischt, und der Einfluss der Dendronisierung auf die Emissionsfarbe und die Intensität der Elektrolumineszenz wurde untersucht. In Photolumineszenz wurde mit zunehmender Dendronisierung eine Abnahme des Förster Energieübertrags vom PolyfluorenWirt zu dem PerylenfarbstoffGast verzeichnet, was zu einen höheren blauen Anteil im Emissionsspektrum führte. Hingegen wurde gezeigt, dass in Elektrolumineszenz die Farbstoffe als Elektronenfallen wirken und die Rekombination der Ladungsträger zu Exzitonen somit vorwiegend auf den Farbstoff anstatt auf den Polyfluorenmolekülen statt findet. Aus diesem Grund war die Betonung der roten Emission in Elektrolumineszenz ungleich stärker als in Photolumineszenz, bei der die rote Emission ausschließlich durch Energieübertrag via Förstertransfer zu Stande kommt. Die Verstärkung einer Farbverschiebung von rot nach blau, die mit zunehmender Dendronisierung und ansteigender Betriebsspannung beo bachtet wurde, konnte qualitativ mit der kinetischen Beeinträchtigung des Elektronenübertrags vom PolyfluorenWirt auf den PerylendiimidChromophor erklärt werden. Der bestmögliche Kompromiss aus roter Farbtiefe und Helligkeit wurde für die Mischung aus Polyfluoren und dem Farbstoff der ersten Dendrimergeneration erzielt. Bei angelegter Spannung von 6,5 V lag die Leuchtdichte bei 100 cd/m 2 und bei 11 V bei 700 cd/m 2 , wobei das Emission bei 600 nm ihr Maximum hatte.
The PANDA experiment will be one of the flagship experiments at the future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany. It is a versatile detector dedicated to topics in hadron physics such as charmonium spectroscopy and nucleon structure. A DIRC counter will deliver hadronic particle identification in the barrel part of the PANDA target spectrometer and will cleanly separate kaons with momenta up to 3.5 GeV/c from a large pion background. An alternative DIRC design option, using wide Cherenkov radiator plates instead of narrow bars, would significantly reduce the cost of the system. Compact fused silica photon prisms have many advantages over the traditional stand-off boxes filled with liquid. This work describes the study of these design options, which are important advancements of the DIRC technology in terms of cost and performance. Several new reconstruction methods were developed and will be presented. Prototypes of the DIRC components have been built and tested in particle beam, and the new concepts and approaches were applied. An evaluation of the performance of the designs, feasibility studies with simulations, and a comparison of simulation and prototype tests will be presented.
In this thesis the first fully integrated Boltzmann+hydrodynamics approach to relativistic heavy ion reactions has been developed. After a short introduction that motivates the study of heavy ion reactions as the tool to get insights about the QCD phase diagram, the most important theoretical approaches to describe the system are reviewed. To model the dynamical evolution of the collective system assuming local thermal equilibrium ideal hydrodynamics seems to be a good tool. Nowadays, the development of either viscous hydrodynamic codes or hybrid approaches is favoured. For the microscopic description of the hadronic as well as the partonic stage of the evolution transport approaches have beeen successfully applied, since they generate the full phse-space dynamics of all the particles. The hadron-string transport approach that this work is based on is the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) approach. It constitutes an effective solution of the relativistic Boltzmann equation and is restricted to binary collisions of the propagated hadrons. Therefore, the Boltzmann equation and the basic assumptions of this model are introduced. Furthermore, predictions for the charged particle multiplicities at LHC energies are made. The next step is the development of a new framework to calculate the baryon number density in a transport approach. Time evolutions of the net baryon number and the quark density have been calculated at AGS, SPS and RHIC energies and the new approach leads to reasonable results over the whole energy range. Studies of phase diagram trajectories using hydrodynamics are performed as a first move into the direction of the development of the hybrid approach. The hybrid approach that has been developed as the main part of this thesis is based on the UrQMD transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The initial energy and baryon number density distributions are not smooth and not symmetric in any direction and the initial velocity profiles are non-trivial since they are generated by the non-equilibrium transport approach. The fulll (3+1) dimensional ideal relativistic one fluid dynamics evolution is solved using the SHASTA algorithm. For the present work, three different equations of state have been used, namely a hadron gas equation of state without a QGP phase transition, a chiral EoS and a bag model EoS including a strong first order phase transition. For the freeze-out transition from hydrodynamics to the cascade calculation two different set-ups are employed. Either an in the computational frame isochronous freeze-out or an gradual freeze-out that mimics an iso-eigentime criterion. The particle vectors are generated by Monte Carlo methods according to the Cooper-Frye formula and UrQMD takes care of the final decoupling procedure of the particles. The parameter dependences of the model are investigated and the time evolution of different quantities is explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic flow values at SPS energies are shown to be in line with an ideal hydrodynamic evolution if a proper initial state is used and the final freeze-out proceeds gradually. The hybrid model calculation is able to reproduce the experimentally measured integrated as well as transverse momentum dependent $v_2$ values for charged particles. The multiplicity and mean transverse mass excitation function is calculated for pions, protons and kaons in the energy range from $E_{\rm lab}=2-160A~$GeV. It is observed that the different freeze-out procedures have almost as much influence on the mean transverse mass excitation function as the equation of state. The experimentally observed step-like behaviour of the mean transverse mass excitation function is only reproduced, if a first order phase transition with a large latent heat is applied or the EoS is effectively softened due to non-equilibrium effects in the hadronic transport calculation. The HBT correlation of the negatively charged pion source created in central Pb+Pb collisions at SPS energies are investigated with the hybrid model. It has been found that the latent heat influences the emission of particles visibly and hence the HBT radii of the pion source. The final hadronic interactions after the hydrodynamic freeze-out are very important for the HBT correlation since a large amount of collisions and decays still takes place during this period.
An investigation of photoelectron angular distributions and circular dichroism of chiral molecules
(2021)
The present work demonstrates the capability of several type of molecular frame photoelectron angular distributions (MFPADs) and their linked chiroptical phenomenon the photoelectron circular dichroism (PECD) to map in great detail the molecular geometry of polyatomic chiral molecules as a function of photoelectron energy. To investigate the influence of the molecular potential on the MFPADs, two chiral molecules were selected, namely 2-(methyl)oxirane (C3H6O, MOx, m = 58,08 uma) and 2-(trifluoromethyl)oxirane (C3H3F3O, TFMOx, m = 112,03 uma). The two molecules differs in one substitutional group and share an oxirane group where the O(1s) electron was directly photoionized with the use of synchrotron radiation in the soft X-ray regime. The direct photoionization of the K-shell electron is well localized in the molecule and it induces the ejection of two or more electrons; the excited system separates into several charged (and eventually neutral) fragments which undergo Coulomb explosion due to their charges. The electrons and the fragments were detected using the COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) and the momentum vectors calculated for each fragment belonging from a single ionization. The former method gives the possibility to post-orient molecules in space, giving access to the molecular frame, thus the MFPAD and its related PECD for multiple light propagation direction.
Stereochemistry (from the Greek στερεο- stereo- meaning solid) refers to chemistry in three dimensions. Since most molecules show a three-dimensional structure (3D), stereochemistry pervades all fields of chemistry and biology, and it is an essential point of view for the understanding of chemical structure, molecular dynamics and molecular reactions. The understanding of the chemistry of life is tightly bounded with major discoveries in stereochemistry, which triggered tremendous technical advancements, making it a flourishing field of research since its revolutionary introduction in late 18th century. In chemistry, chirality is a brunch of stereochemistry which focuses on objects with the peculiar geometrical property of not being superimposable to their mirror-images. The word chirality is derived from the Greek χειρ for “hand”, and the first use of this term in chemistry is usually attributed to Lord Kelvin who called during a lecture at the Oxford University Junior Scientific Club in 1893 “any geometrical figure, or group of points, “chiral”, and say that it has chirality if its image in a plane mirror, ideally realized, cannot be brought to coincide with itself.”. Although the latter is usually considered as the birth of the word chirality, the concept underlying it was already present in several fields of science (above all mathematics), already proving the already multidisciplinary relevance of chirality across many field of science and beyond. Nature shows great examples of chiral symmetry on all scales. Empirically, it is possible to observe it at macroscopic scale (e.g. distribution of rotations of galaxies), down to the microscopic scale (e.g. structure of some plankton species), but it is at the molecular level where the number gets remarkable: most of the pharmaceutical drugs, food fragrances, pheromones, enzymes, amino acids and DNA molecules, in fact, are chiral. Moreover, the concept of chirality goes far beyond the mere spatial symmetry of objects being crucially entangled with the fundamental properties of physical forces in nature. The symmetry breaking, namely the different physical behaviour of a two chiral systems upon the same stimuli, is considered to be one of the best explanation for the long standing questions of homochirality in biological life, and ultimately to the chemical origin of life on Earth as we know it. Our organism shows high enantio-selectivity towards specific compounds ranging from drugs, to fragrances. Over 800 odour molecules commonly used in food and fragrance industries have been identified as chiral and their enantiomeric forms are perceived to have very different smells, as the well-know example of D- and L- limonene. Similarly, responses to pharmaceuticals drugs can be enantiomer specific, and in fact about 60 % the drugs currently on the market are chiral compounds, and nearly 90 % of them are sold as racemates. The same degree of enantio-selectivity is observed in the communications systems of plants and insects. Plants produce lipophilic liquids with high vapour pressure called plant volatiles (PVs) which are synthesized via different enzymes called tarpene synthases that are usually chiral. Chiral molecules and chiral effects have a strong impact on all the fields of science with exciting developments ranging from stereo-selective synthesis based on heterogeneous enantioselective catalysis, to optoelctronics, to photochemical asymmetric synthesis, and chiral surface science, just to cite a few.
Chiral molecules come in two forms called enantiomers. Their almost identical chemical and physical properties continue to pose technical challenges concerning the resolution of racemic mixtures, the determination of the enantiomeric excess, and the direct determination of the absolute configuration of an enantiomer. ...
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
Analyse der hadronischen Endzustandsverteilungen in ultra-relativistischen Blei-Blei-Kollisionen
(1997)
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen der hochangeregten hadronischen Kernmaterie führen möglicherweise zu einem Übergang in eine partonische Phase ohne Einschluß der Quarks und Gluonen in Hadronen (Quark-Gluon Plasma). Dieser Kontinuumszustand der Quantenchromodynamik wird in der frühen Anfangsphase des Universums bei sehr hohen Temperaturen und im Inneren von Neutronensternen bei einem Vielfachen der Grundzustandsdichte von Kernmaterie erwartet. Im Herbst 1994 wurden am europäischen Kernforschungszentrum CERN im Rahmen des NA49-Experimentes zentrale 208Pb + 208Pb - Kollisionen am SPS bei einer Einschußenergie von 158 GeV pro Nukleon untersucht. Die Daten wurden in einer der Spurendriftkammern (VTPC2) aufgenommen, die zur präzisen Messung des Impulses in einem Magnetfeld positioniert wurde. Aus diesem Datenensemble wurden in dieser Arbeit 61000 Ereignisse in Hinblick auf die Produktion negativ geladener Hadronen (h-) und die Endzustandsverteilungen der an der Reaktion teilnehmenden Nukleonen (Partizipanten) analysiert. Die Phasenraum-Akzeptanz der VTPC2 erstreckt sich für die negativ geladenen Hadronen im Rapiditätsintervall yPi = [3.2 5.0] und für die Netto-Protonen bei yp = [3.0, 4.4] über den Transversalimpuls-Bereich von p..=[0.0 2.0] GeV/c. Die statistischen Fehler der vorgestellten Ergebnisse reduzieren sich durch die große Statistik zu << 1%, die systematischen Fehler der Impulsmessung liegen im Bereich <= 2%. Die Korrektur auf Ineffizienzen des verwendeten Spur-Rekonstruktionsalgorithmus ist mit der lokalen Spurdichte und der Ereignismultiplizität korreliert und trägt wesentlich zum systematischen Fehler bei: für die negativ geladenen Hadronen im Bereich von 5%, für die Netto-Protonen 15-20%. Die Untersuchung der Effekte hoher Raumladungsdichten in verschiedenen Zählgasen der Spurendriftkammern führte zu einer Optimierung der Betriebsparameter der Detektoren und damit zu einer Reduzierung der Zahl saturierter Auslesekanäle. Die erhöhte Effizienz der Spurpunkt-Rekonstruktion verbesserte die Zweispurauflösung auf 100% bei einem mittleren Abstand von 2 cm zwischen zwei benachbarten Spuren, die Ortsauflöosung in der VTPC2 liegt im Bereich von 270-350 Mikrom in longitudinaler und transversaler Richtung und die relative Impulsauflösung beträgt dp/p exp 2 ~ 2 x 10 exp (-4) (GeV/c) exp (-1). Die in zentralen Blei-Blei-Stößen produzierten negativ geladenen Hadronen weisen mittlere Transversalimpulse von <p..> ~ 366 MeV/c bei y Pi = 4.3 bis <p..> ~ 300 MeV/c bei y Pi auf; für die Netto-Protonen fällt der aus dem mittleren Transversalimpuls berechnete Temperaturparameter von 275 MeV bei midrapidity bis zu 230 MeV bei yp = 4.3 ab. Im Vergleich mit anderen Stoßsystemen als Funktion der Anzahl produzierter Teilchen wird ein leichter Anstieg von <p..> beobachtet. Die Rapiditätsabhängigkeit des mittleren Transversalimpulses der produzierten h- in Nukleon-Nukleon- und zentralen Schwefel-Schwefel-Reaktionen ist mit denen der untersuchten Pb-Kollisionen in Form und Breite der Verteilung vergleichbar. Die Analyse der Transversalimpuls-Spektren von h- und (p-anti-p) fürt zu inversen Steigungsparametern von <T Pi> ~ 165 MeV und <T Pi> ~ 255 MeV, die teilweise über der von Hagedorn vorhergesagten Grenztemperatur eines hadronischen Gases liegen. Zudem zeigen die Spektren des invarianten Wirkungsquerschnittes deutliche Abweichungen von dem in einem thermischen Modell erwarteten exponentiellen Verlauf bei kleinen und großen <p..>. Innerhalb eines hydrodynamischen Modells sind diese Abweichungen vom idealen Verlauf mit einer kollektiven transversalen Expansion kompatibel, die mittleren transversalen Flußgeschwindigkeiten betragen <v..> ~ 0.6 c, die Ausfriertemperaturen <T PI, f0> ~ 95 MeV und <T P, f0> ~ 110 MeV. Die im Vergleich zu Nukleon-Nukleon-Stößen in Schwerionenreaktionen erhöhte Produktion von h- bei kleinen Transversalimpulsen wird in allen betrachteten y Pi -Intervallen zu 10-20% bestimmt. Im Gegensatz zu Messungen des NA44-Experimentes mit <h->/<h+> = 1.8 kann aus dem Verhältnis des invarianten Wirkungsquerschnittes von negativ zu positiv geladenen Hadronen bei kleinen transversalen Energien nur eine moderate Erhöhung um <h->/<h+> = 1.2 festgestellt werden, was auf keinen signifikanten Coulomb-Effekt durch eine mitbewegte positive Ladung schließen läßt. Die Erweiterung der Akzeptanz der (p - anti p)-Rapiditätsverteilung in der VTPC2 durch Messungen der MTPC bei großen Rapiditäten führt zu einer mittleren Gesamtmultiplizität von 151 +- 9 an der Reaktion teilnehmenden Protonen pro Ereignis. Der durchschnittliche Rapiditätsverlust der Projektilprotonen beträgt <delta y> = 1.99 +- 0.19, für zentrale Kollisionen des S+S-Systems ergibt sich ein um 20% niedrigerer Wert. Das Verhältnis der Dichte der hochkomprimierten Materie im Reaktionsvolumen zur Grundzustandsdichte von Kernmaterie ist im Rahmen von Modellvorhersagen rho/rho ~ 7.3. Der mittlere Energieverlust pro Nukleon im Schwerpunktsystem wurde bei einer zur Verfügung stehenden Eingangsenergie von sqrt(s) = 8.6 GeV/Nukleon zu <dE> exp (cms) N = 5.4 GeV ermittelt: die Stopping Power ergibt P = 63 %. Aus der Baryonen-Dichte bei midrapidity läßt sich in einem einfachen 2-Flavour Modell das baryo-chemische Potential zu mü-B = 182 MeV berechnen. Die ermittelte Gesamtmultiplizität der h- beträgt 716 +-11, die Breite einer angepaßten Gauß-Verteilung ist mit Rhp -Pi = 1.37 um 40% breiter als die dn/dy-Verteilung einer stationären, thermisch emittierenden Quelle: zusammen mit Messungen der Quellgrößen und einer longitudinalen Expansionsgeschwindigkeit innerhalb der HBT-Analyse ergibt sich das Bild einer elongierten, longitudinal boost-invariant expandierenden Quelle. Die dn/dy-Verteilungen der h- aus <N + N>- und Pb+Pb-Reaktionen zeigen die Andeutung eines Plateaus um die Schwerpunktsrapidität, was auf eine Teilchenproduktion gemäß dem Bjorken-Bild entlang eines zylinderförmigen Reaktionsvolumens schließen läßt. Die Zahl der produzierten negativ geladenen Hadronen pro Partizipant beträgt in den analysierten Ereignissen <h->/<N B - AntiB> = 1.88 und steigt im Vergleich mit den Werten aus den symmetrischen Stßsystemen <N+N> und S+S leicht an. Die im Reaktionsvolumen deponierte Energie aus dem Energieverlust der partizipierenden Nukleonen wird somit nur geringfügig für die erhöhte Produktion von h- verwendet. Die h-Multiplizität als Maß für die System-Entropie zeigt - ebenso wie die im NA35-Experiment gemessenen zentralen S+S-Kollisionen bei 200 GeV pro Nukleon - als Funktion der Einschußenergie der Projektilkerne eine Überhöhung im Vergleich zu Reaktionen bei niedrigeren Energien, was einem möglichen Anstieg der Zahl der Freiheitsgrade und damit der Formation einer partonischen Phase bei ultra-relativistischen Schwerionenkollisionen entsprechen könnte. Aus den Messungen der Netto-Baryonen und der produzierten h- wurde im Bjorken-Bild die Energiedichte im zentralen Reaktionsvolumen zu E = 2.14 GeV/fm exp 3 bestimmt.
We discuss aspects of the phase structure of a three-dimensional effective lattice theory of Polyakov loops derived from QCD by strong coupling and hopping parameter expansions. The theory is valid for the thermodynamics of heavy quarks where it shows all qualitative features of nuclear physics emerging from QCD. In particular, the SU(3) pure gauge effective theory also exhibits a first-order thermal deconfinement transition due to spontaneous breaking of its global Z₃ center symmetry. The presence of heavy dynamical quarks breaks this symmetry explicitly and consequently, the transition weakens with decreasing quark mass until it disappears at a critical endpoint. At non-zero baryon density, the effective theory can be evaluated either analytically by the so-called high-temperature expansion which does not suffer from the sign problem, or numerically by standard Monte-Carlo methods due to its mild sign problem. The first part of this work devotes to a systematic derivation of the effective theory up to the 6th order in the hopping parameter κ. This method combined with the SU(3) link update algorithm provides a way to simulate the O(κ⁶) effective theory. The second part involves a study of the deconfinement transition of the pure gauge effective theory, with and without static quarks, at all chemical potentials with help of the high-temperature expansion. Our estimate of the deconfinement transition and its critical endpoint as a function of quark mass and all chemical potentials agrees well with recent Monte-Carlo simulations. In the third part, we investigate the N ſ ∈ {1,2} effective theory with zero chemical potential up to O(κ⁴). We determine the location of the critical hopping parameter at which the first-order deconfinement phase transition terminates and changes to a crossover. Our results for the critical endpoint of the O(κ²) effective theory are in excellent agreement with the determinations from simulations of four-dimensional QCD with a hopping expanded determinant by the WHOT-QCD collaboration. For the O(κ⁴) effective theory, our estimate suggests that the critical quark mass increases as the order of κ-contributions increases. We also compare with full lattice QCD with N ſ = 2 degenerate standard Wilson fermions and thus obtain a measure for the validity of both the strong coupling and the hopping expansion in this regime.
Im Rahmen dieser Arbeit wurde ein Reaktionsmikroskop (REMI) nach dem Messprinzip COLTRIMS (Cold Target Recoil Ion Momentum Spectrometry) neu konstruiert und aufgebaut. Die Leistungsfähigkeit des Experimentaufbaus konnte sowohl in diversen Testreihen als auch anschließend unter realen Messbedingungen an der Synchrotronstrahlungsanlage SOLEIL und am endgültigen Bestimmungsort SQS-Instrument (Small Quantum Systems) des Freie-Elektronen-Lasers European XFEL (X-ray free-electron laser) eindrucksvoll unter Beweis gestellt werden.
Mit der Experimentiertechnik COLTRIMS ist es möglich, alle geladenen Fragmente einer Wechselwirkung eines Projektilteilchens mit einem Targetteilchen mittels zweier orts- und zeitauflösender Detektoren nachzuweisen. In einem Vakuumrezipienten wird die als Molekularstrahl präparierte Targetsubstanz inmitten der Hauptkammer zentral mit einem Projektilstrahl (z.B. des XFEL) zum Überlapp gebracht, sodass dort eine Wechselwirkung stattfinden kann. Bei den entstehenden Fragmenten handelt es sich um positiv geladene Ionen sowie negative geladene Elektronen. Elektrische Felder, erzeugt durch eine Spektrometer-Einheit, sowie durch Helmholtz-Spulen erzeugte magnetische Felder ermöglichen es, die geladenen Fragmente in Richtung der Detektoren zu lenken. Die Orts- und Zeitmessung eines einzelnen Teilchens (z.B. eines Ions) findet in Koinzidenz mit den anderen Teilchen (z.B. weiteren Ionen bzw. Elektronen) statt. Mit dieser Messmethode können die Impulsvektoren und Ladungszustände aller geladenen Fragmente in Koinzidenz gemessen werden. Da hierbei die geometrische Anordnung der einzelnen Komponenten für die Leistungsfähigkeit des Experiments eine entscheidende Rolle spielt, mussten bei der Neukonstruktion des COLTRIMS-Apparates für den Einsatz an einem Freie-Elektronen-Laser (FEL) einige Rahmenbedingungen erfüllt werden. Besonders wurden die hohen Vakuumvoraussetzungen an den Experimentaufbau aufgrund der enormen Lichtintensität eines FEL beachtet. Das Zusammenspiel der vielen Einzelkomponenten konnte zunächst in mehreren Testreihen überprüft werden. Unter anderem durch Variation der Vakuumbauteile in Material und Beschaffenheit konnten die zuvor ermittelten Vorgaben schließlich erreicht werden. Das neu konstruierte Target-Präparationssystem zur Erzeugung molekularer Gasstrahlen erlaubt nun den Einsatz von bis zu vier unterschiedlich dimensionierten, differentiell gepumpten Stufen. Zudem wurden hochpräzise Piezo-Aktuatoren verbaut, welche die Bewegung von Blenden im Vakuum erlauben, wodurch eine variable Einstellung des lokalen Targetdrucks ermöglicht wird. Die Anpassung der elektrischen Felder des Spektrometers für ein jeweiliges Experiment wurde mittels Simulationen der Teilchentrajektorien, Teilchenflugzeiten sowie der Detektorauflösung durchgeführt.
Da die in dieser Arbeit besprochenen Messungen und Ergebnisse die Wechselwirkungsprozesse von Röntgenstrahlung bzw. Synchrotronstrahlung mit Materie thematisieren, wird die Erzeugung von Synchrotronstrahlung sowohl in Kreisbeschleunigern als auch in den modernen Freie-Elektronen-Lasern (FEL) erklärt und hergeleitet. Der im Röntgenbereich arbeitende Freie-Elektronen-Laser European XFEL, welcher u.A. als Strahlungsquelle für die hier gezeigten Experimente diente, ist eine von derzeit noch wenigen Anlagen ihrer Art weltweit. Seine Lichtintensität in diesem Wellenlängenbereich liegt bis zu acht Größenordnungen über den bisher verwendeten Anlagen für Synchrotronstrahlung.
Beim ersten Einsatz der neuen Apparatur an der Synchrotronstrahlungsanlage SOLEIL wurde der ultraschnelle Dissoziationsprozess von Chlormethan (CH3Cl) untersucht. Während des Zerfallsprozesses nach Anregung durch Röntgenstrahlung werden hochenergetische Auger-Elektronen emittiert, welche in Koinzidenz mit verschiedenen Molekülfragmenten nachgewiesen wurden. Durch den Zerfallsmechanismus der ultraschnellen Dissoziation wird die Auger-Elektronenemission nach resonanter Molekülanregung während der Dissoziation des Moleküls beschrieben. Die kinetische Energie des Auger-Elektrons ist dabei abhängig von seinem Emissionszeitpunkt. Somit können die gemessenen Auger-Elektronen ein „Standbild“ der zeitlichen Abfolge des Dissoziationsprozesses liefern.
Es wird eine detaillierte Beschreibung der Datenanalyse vorgenommen, welche aus Kalibrationsmessungen und einer Interpretation der Messdaten besteht. Die abschließende Betrachtung besteht in der Darstellung der Elektronenemissionswinkelverteilungen im molekülfesten Koordinatensystem. Die Winkelverteilung der Auger-Elektronen wird am Anfang der Dissoziation vom umgebenden Molekül- potential beeinflusst und zeigt deutliche Strukturen entlang der Bindungsachse. Entfernen sich die Bindungspartner voneinander und das Auger-Elektron wird währenddessen emittiert, so verschwinden diese Strukturen zunehmend und eine Vorzugsemissionsrichtung senkrecht zur Molekülachse wird sichtbar.
Die Analyse der Messdaten zur Untersuchung von Multiphotonen-Ionisation an Sauerstoff-Molekülen am Freie-Elektronen-Laser European XFEL ermöglichte unter anderem die Beobachtung „hohler Moleküle“, also Systemen mit Doppelinnerschalen- Vakanzen. Solche Zustände können vor allem durch die sequentielle Absorption zweier Photonen entstehen, wobei die hierbei nötige Photonendichte nur von FEL- Anlagen bereit gestellt werden kann. Hier konnte das Ziel erreicht werden, erstmalig die Emissionswinkelverteilungen der Photoelektronen von mehrfach ionisierten Sauerstoff-Molekülen (O+/O3+-Aufbruchskanal) als Folge der ablaufenden Mechanismen femtosekundengenau zu beobachten. Hierzu wurde ein vereinfachtes Schema der verschiedenen Zerfallsschritte erstellt und schließlich ermittelt, dass der Zerfall durch eine PAPA-Sequenz beschrieben werden kann. Bei dieser handelt es sich um die zweimalige Abfolge von Photoionisation und Auger-Zerfall. Somit werden vier positive Ladungen im Molekül erzeugt. Das zweite Photon des XFEL wird dabei während der Dissoziation der sich Coulomb-abstoßenden Fragmente absorbiert, weshalb es sich um einen zweistufigen Prozess aus Anrege- und Abfrage- Schritt (Pump-Probe) handelt. Schlussendlich gelang zudem der Nachweis von Doppelinnerschalen-Vakanzen im Sauerstoff-Molekül nach Selektion des O2+/O2+- Aufbruchkanals. Hierfür konnten die beiden Möglichkeiten einer zweiseitigen oder einseitigen Doppelinnerschalen-Vakanz getrennt betrachtet werden und ebenfalls erstmalig das Verhalten der Elektronenemission dieser beiden Zustände verglichen werden.
The Compressed Baryonic Matter experiment (CBM) at FAIR and the NA61/SHINE experiment at CERN SPS aim to study the area of the QCD phase diagram at high net baryon densities and moderate temperatures using heavy-ion collisions. The FAIR and SPS accelerators cover energy ranges 2-11 and 13-150 GeV per nucleon respectively in laboratory frame for heavy ions up to Au and Pb. One of the key observables to study the properties of a matter created in such collisions is an anisotropic transverse flow of particles.
In this work, the performance of the CBM experiment for anisotropic flow measurements is studied with Monte-Carlo simulations using gold ions at SIS-100 energies employing different heavy-ion event generators. Also, procedures for centrality estimation and charged hadron identification are described and corresponding frameworks are developed.
The measurement of the reaction plane angle is performed with Projectile Spectator Detector (PSD), which is a hadron calorimeter located at a very forward angle. To prevent radiation damage by the high-intensity ion beam, the PSD has a hole in the center to let the beam pass through. Various combinations of CBM detector subsystems are used to investigate the possible systematic biases in flow and centrality measurements. Effects of detector azimuthal non uniformity and the PSD beam hole size on physics performance are studied. The resulting performance of CBM for flow measurements is demonstrated for identified charged hadron anisotropic flow as a function of rapidity and transverse momentum in different centrality classes.
The measurement techniques developed for CBM were also validated with the experimental data recently collected by the NA61/SHINE experiment at CERN SPS for Pb+Pb collisions at the beam momenta 30A GeV/c. Compared to the existing data from the NA49 experiment at the CERN SPS, the new data allows for a more precise measurement of anisotropic flow harmonics. The fixed target setup of NA61/SHINE also allows extending flow measurements available from the STAR at the RHIC beam energy scan (BES) program to a wide rapidity range up to the forward region where the projectile nucleon spectators appear. In this thesis, an analysis of the anisotropic flow harmonics in Pb+Pb collisions at beam momenta 30A GeV/c collected by the NA61/SHINE experiment in the year 2016 is presented. Flow coefficients are measured relative to the spectator plane estimated with the Projectile Spectators Detector (PSD). The flow coefficients are obtained as a function of rapidity and transverse momentum in different classes of collision centrality. The results are compared with the corresponding NA49 data and the measurements from the RHIC BES program.
In this thesis the anti-proton to proton ratio in 197Au + 197Au collisions, measured at mid-rapidity, at a center of mass energy of psNN = 200GeV is reported. The value was measured to be ¹p/p = 0.81+-0.002stat +- 0.05syst: in the 5% most central collisions. The ratio shows no dependence on rapidity in the range jyj < 0:5. Furthermore, a dependence on transverse momentum within 0:4< p? < 1:0 GeV/c is not observed. At higher p?, a slight drop in the ratio is observed. In the present analysis, the highest momentum considered is p? = 4:5 GeV/c yielding ¹p=p = 0:645§0:005stat: §0:10syst:. However, the systematic error is higher in this momentum range. A slight centrality dependence was observed, where a decrease from ¹p=p = 0:83§0:002stat:§0:05syst: for most peripheral collisions (less than 80% central) to ¹p=p = 0:78§0:002stat:§0:05syst: for the 5% most central collisions was measured. An estimate of the feed-down contributions fromthe decay of heavier strange baryons results in ¹p=p = 0:77 § 0:05syst:. The measured ratio indicates a » 12:5 times higher value compared to the highest SPS energy of psNN = 17:3 and an \almost net-baryon free" region, at mid- rapidity. The asymmetry of protons and anti-protons may be explained by the contribution ofvalence quarks in a nucleus break-up picture. In such a scenario, the absolute value of the ratio and the fact that the ratio does not depend on rapidity (at mid-rapidity) is well reproduced. Fragmentation of quarks and anti- quarks into protons and anti-protons is assumed. An estimate of the ratio, when feed-down correction is taken into consideration, agrees well with the prediction of a statistical model analysis at a temperature of T = 177 § 7 MeV and a baryon chemical potential of ¹B = 29 § 8 MeV. The temperature achieved is only slightly higher when compared to the top SPS energy, while the baryochemical potential is factor »10 lower. As in the case of the SPS results, these parameters are close to the phase boundary of Figure 1.6. The measurement of the ratio at high transverse momentum was of special in- terest in this analysis, since at RHIC energies, the cross section for hadrons at high transverse momentum is increased with respect to SPS energies. The weak dependence of the ratio on the transverse momentum is well described by the non- perturbative quenched and baryon junction scenario (i.e. Soft+Quench model), where baryon creation is enhanced by baryon junctions. In comparison the ratio does not decrease within the considered momentum range as predicted by pQCD.
This thesis presented the measurement of antideuteron and antihelium-3 production in central AuAu collisions at V SNN = 200 GeV center-of-mass energy at RHIC. The analysis is based on STAR data, about 3 x 10 high 6 events at top 10% centrality. Within the data sample a total number of about 5000 antideuterons and 193 antihelium-3 were observed in the STARTPC at mid-rapidity. The specific energy loss measurement in the TPC provides antideuteron identification only in a small momentum window, antihelium-3 however can be identified nearly background free with almost complete momentum range coverage. Following the statistical analysis of the hadronic composition at chemical freeze-out of the fireball, the antinuclei abundances were analyzed in terms of the same statistical description. Now applied to the clusterization of the fireball, the statistical analysis yields a fireball temperature of (135+-10) MeV and chemical potential of (5+-10) MeV at kinetic freeze-out. In the same way as the hadronization, the clusterization process is phase-space dominated and clusters are born into a state of maximum entropy. The large sample of observed antihelium-3 allowed for the first time in heavy-ion physics to calculate a differential multiplicity and invariant cross section as a function of transverse momentum. As expected, the collective transverse flow in the fireball flattens the shape of the transverse momentum spectrum and leads to the high inverse slope parameter of (950+-140) MeV of the antihelium-3 spectrum. With the extracted mean transverse momentum of antihelium-3, the collective flow velocity in transverse direction could be estimated. As the average thermal velocity is small compared to the mean collective flow velocity for heavy particles, the mean transverse momentum of antihelium-3 by itself constrains the flow velocity. Here, a simple ideal-gas approximation was fitted to the distribution of the mean transverse momentum as a function of particle mass and provided direct access to the kinetic freeze-out temperature and the flow velocity. A concept, which is complementary to the combined analysis of momentum spectra and two-particle HBT correlation methods commonly used to extract these parameters, and a cross check for the statistical analysis. The upper limit for the transverse collective flow velocity from the antihelium-3 measurement alone is v flow <= (0.68+-0.06)c, whereas the ideal-gas approximation yields a temperature of (130+-40) MeV and v flow = (0.46+-0.08)c. The results indicate, that the kinetic freeze-out conditions at SPS and RHIC are very similar, except for a smaller baryon chemical potential at RHIC. The simultaneous inclusive measurement of antiprotons allowed to study the cluster production in terms of the coalescence picture. With the large momentum coverage of the antihelium-3 momentum spectrum, the coalescence parameter could be calculated as a function of transverse momentum. Due to the difference between antiproton and antihelium-3 inverse slopes, increases with increasing transverse momentum - again a direct consequence of collective transverse flow. Both B2 and B3 follow the common behavior of decreasing coalescence parameters as a function of collision energy. According to the simple thermodynamic coalescence model, this indicates an increasing freeze-out volume for higher energies and is confirmed by the interpretation of the coalescence parameters in the framework of Scheibl and Heinz. Their model includes a dynamically expanding source in a quantum mechanical description of the coalescence process and expresses the coalescence parameter as a function of the homogeneity volume V hom accessible also in two-particle HBT correlation analyzes. The values for the antideuteron and antihelium-3 results agree well with the homogeneity volume from pion-pion correlations, but do not seem to follow the same transverse mass dependence. A comparison with proton-proton correlations may clarify this point and provide an important cross check for this analysis. Compared to SPS the homogeneity volume increases nearly by a factor of two. The analysis of the antinuclei emission at RHIC allowed to study the kinetic freeze-out of the created fireball. The results show, that the temperature and mean transverse velocity in the expanding system does not change significantly, when the collision energy increases by one order of magnitude. Only the source volume, i.e. the homogeneity volume, increases. That leaves open questions for the theoreticians to the details of the system evolution from the initial hot and dense phase - the initial energy density is a factor of two to three higher at RHIC than at SPS - to the final kinetic freeze-out with similar conditions. At the same time, the results are important constraints for the theoretical descriptions. The successful implementation of the Level-3 trigger system in STAR opens the door for the measurement of very rare signals. Indeed, in the coalescence physics perspective, the first observations of anti-alpha 4 He nuclei and antihypertritons 3/Delta H will come within the reach of STAR, in addition to a high statistics sample of antihelium-3.
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
The present research in high energy physics as well as in the nuclear physics requires the use of more powerful and complex particle accelerators to provide high luminosity, high intensity, and high brightness beams to experiments. With the increased technological complexity of accelerators, meeting the demand of experimenters necessitates a blend of accelerator physics with technology. The problem becomes severe when optimization of beam quality has to be provided in accelerator systems with thousands of free parameters including strengths of quadrupoles, sextupoles, RF voltages, etc. Machine learning methods and concepts of artificial intelligence are considered in various industry and scientific branches, and recently, these methods are used in high energy physics mainly for experiments data analysis.
In Accelerator Physics the machine learning approach has not found a wide application yet, and in general the use of these methods is carried out without a deep understanding on their effectiveness with respect to more traditional schemes or other alternative approaches. The purpose of this PhD research is to investigate the methods of machine learning applied to accelerator optimization, accelerator control and in particular on optics measurements and corrections. Optics correction, maximization of acceptance, and simultaneous control of various accelerator components such as focusing magnets is a typical accelerator scenario. The effectiven- ess of machine learning methods in a complex system such as the Large Hadron Collider, which beam dynamics exhibits nonlinear response to machine settings is the core of the study. This work presents successful application of several machine learning techniques such as clustering, decision trees, linear multivariate models and neural networks to beam optics measurements and corrections at the LHC, providing the guidelines for incorporation of machine learning techniques into accelerator operation and discussing future opportunities and potential work in this field.
The physics of interacting bosons in the phase with broken symmetry is determined by the presence of the condensate and is very different from the physics in the symmetric phase. The Functional Renormalization Group (FRG) represents a powerful investigation method which allows the description of symmetry breaking with high efficiency. In the present thesis we apply FRG for studying the physics of two different models in the broken symmetry phase. In the first part of this thesis we consider the classical O(1)-model close to the critical point of the second order phase transition. Employing a truncation scheme based on the relevance of coupling parameters we study the behavior of the RG-flow which is shown to be influenced by competition between two characteristic lengths of the system. We also calculate the momentum dependent self-energy and study its dependence on both length scales. In the second part we apply the FRG-formalism to systems of interacting bosons in the phase with spontaneously broken U(1)-symmetry in arbitrary spatial dimensions at zero temperature. We use a truncation scheme based on a new non-local potential approximation which satisfy both exact relations postulated by Hugenholtz and Pines, and Nepomnyashchy and Nepomnyashchy. We study the RG-flow of the model, discuss different scaling regimes, calculate the single-particle spectral density function of interacting bosons and extract both damping of quasi-particles and spectrum of elementary excitations from the latter.
The topic of this thesis is the functional renormalization group. We discuss some approximations schemes. Thereafter we apply these approximations to study different fields of condensed matter physics. Generally we have to evaluate an infinite set of vertex functions describing the scattering of particles. These vertex functions get renormalized away from their bare values governed by an infinite hierarchy of flow equations. We cannot expect to actually solve these equations but have to apply a couple of approximations. The aim is to somehow separate relevant contributions from irrelevant ones. One possible scheme opens up if we rescale fields and vertices. Here "relevance" is used in a quantitative way to describe the scaling behaviour of vertices close to a fixed point of the RG. One disadvantage of describing the system in terms of infinitely many vertices is that the majority of these vertices we have to evaluate are not of interest to us. In most cases we are just looking for the self-energy or the two-particle effective interaction. However there might be contributions to the flow of these vertices that are generated by irrelevant vertices. We generally assume that we can express irrelevant vertices in terms of the relevant and marginal ones. Then in turn it should be possible to write the contributions of these irrelevant vertices to the flow of relevant and marginal ones in terms of relevant and marginal vertices as well. We show how this can be achieved by what we term the adiabatic approximation. We now consider weakly interacting bosons at the critical point of Bose-Einstein condensation. As the transition takes place at a finite temperature this temperature defines an effective ultraviolet cut-off. For the investigation of physical properties that depend on momenta smaller than this cut-off it is therefore sufficient to describe the system by a classical field theory. Our central topic here is the self-energy of the bosons and we are able to evaluate it with the full momentum dependence. For small momenta it approaches a scaling form and as the momentum is gradually increased we observe a crossover to the perturbative regime. As a test for the reliability of our expression for the selfenergy we investigate the interaction induced shift of the critical. Our results compare quite satisfactory to the best available estimates for this shift. For the anomalous dimension our approach predicts the correct order of magnitude however with a considerable error. As an improvement we include more vertices into our calculations. Here we observe that our fixed point estimates indeed approach the best known results but this convergence is quite weak. We turn toward systems of interacting fermions. The formulation of the functional renormalization group implicitly requires knowledge of the true Fermi surface of the full interacting system. In general however we can just calculate it a-posteriori from the self-energy. The requirement to flow into a fixed point can be translated into a fine-tuning of the frequency/momentum independent part r_0 of the rescaled 2-point function. We show how this bare value is related to the momentum dependent effective interaction along the complete trajectory of the RG. On the other hand r_0 expresses the difference between the bare and the true Fermi surface. Putting both equations together results into an exact selfconsistency equation for the Fermi surface. We apply our self-consistency equation above to tackle the problem of finding the true Fermi surface of interacting fermions in low dimensions. The most simple non-trivial model with an inhomogeneous Fermi surface is a system of two coupled metallic chains. The process of interband backward scattering leads to a smoothing of the Fermi surface. Of special interest is if the Fermi momenta of the two bands collapse into just one value. We propose the term confinement transition for this behaviour. We bosonize the interband backward scattering by means of a Hubbard-Stratonovich transformation and treat our system as a single channel problem. This bosonization together with the adiabatic approximation allows us to investigate the system even at strong coupling. Within a simple one-loop treatment our method predicts a confinement transition at strong coupling. However taken vertex renormalizations into account we observe that this confinement is destroyed by fluctuations beyond one-loop. Actually we observe how the confined phase can be stabilized by the inclusion of interband umklapp scattering. Thereafter we consider the physically more relevant case of a two-dimensional system of infinitely many coupled metallic chains. Here the Fermi surface consists of two disconnected weakly curved sheets. We are able to repeat the calculations we have performed for our toy model. Within a self-consistent 2-loop calculation indeed signs for a confinement transition at finite coupling strength emerge.
Proteine sind die Maschinen der Zellen. Um die Funktionalität von zahlreichen zellulären Prozessen zu gewährleisten, müssen Kommunikationssignale innerhalb von Proteinen weitergeleitet werden. Die Weiterleitung einer Störung an einem Ort im Protein zu einer entfernten Stelle, an welcher sie strukturelle und/oder dynamische Änderungen auslöst, wird Allosterie genannt. Zunächst wurde Allosterie hauptsächlich mit großräumigen Konformationsänderungen in Verbindung gebracht, aber später entwickelte sich ein dynamischerer Blickwinkel auf Allosterie in Abwesenheit dieser großräumigen Konformationsänderungen. Die Idee eines allosterischen Pfades bestehend aus konservierten und energetisch gekoppelten Aminosäuren, welche die Signalweiterleitung zwischen entfernten Stellen im Protein vermitteln, entstand. Diese allosterischen Pfade wurden durch zahlreiche theoretische Studien in Zusammenhang mit Pfaden effizienten anisotropen Energieflusses gebracht. Der Energiefluss entlang dieser Netzwerke verknüpft allosterische Signalübertragung mit Schwingungsenergietransfer (VET - vibrational energy transfer). Die Großzahl der Forschungsarbeiten über dynamische Allosterie basiert auf theoretischen Methoden, weil nur wenige geeignete experimentelle Verfahren existieren. Um diesen essentiellen biologischen Prozess der Informationsübertragung besser verstehen zu können, ist die Entwicklung neuer und leistungsstarker experimenteller Instrumente und Techniken daher dringend erforderlich. Die vorliegende Dissertation setzt sich dies zum Ziel.
VET in Proteinen ist aufgrund der Proteingeometrie inhärent anisotrop. Alle globulären Proteine besitzen Kanäle effizienten Energieflusses, von denen vermutet wird, dass sie wichtig für Proteinfunktionen, wie die schnelle Ableitung von überschüssiger Wärme, Ligandenbindung und allosterische Signalweiterleitung, sind. VET kann mit zeitaufgelöster Infrarot (IR) Spektroskopie untersucht werden, bei welcher ein Femtosekunden Anregepuls eines Lasers Schwingungsenergie in ein molekulares System an einer bestimmten Stelle injiziert und ein, nach einem veränderbarem Zeitintervall folgender, IR Abfragepuls die Ausbreitung dieser Schwingungsenergie detektiert. Ein protein-kompatibler und universell einsetzbarer Chromophor, der die Energie eines sichtbaren Photons in Schwingungsenergie konvertiert, wird als Heizelement benötigt um langreichweitige VET Pfade in Proteinen kartieren zu können. Der Azulen (Azu) Chromophor eignet sich dafür, weil er nach Photoanregung des ersten elektronischen Zustandes durch ultraschnelle interne Konversion fast die gesamte injizierte Energie innerhalb von einer Picosekunde in Schwingungsenergie umwandelt. Eingebettet in die nicht-kanonische Aminosäure (ncAA - non-canonical amino acid) ß-(1-Azulenyl)-L-Alanine (AzAla), kann der Azu Rest in Proteine eingebaut werden. Die Ankunft der injizierten Schwingungsenergie an einer bestimmten Stelle im Protein kann mithilfe eines IR Sensors detektiert werden. Die Kombination aus Azu als VET Heizelement und Azidohomoalanine (Aha) als VET Sensor mit transienter IR (TRIR) Spektroskopie wurde schon erfolgreich an kleinen Peptiden in der Dissertation von H. M. Müller-Werkmeister getestet, die der vorliegenden Dissertation in den Laboren der Bredenbeck Gruppe vorausging.
Die Schwingungsfrequenz chemischer Bindungen ist hochempfindlich auf selbst kleine Änderungen der Konformation und Dynamik in der unmittelbaren Umgebung und kann mit IR Spektroskopie gemessen werden, z. B. mit Fourier Transform IR (FTIR) Spektroskopie. IR Spektroskopie bietet eine außergewöhnlich gute Zeitauflösung, die es ermöglicht, dynamische Prozesse in Molekülen auf einer Zeitskala von wenigen Picosekunden zu beobachten, wie z. B. die ultraschnelle Weiterleitung von Schwingungsenergie. Mit zweidimensionaler (2D)-IR Spektroskopie können die Relaxation von schwingungsangeregten Zuständen und strukturelle Fluktuationen um die schwingende Bindung untersucht werden. Allerdings geht die herausragende Zeitauflösung mit limitierter spektraler Auflösung einher. In größeren Molekülen mit zahlreichen Bindungen überlagern sich die Schwingungsbanden und die Ortsauflösung geht verloren. Um diese Limitierung zu überwinden, können IR Marker benutzt werden, chemische Gruppen, die in einer spektral durchsichtigen Region des Protein/Wasser Spektrums (1800 bis 2500 cm-1) absorbieren. Als ncAA können sie kotranslational in Proteine an einer gewünschten Stelle eingebaut werden und so ortsspezifische Informationen aus dem Proteininneren liefern. Aufgrund ihrer geringen Größe, eines relativ großen Extinktionskoeffizientens (350-400 M-1cm-1) und einer hohen Empfindlichkeit auf Änderungen in der lokalen Umgebung sind organische Azide (N3) wie zum Beispiel Aha besonders geeignete IR Marker. Aha kann als Methionin Analogon ins Protein eingebaut werden.
...
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Artificial intelligence in heavy-ion collisions : bridging the gap between theory and experiments
(2023)
Artificial Intelligence (AI) methods are employed to study heavy-ion collisions at intermediate collision energies, where high baryon density and moderate temperature QCD matter is produced. The experimental measurements of various conventional observables such as collective flow, particle number fluctuations, etc. are usually compared with expensive model calculations to infer the physics governing the evolution of the matter produced in the collisions. Various experimental effects and processing algorithms can greatly affect the sensitivity of these observables. AI methods are used to bridge this gap between theory and experiments of heavy-ion collisions. The problems with conventional methods of analyzing experimental data are illustrated in a comparative study of the Glauber MC model and the UrQMD transport model. It is found that the centrality determination and the estimated fluctuations of the number of participant nucleons suffer from strong model dependencies for Au-Au collisions at 1.23 AGeV. This can bias the results of the experimental analysis if the number of participant nucleons used is not consistent throughout the analysis and in the final model-to-data comparison. The measurable consequences of this model dependence of the number of participant nucleons are also discussed. In this context, PointNet-based AI models are developed to accurately reconstruct the impact parameter or the number of participant nucleons in a collision event from the hits and/or reconstructed track of particles in 10 AGeV Au-Au collisions at the CBM experiment. In the last part of the thesis, different AI methods to study the equation of state (EoS) at high baryon densities are discussed. First, a Bayesian inference is performed to constrain the density dependence of the EoS from the available experimental measurements of elliptical flow and mean transverse kinetic energy of mid rapidity protons in intermediate energy collisions. The UrQMD model was augmented to include arbitrary potentials (or equivalently the EoSs) in the QMD part to provide a consistent treatment of the EoS throughout the evolution of the system. The experimental data constrain the posterior constructed for the EoS for densities up to four times saturation density. However, beyond three times saturation density, the shape of the posterior depends on the choice of observables used. There is a tension in the measurements at a collision energy of about 4 GeV. This could indicate large uncertainties in the measurements, or alternatively the inability of the underlying model to describe the observables with a given input EoS. Tighter constraints and fully conclusive statements on the EoS require accurate, high statistics data in the whole beam energy range of 2-10 GeV, which will hopefully be provided by the beam energy scan programme of STAR-FXT at RHIC, the upcoming CBM experiment at FAIR, and future experiments at HIAF and NICA. Finally, it is shown that the PointNet-based models can also be used to identify the equation of state in the CBM experiment. Despite the uncertainties due to limited detector acceptance and biases in the reconstruction algorithms, the PointNet-based models are able to learn the features that can accurately identify the underlying physics of the collision. The PointNet-based models are an ideal AI tool to study heavy-ion collisions, not only to identify the geometric event features, such as the impact parameter or the number of participant nucleons, but also to extract abstract physical features, such as the EoS, directly from the detector outputs.
Landau's Fermi liquid theory has been the main tool for investigating interactions between fermions at low energies for more than 50 years. It has been successful in describing, amongst other things, the mass enhancement in ³He and the thermodynamics of a large class of metals. Whilst this in itself is remarkable given the phenomenological nature of the original theory, experiments have found several materials, such as some superconducting and heavy-fermion materials, which cannot be described within the Fermi liquid picture. Because of this, many attempts have been made to understand these ''non Fermi liquid'' phases from a theoretical perspective. This will be the broad topic of the first part of this thesis and will be investigated in Chapter 2, where we consider a two-dimensional system of electrons interacting close to a Fermi surface through a damped gapless bosonic field. Such systems are known to give rise to non Fermi liquid behaviour. In particular we will consider the Ising-nematic quantum critical point of a two-dimensional metal. At this quantum critical point the Fermi liquid theory breaks down and the fermionic self-energy acquires the non Fermi liquid like {omega}²/³ frequency dependence at lowest order and within the canonical Hertz-Millis approach to quantum criticality of interacting fermions. Previous studies have however shown that, due to the gapless nature of the electronic single-particle excitations, the exponent of 2/3 is modified by an anomalous dimension {eta_psi} which changes, not only the exponent of the frequency dependence, but also the exponent of the momentum dependence of the self-energy. These studies also show that the usual 1/N-expansion breaks down for this problem. We therefore develop an alternative approach to calculate the anomalous dimensions based on the functional renormalization group, which will be introduced in the introductory Chapter 1. Doing so we will be able to calculate both the anomalous dimension renormalizing the exponent of the frequency dependence and the exponent renormalizing the momentum dependence of the self-energy. Moreover we will see that an effective interaction between the bosonic fields, mediated by the fermions, is crucial in order to obtain these renormalizations.
In the second part of this thesis, presented in Chapter 3, we return to Fermi liquid theory itself. Indeed, despite its conceptual simplicity of expressing interacting electrons through long-lived quasi-particles which behave in a similar fashion as free particles, albeit with renormalized parameters, it remains an active area of research. In particular, in order to take into account the full effects of interactions between quasi-particles, it is crucial to consider specific microscopic models. One such effect, which is not captured by the phenomenological theory itself, is the appearance of non-analytic terms in the expansions of various thermodynamic quantities such as heat-capacity and susceptibility with respect to an external magnetic field, temperature, or momentum. Such non-analyticities may have a large impact on the phase diagram of, for example, itinerant electrons near a ferromagnetic quantum phase transition. Inspired by this we consider a system of interacting electrons in a weak external magnetic field within Fermi liquid theory. For this system we calculate various quasi-particle properties such as the quasi-particle residue, momentum-renormalization factor, and a renormalization factor which relates to the self-energy on the Fermi surface. From these renormalization factors we then extract physical quantities such as the renormalized mass and renormalized electron Lande g-factor. By calculating the renormalization factors within second order perturbation theory numerically and analytically, using a phase-space decomposition, we show that all renormalization factors acquire a non-analytic term proportional to the absolute value of the magnetic field. We moreover explicitly calculate the prefactors of these terms and find that they are all universal and determined by low-energy scattering processes which we classify. We also consider the non-analytic contributions to the same renormalization factors at finite temperatures and for finite external frequencies and discuss possible experimental ways of measuring the prefactors. Specifically we find that the tunnelling density of states and the conductivity acquire a non-analytic dependence on magnetic field (and temperature) coming from the momentum-renormalization factor. For the latter we discuss how this relates to previous works which show the existence of non-analyticities in the conductivity at first order in the interaction.
For finite baryon chemical potential, conventional lattice descriptions of quantum chromodynamics (QCD) have a sign problem which prevents straightforward simulations based on importance sampling.
In this thesis we investigate heavy dense QCD by representing lattice QCD with Wilson fermions at finite temperature and density in terms of Polyakov loops.
We discuss the derivation of $3$-dimensional effective Polyakov loop theories from lattice QCD based on a combined strong coupling and hopping parameter expansion, which is valid for heavy quarks.
The finite density sign problem is milder in these theories and they are also amenable to analytic evaluations.
The analytic evaluation of Polyakov loop theories via series expansion techniques is illustrated by using them to evaluate the $\SU{3}$ spin model.
We compute the free energy density to $14$th order in the nearest neighbor coupling and find that predictions for the equation of state agree with simulations to $\mathcal{O}(1\%)$ in the phase were the (approximate) $Z(3)$ center symmetry is intact.
The critical end point is also determined but with less accuracy and our results agree with numerical results to $\mathcal{O}(10\%)$.
While the accuracy for the endpoint is limited for the current length of the series, analytic tools provide valuable insight and are more flexible.
Furthermore they can be generalized to Polyakov-loop-theories with $n$-point interactions.
We also take a detailed look at the hopping expansion for the derivation of the effective theory.
The exponentiation of the action is discussed by using a polymer expansion and we also explain how to obtain logarithmic resummations for all contributions, which will be achieved by employing the finite cluster method know from condensed matter physics.
The finite cluster method can also be used to evaluate the effective theory and comparisons of the evaluation of the effective action and a direction evaluation of the partition function are made.
We observe that terms in the evaluation of the effective theory correspond to partial contractions in the application of Wick's theorem for the evaluation of Grassmann-valued integrals.
Potential problems arising from this fact are explored.
Next to next to leading order results from the hopping expansion are used to analyze and compare the onset transition both for baryon and isospin chemical potential.
Lattice QCD with an isospin chemical potential does not have a sign problem and can serve as a valuable cross-check.
Since we are restricted by the relatively short length of our series, we content ourselves with observing some qualitative phenomenological properties arising in the effective theory which are relevant for the onset transition.
Finally, we generalize our results to arbitrary number of colors $N_c$.
We investigate the transition from a hadron gas to baryon condensation and find that for any finite lattice spacing the transition becomes stronger when $N_c$ is increased and to be first order in the limit of infinite $N_c$.
Beyond the onset, the pressure is shown to scale as $p \sim N_c$ through all available orders in the hopping expansion, which is characteristic for a phase termed quarkyonic matter in the literature.
Some care has to be taken when approaching the continuum, as we find that the continuum limit has to be taken before the large $N_c$ limit.
Although we currently are unable to take the limits in this order, our results are stable in the controlled range of lattice spacings when the limits are approached in this order.
The challenging intricacies of strongly correlated electronic systems necessitate the use of a variety of complementary theoretical approaches. In this thesis, we analyze two distinct aspects of strong correlations and develop further or adapt suitable techniques. First, we discuss magnetization transport in insulating one-dimensional spin rings described by a Heisenberg model in an inhomogeneous magnetic field. Due to quantum mechanical interference of magnon wave functions, persistent magnetization currents are shown to exist in such a geometry in analogy to persistent charge currents in mesoscopic normal metal rings. The second, longer part is dedicated to a new aspect of the functional renormalization group technique for fermions. By decoupling the interaction via a Hubbard-Stratonovich transformation, we introduce collective bosonic variables from the beginning and analyze the hierarchy of flow equations for the coupled field theory. The possibility of a cutoff in the momentum transfer of the interaction leads to a new flow scheme, which we will refer to as the interaction cutoff scheme. Within this approach, Ward identities for forward scattering problems are conserved at every instant of the flow leading to an exact solution of a whole hierarchy of flow equations. This way the known exact result for the single-particle Green's function of the Tomonaga-Luttinger model is recovered.
Atomistic molecular dynamics approach for channeling of charged particles in oriented crystals
(2015)
Der Gitterführungseffekt ist der Prozess der Ausbreitung von geladenen Teilchen entlang der Ebenen oder Achsen von kristallinen Materialien. Seit den 1960er Jahren ist dieser Effekt weitgehend theoretisch und experimentell untersucht worden. Dieser Effekt wurde für die Manipulation von Hochenergiestrahlen, die Hochpräzisionsstruktur- und -fehleranalyse von kristallinen Medien und die Herstellung von hochenergetischer Strahlung angewendet. Zur Abstimmung der Parameter der Gitterführung und Gitterführungsstrahlung wurde dieser Prozess für den Fall von künstlich nanostrukturierten Materialien, wie gebogenen Kristallen, Nanoröhren und Fullerit, angenommen. In den letzten Jahren wurde das Konzept des kristallinen Undulators formuliert und getestet, das besondere Eigenschaften der Strahlung aufgrund der Gitterführung von Projektilen in regelmäßig gebogenen Kristallen vorhersagt.
In dieser Arbeit werden die Prozesse der Gitterführung von Sub- und Multi-GeV-Elektronen und -Positronen durch den atomistischen Molekulardynamik-Ansatz untersucht. Die Ergebnisse dieser Studien wurden in einer Reihe von Artikeln während meiner Promotion in Frankfurt vorgestellt. Dieser Ansatz ermöglicht die Simulation komplexer Fälle von Gitterführung in geraden, gebogenen und periodisch gebogenen Kristallen aus reinen kristallinen Materialien und von gemischten Materialien wie Si-Ge-Kristallen, in mehrschichtigen und nanostrukturierten kristallinen Systemen. Die Arbeit beschreibt die Methode der Simulationen, stellt Ergebnisse von Simulationen für verschiedene Fälle vor und vergleicht die Ergebnisse von Simulationen mit aktuellen experimentellen Daten. Die Ergebnisse werden mit Schätzungen der dechanneling-Länge verglichen, dem Anteil der gittergeführten Projektile, der Winkelverteilung der ausgehenden Projektile und des Strahlungsspektrums.
In dieser Arbeit werden grundlegende Untersuchungen zur Ion-Festkörper Wechselwirkung vorgestellt, die zu Sekundärionen-Emissionsprozessen führen. Das Ziel ist hierbei, aus den Experimenten Informationen über den Ursprung, die Bindungsmechanismen und die Evolution der Sekundärionen (SI) zu erhalten und die experimentellen Daten mit Rechnungen eines kürzlich entwickelten Desorptions-Modells zu vergleichen. Die Untersuchungen sind in zwei Gebiete unterteilt, die 1.) den Einfluß von Projektil-Eigenschaften wie Energie, Masse und Ladung auf die SI-Emission und 2.) den Einfluß von Targeteigenschaften wie Temperatur und Material auf die SI-Emission zum Gegenstand haben. Die gemessenen H+- - und CxH+- y -SI entstammen einer Oberflächen-Kontaminationsschicht der untersuchten C- und LiF-Targets. Die untersuchten Li+-SI entstammen unmittelbar der LiF-Oberfläche. Zum Studium der SI-Emission werden hier H-, C-, N-, Ar-, Kr- und Sn-Projektile, im Bereich ihres maximalen elektronischen Bremsvermögens Se = (dE=dx)e, eingesetzt. Die von der Projektil-Eintrittsoberfläche emittierten SI werden in Koinzidenz mit jenen unter Hochvakuum-Bedingungen mit einem zylindrischen und einem neu konstruierten linearen Flugzeitspektrometer gemessen. Die Abhängigkeit der SI-Emission von der Projektilgeschwindigkeit (”Geschwindigkeitseffekt”) wird hervorragend durch ein kürzlich von Pereira und da Silveira [Per98a, Per00] entwickeltes Desorptions-Modell beschrieben und zeigt, daß leichte H+-SI einen anderen Emissionsort als schwere CxH+- y -SI entstammen. Diese Resultate werden durch Messungen, die den Einfluß des Projektilladungszustands auf die SI-Ausbeute betrachten, bestätigt. Eine ladungsabhäangige Modifikation des neuen Desorptions-Modells erlaubt zusätzlich, aus den gemessenen relativen SI-Ausbeuten, den Abstand des Emissionsortes von der Spurachse des Projektils zu bestimmen. Aus Untersuchungen zum Einfluß der Projektilmasse auf die SI-Emission folgt zudem eine Korrelation im Emissionsverhalten zwischen H+-SI der Kontaminationsschicht und Li+-SI der tatsächlichen Targetoberfläche. Der Grund hierfür liegt im gleichen Emissionsort dieser beiden unterschiedlichen SI, der von ihrer Bindungsenergie an der Targetoberfläche abhängt. Kontrollierte Variation der LiF- und Cu-Targettemperatur mit einem neu konstruiertem Targethalter zeigen, daß H+-SI im Bereich von 300K <= T <= 380K nahezu vollständig und unabhängig vom Targetmaterial aus der CxHy-Oberflächen-Kontaminationschicht emittiert werden. Durch die Anpassung von Langmuir-Isothermen an die gemessenen SI-Ausbeuten gelingt die Bestimmung der Bindungsenergien EB der CxH+ y -SI, die unmittelbar die LiF- bzw. Cu-Oberfläche bedecken. Das weist auf intermolekulare Bindungen zwischen den CxH+ y -SI und der Oberfläche hin. Die Resultate dieser Rechnung zeigen auch, daß die CxH+ y -SI aus unterschiedlichen Emissionsorten emittiert werden. Hohe Targettemperaturen (< 450K) führen überraschenderweise beim LiF-Target zusätzlich zu einer Metallisierung der Oberfläche, die sich bei weiterer Temperaturerhöhung als Phasenübergang des Targetmaterials auswirkt. Messungen an deuterierten und hydrogenierten Targets zeigen zudem, daß SI-Emission aus dem Targetvolumen nur beim Überschreiten einer hohen Emissionsschwelle Se(> 1700 +- 50eV=A° ) erfolgt.
In dieser Arbeit werden grundlegende Untersuchungen zum Verständnis der dynamischen Wechselwirkungsmechanismen atomarer Projektile mit Festkörperoberflächen vorgestellt, die zur Emission von Sekundärionen führen. Der zentrale Ansatzpunkt ist dabei die Vermessung der Dynamik über die geschwindigkeits- und winkeldifferentielle Verteilung der emittierten Sekundärionen. Dazu wurde ein neuartiges Spektrometer entwickelt, in dem jedes in einem homogenen elektrischen Feld abgelenkte Sekundärion durch seine Flugzeit (TOF) und den Auftreffort auf einen 2-dimensionalen (XY) ortsempfindlichen Detektor charakterisiert wird. Das Prinzip basiert auf dem in Gastargetexperimenten erfolgreich eingesetzten Frankfurter Meßsystem COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy). Dieses System wurde weiterentwickelt und erstmalig in Frankfurt in einem Festkörperexperiment zur geschwindigkeits- und winkeldifferentiellen Spektrometrie von Sekundärionen angewendet. Ein zusätzliches Merkmal gegenüber herkömmlichen Spektrometern ist die Möglichkeit der einfachen Variation des Einfallswinkels 0p vom Projektil zum Target. Die korrekte Transformation der gemessenen Daten in eine 3-dimensionale Anfangsgeschwindigkeitsverteilung bedingt eine möglichst präzise Eichung des Spektrometers. Dazu wurde die in diesem Zusammenhang neuartige Methode des Strahlprofilmonitors entwickelt und eingesetzt. Durch die Wechselwirkung des Projektils mit einem nicht lokalisierten Gastarget erzeugt es auf seinem Weg durch das Spektrometer eine Spur aus Ionen. Die Gasionen befinden sich im Verhältnis zu den von dem Festkörper emittierten Sekundärionen nahezu in Ruhe. Daher kann über die Analyse der Projektilspur auf die zur Eichung notwendigen, aber im Experiment nicht direkt zugänglichen Parameter, wie Flugzeit (T0) und Auftreffort (x0/y0) für Teilchen mit der Geschwindigkeit v0z = v0x = v0y = 0, geschlossen werden. Die systematische Variation von Projektil- (He0/N0/Ar0, Ep = 0.2 - 2.2 MeV, 0p = 37°-78° relativ zur Oberflächennormalen) und Targeteigenschaften (Au/C/LiF/Al) erlaubt ein gezieltes Studium der dynamischen Wechselwirkung zwischen Projektilen und Festkörperoberflächen. Das untersuchte H+-Sekundärion entstammt einer Festkörperoberfläche bedeckenden quasistabilen Kontaminationsschicht, die im wesentlichen aus den Adsorbaten H2, H2O, CxHy besteht. Die gemessenen H+-Geschwindigkeitsverteilungen besitzen ein Maximum etwa bei v0 ungefähr gleich 25-35 km/s mit Ausläufern (abhängig von 0p) bis hin zu 240 km/s. Bei sinkender Projektilgeschwindigkeit zeigt die Verteilung der emittierten H+-Sekundärionen bei hohen Emissionsgeschwindigkeiten (v0 > 60 km/s) eine stark ausgeprägte Asymmetrie in der von dem einfallenden Projektil und der Oberflächennormalen definierten Ebene. Ionen werden mit einer hohen Geschwindigkeit (bis zu 140 km/s bei 0p = 45°) unter einem Winkel von ca. 90° zum Projektil, unabhängig von 0p, emittiert. Diese Asymmetrie wird durch eine binäre Kollision des Projektils mit dem Wasserstoff verursacht. Die Variation der Projektilgeschwindigkeit ist korreliert mit der deponierten Energie des Projektils im Festkörper. Daher kann in der Dynamik der Sekundärionen deutlich der Beitrag des nuklearen Anteils an der totalen Energiedeposition aufgezeigt und getrennt werden. Bei Emissionsgeschwindigkeiten v0 < 60 km/s zeigt sich eine starke Abhängigkeit von den Targeteigenschaften. Bei konstantem Einfallswinkel beobachten wir eine Verschiebung der Maxima von v0 max ungefähr gleich 26.5 km/s bei Au-, über 27.9 km/s bei Al- bis hin zu 32.5 km/s bei LiF-Targets. Es zeigt sich keine meßbare Abhängigkeit vom Einfallswinkel des Projektils bei Auund C-Targets, dagegen eine deutliche Verschiebung der Maxima hin zu größeren Geschwindigkeiten bei dem Al- (v0 max ungefähr gleich 27.5 km/s - 30 km/s) und dem LiF-Target (v0 max ungefähr gleich 32.5 km/s - 35.5 km/s) mit einer Vergrößerung von 0p. Ionen mit v0 < 30 km/s werden zum Großteil rückwärts in Richtung des einfallenden Projektils emittiert. Au und C sind gute, LiF und das mit einer Al2O3-Schicht überzogene Al dagegen schlechte elektrische Oberflächenleiter. Die Verschiebung der Verteilungen bei einem schlechten elektrischen Leiter ist ein Hinweis auf den zeitabhängigen Zerfall des Projektilspurpotentials im Festkörper. Die Zunahme der Emissionsgeschwindigkeit v0 bei Vergrößerung von 0p ist in der Vergrößerung der effektiven Targetdicke begründet und ein Hinweis auf eine targetdickenabhängige Neutralisationszeit des geladenen Spurkerns durch Elektronen des Substrats. Korrelationen im Sekundärionenemissionsprozeß bezüglich Impuls- und Energieerhaltung zwischen einem emittierten H+-Sekundärion und einem möglichen zweiten Sekundärion wurden nicht beobachtet. Über die Eichung hinaus eröffnen sich zusätzlich noch einige vielversprechende Anwendungsmöglichkeiten des Strahlprofilmonitors. Zum einen ermöglicht er a) in der Gasmassenspektrometrie eine exakte Korrektur der Ionenflugzeit unabhängig vom Ort der Ionisation und zum anderen bildet er b) eine innovative Methode zur Kartographie lokaler elektrischer Felder und c) ferner einen alternativen Zugang zur Vermessung von Projektilstreuwinkeln. Die Verwendung eines ortsempfindlichen Detektors in der „kinematischen“ Materialanalyse verbindet simultan gute Tiefenprofilauflösung mit dem Nachweis eines großen Raumwinkels zugunsten einer besseren Statistik. Die Kenntnis der Emissionscharakteristik bewährt sich zudem in der Massenanalyse in der Unterscheidung von Ionen fast identischer Massen.
Ziel der vorliegenden Arbeit ist der Aufbau von koaxialen Plasmabeschleunigern und deren Verwendung für die Untersuchung der Eigenschaften von kollidierenden Plasmen. Zukünftig sollen diese kollidierenden Plasmen als intensive Strahlungsquelle im Bereich der ultravioletten (UV-) und vakuumultravioletten (VUV-)Strahlung sowie in der Grundlagenforschung als Target zur Ionenstrahl-Plasma-Wechselwirkung Verwendung finden. Für diese Anwendungen steht dabei eine Betrachtung der physikalischen Grundlagen im Vordergrund. So sind neben der Kenntnis der Plasmadynamik auch Aussagen bezüglich der Elektronendichte, der Elektronentemperatur und der Strahlungsintensität von Bedeutung. Im Einzelnen konnte gezeigt werden, dass es möglich ist, durch eine Plasmakollision die Elektronendichte des Plasmas im Vergleich zu der eines einzelnen Plasmas deutlich zu erhöhen - im Maximalfall um den Faktor vier. Gleichzeitig stieg durch die Plasmakollision die Lichtintensität im Wellenlängenbereich der UV- und VUV-Strahlung um den Faktor drei an...
Die vorliegende Arbeit handelt von der Entwicklung, dem Bau, den Zwischenmessungen sowie den abschließenden Tests unter kryogenen Bedingungen einer neuartigen, supraleitenden CH-Struktur für Strahlbetrieb mit hoher Strahllast. Diese Struktur setzt das Konzept des erfolgreich getesteten 19-zelligen 360 MHz CH-Prototypen fort, der einen weltweiten Spitzenwert in Bezug auf Beschleunigungsspannung im Niederenergiesegment erreichte, jedoch wurden einige Aspekte weiterentwickelt bzw. den neuen Rahmenbedingungen angepasst. Bei dem neuen Resonator wurde der Schwerpunkt auf ein kompaktes Design, effektives Tuning, leichte Präparationsmöglichkeiten und auf den Einsatz eines Leistungskopplers für Strahlbetrieb gelegt. Die Resonatorgeometrie besteht aus sieben Beschleunigungszellen, wird bei 325 MHz betrieben und das Geschwindigkeitsprofil ist auf eine Teilcheneingangsenergie von 11.4 MeV/u ausgelegt. Veränderungen liegen in der um 90° gedrehten Stützengeometrie vor, um Platz für Tuner und Kopplerflansche zu gewährleisten, und in der Verwendung von schrägen Stützen am Resonatorein- und ausgang zur Verkürzung der Tanklänge und Erzielung eines flachen Feldverlaufs. Weiterhin wurden pro Tankdeckel zwei zusätzliche Spülflansche für die chemische Präparation sowie für die Hochdruckspüle mit hochreinem Wasser hinzugefügt. Das Tuning der Kavität erfolgt über einen neuartigen Ansatz, indem zwei bewegliche Balgtuner in das Resonatorvolumen eingebracht werden und extern über eine Tunerstange ausgelenkt werden können. Der Antrieb der Stange soll im späteren Betrieb wahlweise über einen Schrittmotor oder einen Piezoaktor stattfinden. Für ein langsames/ statisches Tuning kann der Schrittmotor den Tuner im Bereich +/- 1 mm auslenken, um größeren Frequenzabweichungen in der Größenordnung 100 kHz nach dem Abkühlen entgegenzuwirken. Das schnelle Tuning im niedrigen kHz-Bereich wird von einem Piezoaktor übernommen, welcher den Balg um einige µm bewegen kann, um Microphonics oder Lorentz-Force-Detuning zu kompensieren. Der Resonator wird von einem aus Titan bestehendem Heliummantel umgeben, wodurch ein geschlossener Heliumkreislauf gebildet wird.
Derzeit befinden sich mehrere Projekte in der Planung bzw. im Bau, welche auf eine derartige Resonatorgeometrie zurückgreifen könnten. An der GSI basiert der Hauptteil des zukünftigen cw LINAC auf supraleitenden CH-Strukturen, um einen Strahl für die Synthese neuer, superschwerer Elemente zu liefern. Weiterhin könnte ein Upgrade des vorhandenen GSI UNILAC durch den Einsatz von supraleitenden CH-Resonatoren gestaltet werden. Zudem besteht die Möglichkeit, die bisherige Alvarez-Sektion des UNILAC alternativ durch eine kompakte, supraleitende CH-Sektion zu realisieren. Ebenfalls sollen die beiden parallelbetriebenen Injektorsektionen des MYRRHA-Projektes durch den Einsatz von supraleitenden CH-Strukturen erfolgen.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Im Rahmen dieser Arbeit wurde untersucht, inwieweit eine Bewegungsschärzung aus monokularen Bildsequenzen von Straßenverkehrsszenen und eine darauf aufbauende Hinderniserkennung mit Hilfe von statistischen oder neuronalen Methoden realisiert werden kann. Bei dem zugrunde liegenden mathematischen Modell wird angenommen, daß die Umgebung, in der sich ein Fahrzeug bewegt, im wesentlichen eben ist, was für Verkehrsequenzen in guter Näherung erfüllt ist. Im ersten Teil dieser Arbeit wurde ein statistisches Verfahren zur Bewegungsschätzung vorgestellt und diskutiert. Der erste Schritt dieses Verfahrens stellt die Generierung eines sogenannten Markantheitsbildes dar, in welchem Objektkanten und Objektecken visuell hervorgehoben werden. Für die daraus resultierende Liste von markanten Bildbereichen werden anschließend unter Verwendung einer sogenannten Verschiebungsvektorschätzung, Korrespondenzen im zeitlich folgenden Bild ermittelt. Ausgehend von dem resultierenden Verschiebungsvektorfeld, werden in dem nächsten Schritt des Verfahrens die Bewegungsgrößen ermittelt, also die Rotationsmatrix und der Translationsvektor des Fahrzeugs, beziehungsweise der Kamera. Um abschließend eine Hinderniserkennung realisieren zu können, erfolgt unter Verwendung der Bewegungsgrößen eine Bewegungskompensation der Bilddaten. Bei einer solchen Bewegungskompensation wird unter Verwendung der ermittelten Bewegungsgrößen und dem Modell der bewegten Ebene eine Rücktransformation jedes Bildpixels durchgeführt, so daß bei der Bildung eines Differenzbildes zwischen dem bewegungskompensierten Bild und dem tatsächlich aufgenommenen Bild, dreidimensionale Strukturen, die ja das Ebenenmodell verletzen, deutlich hervortreten und somit auf potentielle Hindernisse hinweisen. Es hat sich gezeigt, daß Fehlmessungen in den Verschiebungsvektoren, welche beispielsweise durch periodische Strukturen auf der Ebene auftreten können, die Bewegungsschätzung und die Hinderniserkennung empfindlich stören. Diese statistischen Ausreißer bewirken, daß trotz der Verwendung von robusten Schätzmethoden, eine stabile Hinderniserkennung nur durch die Einbeziehung von Vorwissen über die Art der Bewegung des Fahrzeugs realisiert werden kann. Weiterhin führen die Komplexität des Verfahrens und die damit verbundenen hohen Anforderungen an die Rechenleistung der eingesetzten Hardware dazu, daß die für die praktische Anwendbarkeit so wichtige Echtzeitfähigkeit des Verfahrens bisher nur für Eingangsbilder mit geringer Auflösung ermöglicht werden konnte. Speziell für die Bildverarbeitung hat sich das neue Paradigma der Zellularen Neuronalen Netzwerke als außerordentlich leistungsfähig erwiesen. Neben der extrem hohen Verarbeitungsgeschwindigkeit von CNN-basierten schaltungstechnischen Realisierungen zeichnen sie sich durch eine hohe Robustheit bei vertauschten oder fehlerhaften Eingangsdaten aus. Für nahezu jedes aktuelle Problem der Bildverarbeitung wurde bisher ein geeignetes CNN bestimmt. Auch für komplexe Aufgabenstellungen aus der Bildverarbeitung, wie beispielsweise die Texturklassifikation, die Spurverfolgung oder die Gewinnung von Tiefeninformation konnten bereits CNN-Programme implementiert und schaltungstechnisch verwirklicht werden. So konnte auch im zweiten Teil dieser Arbeit gezeigt werden, daß die einzelnen Schritte der Hinderniserkennung aus monokularen Bildsequenzen ebenfalls unter Verwendung eines CNN realisierbar sind. Es wurde demonstriert, daß für die Generierung eines Markantheitsbildes bereits ein Standard-CNN mit linearer Kopplungsfunktion und der Nachbarschaft r=1 verwendet werden kann. Das rechenaufwändige statistische Verfahren der Markantheitsbildberechnung kann somit durch einen einzigen CNN-Verarbeitungsschritt durchgeführt werden. Weiterhin wurde im Rahmen dieser Arbeit gezeigt, daß auch der folgende, rechenintensive Schritt des statistischen Verfahrens der Hinderniserkennung, nämlich die Verschiebungsvektorschätzung, mittels CNN verwirklicht werden kann. Hierzu sind CNN mit polynomialen Kopplungsfunktionen und der Nachbarschaft r=1 notwendig. Bei den durchgeführten Untersuchungen hat sich herausgestellt, daß die CNN-basierten Verarbeitungsschritte den statistischen Methoden in den Punkten Robustheit und Verarbeitungsgeschwindigkeit deutlich überlegen sind. Abschließend wurde in dieser Arbeit gezeigt, daß mit Hilfe von CNN sogar eine direkte Hinderniserkennung aus monokularen Bildsequenzen - ohne den Umweg über die Bestimmung der Verschiebungsvektoren und der Bewegungsgrößen - realisiert werden kann. In dem vorgestellten Verfahren wird nach zwei Vorverarbeitungsschritten, die Hinderniserkennung in einem einzigen Schritt unter Verwendung eines CNN mit polynomialen Zellkopplungsgewichten vom Grade D=3 und der Nachbarschaft r=2 durchgeführt. Das vorgeschlagene Verfahren führt zu einer wesentlichen Vereinfachung der Hinderniserkennung in monokularen Bildsequenzen, da die Bewegegungsschätzung aus dem statistischen Verfahren nicht länger notwendig ist. Die Umgehung der expliziten Bewegungsschätzung hat weiterhin den Vorteil, daß der Rechenaufwand stark reduziert wurde und durch den Wegfall der Verschiebungsvektorschätzung und dem damit verketteten Problem der Ausreißer, ist das vorgestellte CNN-basierte Verfahren außerdem sehr robust. Die ersten Resultate, die unter Verwendung von synthetischen und natürlichen Bildsequenzen erhalten wurden, sind überaus vielversprechend und zeigen, daß CNN ausgezeichnet zur Verarbeitung von Videosequenzen geeignet sind.
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
The Kaon-Spectrometer (KaoS) at the heavy-ion synchrotron (SIS) at the Gesellschaft für Schwerionenforschung (GSI) in Darmstadt has been used to study production and propagation of K+ and K- mesons from Au+Au collisions at a kinetic beam energy of 1.5 AGeV. This energy for K+ mesons is close to the corresponding production threshold in binary nucleon-nucleon collisions and far below for K- mesons. The azimuthal angular distributions of particles as a function of the collision centrality and particle transverse momenta have been measured. The properties of strange mesons are expected to be modified by the in-medium meson-baryon potential. Theoretical calculations show that the superposition of the scalar and vector potentials leads to a small repulsive K+N and a strong attractive K-N potential. Additionally, the interaction of kaons and antikaons with nuclear matter is different. The strangeness conservation law inhibits the absorption probability of K+ mesons as they contain an s-quark. K- mesons, however, interact with nucleons via strangenessexchange (K- + N ->Y + pion, where Y = lambda, sigma). Moreover, the reverse process (pion + Y -> K- + N) is the dominant production mechanism of K- mesons at SIS energies. The azimuthal angular emission patterns of kaons are expected to be sensitive to the in-medium potentials. An enhanced out-of-plane emission of K+ mesons was observed in Au+Au reactions at 1.0 AGeV and 1.5 AGeV, and also in Ni+Ni at 1.93 AGeV. The out-of-plane emission of K+ mesons in Au+Au reactions at 1.0 AGeV was interpreted as a consequence of a repulsive K+N potential in the nuclear medium, however, recent transport calculations show that the emission patterns obtained in Au+Au at 1.5 AGeV and Ni+Ni at 1.93 AGeV are additionally influenced by the re-scattering of kaons. For K- mesons the calculations predict an almost isotropic emission pattern due to the attractive K-N potential which counteracts the absorption of K- mesons in the spectator fragments. In Ni+Ni collisions at 1.93 AGeV the azimuthal distribution of K- mesons has been found to be isotropic. In this case, however, the spectators are rather small and have large relative velocities. In addition, the delay of antikaon emission due to strangenessexchange reaction minimizes the interaction with the spectators. As a consequence the sensitivity of the K- meson emission pattern to the K-N in-medium potential is reduced. In Au+Au collisions we found a dependence of the K- meson azimuthal emission pattern on the transverse momentum. The antikaons registered with pt < 0.5 GeV/c are preferentially emitted in the reaction plane and the particles with pt > 0.5 GeV/c show strong out-of-plane enhancement. The emission patterns of K- can be explained in terms of two competing phenomena: one of them is indeed the influence of the attractive K-N potential, however, the second one originates from the strangeness-exchange process.
Nuclear matter, that takes the form of protons and neutrons under normal conditions, is subject to a phase transition at high temperatures and densities, liberating the quarks and gluons that are usually confined in nucleons and creating a medium of free partons: the Quark-Gluon-Plasma. It is generally believed that this state of matter can be created in relativistic collisions of heavy nuclei. The study of the medium created in these collisions is the subject of heavy-ion physics. One topic within this field are particles with high transverse momentum, that are created in initial hard collisions between partons of the incoming nuclei. The energetic partons lose energy due to interactions with the medium before they fragment into a jet of hadrons. Due to momentum conservation, these jets are usually created as back-to-back pairs, or less commonly as three-jet or photon-jet events, where a single jet is balanced by a hard photon. The energy loss can be measured using correlations between particles with high transverse momenta. A trigger particle is selected with very high transversemomentum and the distribution of the azimuthal angle of associated particles in the same event is studied, relative to the azimuth of the trigger particle.These azimuthal correlations show a peak for opening angles around 0 from particles selected from the same jet, and a second peak at opening angles around 180 degrees from back-to-back di-jets. Random combinations with the underlying event generate a flat background, extending over the full range of opening angles. The STAR experiment observed a modification of these correlations in central Au+Au collisions, where trigger particles with 4GeV < pT(trigger) < 6GeV and associated particles with 2GeV < pT(trigger) < 4GeV were selected. A strong suppression has been observed for away-side correlations in central Au+Au collisions, relative to p+p, d+Au and peripheral Au+Au data. This can be explained by assuming two partons going in opposite directions, where at least one has to travel a large distance through the medium, causing energy loss and effectively removing the event from the analysis. For near-side correlations, no significant modification has been observed, which can be explained by surface emission, assuming that the observed jets have travelled only a short distance in themedium, not leaving enough time for interactions with the medium. Both trigger- and associated particles in a correlation analysis with charged hadrons are subject to modifications due to the medium. This can be avoided by using photon-jet events instead of di-jets, because the photon does not interact with the medium and therefore provides the best available measure of the properties of the opposite jet in the presence of the underlying event. This thesis studies azimuthal correlations between regions of high energy deposition in the electro-magnetic calorimeter as trigger- and charged tracks as associated particles. The data sample had been enriched by online event selection, allowing for the selection of trigger particles with a transverse energy of more than 10GeV and associated particles with more than 2,3 or 4 GeV. The away-side yield per trigger particle is strongly suppressed like in correlations between charged particles. The near-side yield is also reduced by about a factor two, clearly different from charged correlations. The trigger particles are a mixture of photon pairs from the decays of neutral pions and single photons, mainly from photon-jet events, with small contributions from other hadron decays and fragmentation photons. Pythia simulations predict a ratio of neutral pions to prompt photons of 3.5:1 in p+p collisions with the same cuts as in the presented analysis. Single particle suppression further reduces this ratio in central Au_Au collisions, down to about 0.8:1, indicating that the majority of trigger particles in central Au+Au collisions are prompt photons. The increasing fraction of prompt photon triggers without an accompanying jet and therefore zero associated yield reduces the average yield per trigger particle. The magnitude of the observed effect agrees well with the expectation from Pythia simulations and the assumption of a single particle suppression by a factor 4-5. An analysis of away-side correlations is more difficult, because both photon-jet and di-jet events contribute. The aim is the separation of these two contributions. As a clear separation is not possible with the available dataset, a comparison with two different scenarios is given, where a surprisingly small suppression by only a factor of about 5 is favoured for both dijet- and photon-jet-correlations. A separate measurement of both contributions will be possible by a shower-shape analysis with the EM calorimeter or a comparison with charged correlations in the same kinematic region.
Strong chromofields developed at early stages of relativistic heavy-ion collisions give rise to the collective deceleration of net baryons from colliding nuclei. We have solved classical equations of motion for baryonic slabs under the action of time-dependent chromofield. We have studied sensitivity of the slab trajectories and their final rapidities to the initial strength and decay pattern of the chromofield as well as to the back reaction of produced plasma. This mechanism can naturally explain significant baryon stopping observed at RHIC, an average rapidity loss hδyi ≈ 2. Using a Bjorken hydrodynamical model with particle producing source we also study the evolution of partonic plasma produced as the result of chromofield decay. Due to the delayed formation and expansion of plasma its maximum energy density is much lower than the initial energy density of the chromofield. It is shown that the net-baryon and produced parton distributions are strongly correlated in the rapidity space. The shape of net-baryon spectra in midrapidity region found in the BRAHMS experiment cannot be reproduced by only one value of chromofield energy density parameter ǫ0, even if one takes into account novel mechanisms as fluctuations of color charges generated on the slab surface, and weak interaction of baryon-rich matter with produced plasma. The further step to improve our results is to take into account rapidity dependence of saturation momentum as explained in thesis. Different values of parameter ǫ0 has been tried for different variants of chromofield decay to fit BRAHMS data for net-baryon rapidity distribution. In accordance with our analysis, data for fragmentation region correspond to the lower chromofield energy densities than mid-rapidity region. χ2 analysis favors power-law of chromofield decay with corresponding initial chromofield energy density of order ǫf = 30GeV/fm3.
This dissertation describes the development of the beam dynamics design of a novel superconducting linear accelerator. At a main operating frequency of 216.816 MHz, ions with a mass-to-charge ratio of up to 6 can be accelerated at high duty cycles up to CW operation. Intended for construction at the GSI Helmholtz Centre for Heavy Ion Research in Darmstadt, the focus of the work is on the beam dynamic design of the accelerator section downstream of the high charge injector (HLI) at an injection energy of 1.39 MeV/u. An essential feature of this linear accelerator (Linac) is the use of the EQUUS (Equidistant Multigap Structure) beam dynamics concept for a variably adjustable output energy between 3.5 and 7.3 MeV/u (corresponding to about 12.4 % of the speed of light) with a required low energy spread of maximum 3 keV/u.
The GSI Helmholtz Centre for Heavy Ion Research is a large-scale research facility that uses its particle accelerators to perform basic research with ion beams. Research on super-heavy elements ("SHE") is a major focus. It is expected that their production and research will provide answers to a large number of scientific questions. The production and detection of elements with atomic numbers 107 to 112 (Bohrium, Hassium, Meitnerium, Darmstadtium, Röntgenium and Copernicium) was first achieved at GSI between 1981 and 1996.
Key to this remarkable progress in SHE research were continuous developments and technical innovations. On the one hand, in the field of experimental sensitivity and detection of the nuclear reaction products and, on the other hand, in the field of accelerator technology.
For the acceleration of the projectile beam, the UNILAC (Universal Linear Accelerator), which was put into operation in 1975, has been used at GSI so far. In the course of the reconstruction and expansion of the research infrastructure at GSI, a dedicated new particle accelerator, HELIAC (Helmholtz Linear Accelerator), is now under development to meet the special requirements of the beam parameters for the synthesis of new superheavy elements. Typically, the production rates of super-heavy elements with effective cross sections in the picobarn range are very low. Therefore, a high duty cycle (up to CW operation) is a key feature of HELIAC. Thus, the required beam time for the desired nuclear reactions can be significantly shortened.
Theoretical preliminary work by Minaev et al. and newly created knowledge about design, fabrication, and operation of superconducting drift tube cavities have laid the foundation for this work and thus the development of the HELIAC linear accelerator. It consists of a superconducting and a normal conducting part. Acceleration takes place in the superconducting part in four cryomodules, each about 5 m long. These contain three CH cavities, one buncher cavity, two solenoid magnets for transverse beam focusing, and two beam position monitors (BPMs).
The following 10 m long normal conducting part is primarily used for beam transport and ends with a buncher cavity. This is operated at a halved frequency of 108.408 MHz.
A key feature of this accelerator is the variability of the output energy from 3.5 to 7.3 MeV/u with a small energy uncertainty of ±3 keV/u maximum over the entire output energy range. For the development of HELIAC, the EQUUS beam dynamics concept used combined the advantages of conventional linac designs with the high acceleration gradients of superconducting CH-DTLs. By doubling the frequency (compared to the GSI high charge injector) to 216.816 MHz in the superconducting section and using CH cavities at an acceleration gradient of maximum 7.1 MV/m, an acceleration efficiency with superconducting drift tube structures that is unique in the world is made possible. At the same time, the compact lengths of the CH cavities ensure good handling for both production and operation. EQUUS leads to longitudinal beam stability in all energy ranges of the accelerator with the sliding motion of the synchronous phase within each CH cavity. The rms emittance growth is moderate in all levels. The modular design of the HELIAC with four cryomodules basically allows the Linac to be commissioned starting with the first cryomodule, the so-called Advanced Demonstrator. In the subsequent expansion stage with only the first two cryomodules of HELIAC, the lower limit of the energy range to be provided by HELIAC (3.5 MeV/u) can already be clearly exceeded, so that use in regular beam operation at GSI is already conceivable from here on.
By means of error tolerance studies, the stability of the HELIAC beam dynamics design against possible alignment errors of the magnetic focusing elements and accelerator cavities as well as errors of the electric field amplitudes and phases have been investigated, basically confirmed and critical parameters have been determined. An additional steering concept via dipole correction coils at the solenoid magnets allows transverse beam control as well as diagnostics by means of two BPMs per cryomodule.
With completion of this work in 2021, the CH1 and CH2 cavities have already been built and are in the final preparation and cold test phase. In parallel, the development of the CH cavities CH3-11 has also been started.
Die vorliegende Dissertation stellt die Strahldynamikdesigns zweier Hochfrequenzquadrupol-Linearbeschleuniger bzw. Radio Frequency Quadrupoles (RFQs) vor: das fur den RFQ des Protonen-Linearbeschleunigers (p-Linac) des FAIR2-Projekts an der GSI3 Darmstadt sowie einen ersten Designentwurf für einen kompakten RFQ, der u.a. zur Erzeugung von Radioisotopen für medizinische Zwecke genutzt werden könnte. Der Schwerpunkt liegt auf dem ersten Design.
This thesis discusses important questions of the beam dynamics in the proton-lead operation in the Large Hadron Collider (LHC) at CERN in Geneva. In two time blocks of several weeks in the years 2013 and 2016, proton-lead collisions have so far been successfully generated in the LHC and used by the experiments at the LHC. One reason for doubts regarding the successful operation in proton-lead configuration was the fact that the beams have to be accelerated with different revolution frequencies. There is long-range repulsion between the beams, since both beams share the beam chamber around the interaction points. Because of the different revolution frequencies, the positions of the interaction between the beams shift each revolution. This can lead to resonant excitation and to an increase in the transverse beam emittance, as was observed in the Relativistic Heavy-Ion Collider (RHIC). In this thesis, simulations for the LHC, RHIC and the High-Luminosity Large Hadron Collider (HL-LHC) are performed with a new model. The results for RHIC show relative growth rates of the emittances of the gold beam in gold-deuteron operation in RHIC from 0.1 %/s to 1.5 %/s. Growth rates of this magnitude were observed experimentally in RHIC. Simulations for the LHC show no significant increase of the emittance of the lead beam for different intensities of the counter-rotating beam. The simulation results confirm the measured stability of the beams in the LHC and the issue of strongly increasing emittances in RHIC is reproduced. Also, no significant increase of the emittance is predicted for the Future Circular Collider (FCC) and the HL-LHC.
Using a frequency-map analysis, this work verifies whether the interaction of the lead beam with the much smaller proton beam in the proton-lead operation of the LHC leads to diffusion within the lead beam. Experiences at HERA at DESY in Hamburg and at SppS at CERN have shown that the lifetime of the larger beam can rapidly decrease under certain circumstances. The results of the simulation show no chaotic dynamics near the beam centre of the lead beam. This result is supported by experimental observation.
A program code has been developed which calculates the beam evolution in the LHC by means of coupled differential equations. This study shows that the growth rates of the lead beam due to intra-beam scattering is overestimated and that particle bunches of the lead beam lose more intensity than assumed in the model. The analysis also shows that bunches colliding in a detector suffer additional losses that increase with decreasing crossing angle at the interaction point.
In this work, 2016 data from beam-loss monitors in combination with the luminosity and the loss rate of the beam intensity are used to determine the cross section of proton-lead collisions at the center-of-mass energy of 8.16 TeV. Beam-loss monitors that mainly detect beam losses that are not caused by the collision process itself are used to determine the total cross section via regression. An analysis of the data recorded in 2016 at the center-of-mass energy of 8.16 TeV resulted in a total cross section of σ=(2.32±0.01(stat.)±0.20(sys.)) b. This corresponds approximately to a hadronic cross section of σ(had)=(2.24±0.01(stat.)±0.21(sys.)) b. This value deviates only by 5.7 % from the theoretical value σ(had)=(2.12±0.01) b.
The simulation code for determining the beam evolution is also used to estimate the integrated luminosity of a future one-month run with proton-lead collisions. The result of the study shows that in the future the luminosity in the ATLAS and CMS experiments will increase from 15/nb per day in 2016 to 30/nb per day, which is a significant increase in terms of the performance. This operation, however, requires the use of the TCL collimators to protect the dispersion suppressors at ATLAS and CMS from collision fragments.
This work also gives an outlook on the expected luminosity production in proton-nucleus operation using ion species lighter than lead ions. For example, a change from proton-lead to proton-argon collisions would increase the integrated luminosity from monthly 0.8/nb to 9.4/nb in ATLAS and CMS. This is an increase of one order of magnitude and approximately a doubling of the integrated nucleon-nucleon luminosity. There may be a test operation with proton-oxygen collisions in 2023, which will last only a few days and will be operated with a low luminosity. The LHCf experiment (LHCb experiment) would achieve the desired integrated luminosity of 1.5/nb (2/nb) within 70h (35h) beam time.
At sufficiently high temperatures and baryon densities, nuclear matter is expected to undergo a transition into the Quark-Gluon-Plasma (QGP) consisting of deconfined quarks and gluons and accompanied by chiral symmetry restoration. Signals of these two fundamental characteristics of Quantum-Chromo-Dynamics (QCD) can be studied in ultra-relativistic heavy-ion collisions producing a relatively large volume of high energy and nucleon densities as existent in the early universe. Dileptons are unique bulk-penetrating sources for this purpose since they penetrate through the surrounding medium with negligible interaction and are created throughout the entire evolution of the initially created fireball. A multitude of experiments at SIS18, SPS and RHIC have taken on the challenging task to measure these rare probes in a heavy-ion environment. NA60's results from high-quality dimuon measurements have identified the broadened ρ spectral function as favorable scenario to explain the low-mass dilepton excess, and partonic sources as dominant at intermediate dilepton masses.
Enabled by the addition of a TOF detector system in 2010, the first phase of the Beam Energy Scan (BES-I) at RHIC allows STAR to conduct an unprecedented energy-dependent study of dielectron production within a homogeneous experimental environment, and hence close the wide gap in the QCD phase diagram between SPS and top RHIC energies. This thesis concentrates on the understanding of the LMR enhancement regarding its invariant mass, transverse momentum and energy dependence. It studies dielectron production in Au+Au collisions at beam energies of 19.6, 27, 39, and 62.4 GeV with sufficient statistics. In conjunction with the published STAR results at top RHIC energy, this thesis presents results on the first comprehensive energy-dependent study of dielectron production.
This includes invariant mass- and transverse momenta-spectra for the four beam energies measured in 0-80% minimum-bias Au+Au collisions with high statistics up to 3.5 GeV/c² and 2.2 GeV/c, respectively. Their comparison with cocktail simulations of hadronic sources reveals a sizeable and steadily increasing excess yield in the LMR at all beam energies. The scenario of broadened in-medium ρ spectral functions proves to not only serve well as dominating underlying source but also to be universal in nature since it quantitatively and qualitatively explains the LMR enhancements measured over the wide range from SPS to top RHIC energies. It shows that most of the enhancement is governed by interactions of the ρ meson with thermal resonance excitations in the late(r)-stage hot and dense hadronic phase. This conclusion is supported by the energy-dependent measurement of integrated LMR excess yields and enhancement factors. The former do not exhibit a strong dependence on beam energy as expected from the approximately constant total baryon density above 20 GeV, and the latter show agreement with the CERES measurement at SPS energy. The consistency in excess yields and agreement with model calculations over the wide RHIC energy regime makes a strong case for LMR enhancements on the order of a factor 2-3.
The extent of the results presented here enables a more solid discussion of its relation to chiral symmetry restoration from a theoretical point of view. High-statistics measurements at BES-II hold the promise to confirm these conclusions along with the LMR enhancment's relation to total baryon density with decreasing beam energy.
This thesis has two main parts.
The first part is based on our publication [1], where we use perturbation theory to calculate decay rates of magnons in the Kitaev-Heisenberg-Γ (KHΓ) model. This model describes the magnetic properties of the material α-RuCl 3 , which is a candidate for a Kitaev spin liquid. Our motivation is to validate a previous calculation from Ref. [2]. In this thesis, we map out the classical phase diagram of the KHΓ model. We use the Holstein-Primakoff
transformation and the 1/S expansion to describe the low temperature dynamics of the Kitaev-Heisenberg-Γ model in the experimentally relevant zigzag phase by spin waves. By parametrizing the spin waves in terms of hermitian fields, we find a special parameter region within the KHΓ model where the analytical expressions simplify. This enables us to construct the Bogoliubov transformation analytically. For a representative point in the special parameter region, we use these results to numerically calculate the magnon damping, which is to leading order caused by the decay of single magnons into two. We also calculate the dynamical structure factor of the magnons.
The second part of this thesis is based on our publication [3], where we use the functional renormalization group to analyze a discontinuous quantum phase transition towards a non-Fermi liquid phase in the Sachdev-Ye-Kitaev (SYK) model. In this thesis, we perform a disorder average over the random interactions in the SYK model. We argue that in the thermodynamic limit, the average renormalization group (RG) flow of the SYK model is identical to the RG flow of an effective disorder averaged model. Using the functional RG, we find a fixed point describing the discontinuous phase transition to the non-Fermi liquid phase at zero temperature. Surprisingly, we find a finite anomalous dimension of the fermions, which indicates critical fluctuations and is unusual for a discontinuous transition. We also determine the RG flow at zero temperature, and relate it to the phase diagram known from the literature.
Breitbandige Beamforming-Algorithmen zur Erfassung von Audiosignalen mit kompakten Mikrofon-Arrays
(2009)
Mikrofon-Arrays erlauben die selektive Erfassung und Trennung von Audiosignalen aus einer akustischen Umgebung. Typische Anwendungen sind z.B. die Ortung einzelner Schallquellen, die räumliche Kartierung eines Schallfeldes ("akustische Kamera") oder der gerichtete Empfang einer bestimmten Schallquelle bei gleichzeitiger Unterdrückung von Umgebungs- oder Störschallen. Vielkanalige Verfahren und Filter, die sich dieser Aufgabe widmen, werden als Beamforming bzw. Beamformer bezeichnet. In dieser Dissertation werden bekannte und eigene Beamforming-Ansätze im Hinblick auf ihre Eignung für die hochwertige Übertragung von Audiosignalen untersucht. Diese erfordert neben einer möglichst großen Abdeckung des relevanten Frequenzbereichs (Breitbandigkeit) auch die Frequenzunabhängigkeit der Richtcharakteristik, um spektrale Verzerrungen zu vermeiden. Es wird ein Algorithmus vorgestellt, der diese Anforderungen mit sehr kompakten Arrays erfüllt. Eine klassische Möglichkeit, eine frequenzinvariante Charakteristik (Beampattern) mithilfe eines Delay-and-Sum-Beamformers zu erhalten, ist eine frequenzabhängige Gewichtung der Mikrofone, welche die effektive Apertur des Arrays proportional zur Schallwellenlänge einstellt. Diese Methode funktioniert jedoch nur bei Wellenlängen, die kleiner sind als die Ausdehnung des Arrays, und erfordert bei Frequenzen unter 100Hz Arrays von mehreren Metern Größe. Ein gänzlich anderes Verhalten zeigen differentielle Mikrofonarrays, welche Differenzen aus Signalen benachbarter Mikrofone bilden: In Kombination mit Integratorfiltern erzeugen sie Beampattern, die auch bei sehr kleinen Frequenzen, d.h. bei Wellenlängen, die groß gegen das Array sind, unverändert bleiben (sog. Superdirektivität). Aus diesem Prinzip wurde in dieser Arbeit das Konzept des Multipol-Beamformers entwickelt, der ein gegebenes Soll-Beampattern durch eine Reihenentwicklung nach Sinus- und Kosinusfunktionen (zweidimensionaler Fall) oder Kugelflächenfunktionen (dreidimensionaler Fall) approximiert. Der Multipol-Beamformer erzielt eine hervorragende Richtwirkung bei kleinen Frequenzen, ist jedoch nur über einen sehr begrenzten Bereich frequenzinvariant und erweist sich insbesondere in drei Raumdimensionen als analytisch aufwändig. Flexibler und in zwei wie in drei Raumdimensionen gleichermaßen einfach in der Formulierung ist demgegenüber das in der Literatur zu findende Verfahren des modalen Subraum-Beamformings (Modal Subspace Decomposition, MSD). Dieser Ansatz bestimmt zu einer beliebigen Sensorgeometrie einen Satz orthogonaler Eigen-Beampattern, die dann zu einer Reihenentwicklung des Soll-Beampatterns herangezogen werden. Ähnlich dem erwähnten Delay-and-Sum-Beamformer jedoch erfordert auch dieser Ansatz bei großen Wellenlängen entsprechend groß dimensionierte Arrays und ist nicht superdirektiv. In dieser Arbeit wurde deshalb eine eigene, neue Ausprägung des MSD-Algorithmus formuliert, welche die Superdirektivität des Multipol-Beamformers mit der Flexibilität und Einfachheit des MSD-Verfahrens vereint. Diese als "superdirektives MSD-Beamforming" bezeichnete Methode besitzt - wie das bereits bekannte MSD-Verfahren auch - die interessante Eigenschaft, daß die Eigen-Beampattern für ein frei zu wählendes Entwurfs-Frequenzband berechnet werden, so daß das Verhalten des Beamformers über ein ganzes Frequenzintervall kontrolliert werden kann. Dies eröffnet auch die Möglichkeit eines sehr breitbandigen Beamformings durch Kombination mehrerer Beamformer, die individuell auf benachbarte Frequenzbänder abgestimmt werden. Mit beispielsweise einem hexagonalen Array von nur 6cm Durchmesser und sieben Mikrofonen erreicht der superdirektive Ansatz so ca. 20-30dB Störabstand über einen Frequenzbereich von 100Hz bis 6kHz, was für Sprache eine sehr hohe Übertragungsqualität darstellt. Zur experimentellen Verifikation der untersuchten Algorithmen wurde im Rahmen dieser Arbeit eine vielkanalige Echtzeit-Signalverarbeitungsumgebung unter Windows XP erstellt, welche die Erfassung, Verarbeitung, Analyse und Ausgabe vielkanaliger Audio-Daten erlaubt. Auch eine Simulation idealer Freifeldmessungen an Mikrofonarrays ist damit möglich, indem die Ausbreitung des Schalls von der Schallquelle zu den Mikrofonen durch zeitdiskrete Fractional-Delay-Filter simuliert wird. Dieser Filtertypus wurden im Rahmen dieser Arbeit ebenfalls eingehend untersucht: Für zwei aus der Literatur bekannte Entwurfsverfahren wurden Erweiterungen gefunden, die bei gleicher Filterordnung eine höhere nutzbare Bandbreite erzielen. Für Messungen an realen Arrays wurde die Akustik-Messkammer des Instituts durch zusätzliche Dämmauskleidung für Freifeld-Messungen nutzbar gemacht. Die Messergebnisse belegen, daß die untersuchten Algorithmen in der Praxis erwartungsgemäß funktionieren und daß der gefundene superdirektive MSD-Algorithmus mit sehr kompakten Arrays eine gute breitbandige Erfassung und Trennung von Audiosignalen ermöglicht.
Results were presented from Brownian dynamics simulations for cyt c molecules approximated as spherical particles with diameter 2R ' 3.3 nm interacting with a charged planar membrane surface. Using the well-known Ermak-McCammon algorithm of ref. [36, 37] for solving the Langevin equations (see Chapter 2), a new computer program in C++ was developed. An overview of the way it is implemented is given in Chapter 3. The program in its current state is able to compute the trajectories (translation and rotation) of hundreds of spherical particles in systems with typical dimensions of 103 − 1003 nm3 . As explained in the introductory Chapter 1 the motivation for studying the dynamics of cyt c molecules in such systems came from the progress in the research of photosynthetic bacteria, e.g. While the internal processes of energy transduction (light harvesting, channelling to RC, charge separation) are quite well understood, the dynamics of soluble cyt c as an electron transporter in this context is not yet clear. In many textbooks one can find illustrations where a single cyt c is responsible for the electron transport between two integral membrane proteins (the reaction centre RC and the bc1 complex). But as pointed out in publications like refs. [49], [59], [60], [61] or [62] biological cells are crowded with different molecules. Consequently, one can assume that the electron transport between two integral membrane proteins is not simply taken on by one single cyt c molecule. Instead it is likely that many of these particles are located in a cyt c pool above the membrane and that they perform the electron transport in turns. Thus, it is desirable to have a simulation package that is able to compute the trajectories of many proteins. Note that the detailed processes of electron transfer and binding to membrane proteins are not modelled here. The details of these processes are quite complicated so that we refrained from including them in the coarse-grained simulations. Here, the actual binding is simply defined by a particle distance zb from the membrane which marks the beginning of the attractive potential. ...
The bulk viscosity of several quark matter phases is calculated. It is found that the effect of color superconductivity is not trivial, it may suppress, or enhance the bulk viscosity depending on the critical temperature and the temperature at which the bulk viscosity is calculated. Also, is it found that the effect of neutrino-emitting Urca processes cannot be neglected in the consideration of the bulk viscosity of strange quark matter. The results for the bulk viscosity of strange quark matter are used to calculate the r-mode instability window of quark stars with several possible phases. It is shown that each possible phase has a different structure for the r-mode instability window.
This Ph. D. thesis with the title "Characterisation of laser-driven radiation beams: Gamma-ray dosimetry and Monte Carlo simulations of optimised target geometry for record-breaking efficiency of MeV gamma-sources" is dedicated to the study of the acceleration of electrons by intense sub-picosecond laser pulses propagating in a sub-millimeter plasma with near-critical electron density (NCD) and resulting generation of the gamma bremsstrahlung and positrons in the targets of different materials and thickness.
Laser-driven particle acceleration is an area of increasing scientific interest since the recent development of short pulse, high-intensity laser systems. The interaction of intense high-energy, short-pulse lasers with solid targets leads to the production of high-energy electrons in the relativistic laser intensity regime of more than 1018 W /cm2. These electrons play the leading role in the first stage of the interaction of laser with matter, which leads to the creation of laser sources of particles and radiation. Therefore, the optimisation of the electron beam parameters in the direction of increasing the effective temperature and beam charge, together with a slight divergence, plays a decisive role, especially for further detection and characterisation of laser-driven photon and positron beams.
In the context of this work, experiments were carried out at the PHELIX laser system (Petawatt High-Energy Laser for Heavy Ion eXperiments) at GSI Helmholtz Center for Heavy-Ion Research GmbH in Darmstadt, Germany. This thesis presents a thermoluminescence dosimetry (TLD) based method for the measurement of bremsstrahlung spectra in the energy range from 30 keV to 100 MeV. The results of the TLD measurements reinforced the observed tendency towards the strong increase of the mean electron energy and number of super-ponderomotive electrons. In the case of laser interaction with long-scale NCD-plasmas, the dose caused by the gamma-radiation measured in the direction of the laser pulse propagation showed a 1000-fold increase compared to the high contrast shots onto plane foils and doses measured perpendicular to the laser propagation direction for all used combinations of targets and laser parameters.
In this thesis I present novel characterisation method using a combination of TLD measurements and Monte Carlo FLUKA simulations applicable to laser-driven beams. The thermoluminescence detector-based spectrometry method for simultaneous detection of electrons and photons from relativistic laser-induced plasmas initially developed by Behrens et al. (Behrens et al., 2003) and further applied in experiments at PHELIX laser (Horst et al., 2015) delivered good spectral information from keV energies up to some MeV, but as it was presented in (Horst et al., 2015) this method was not really suitable to resolve the content of photon spectra above 10 MeV because of the dominant presence of electrons. Therefore, I created new evaluation method of the incident electron spectra from the readings of TLDs. For this purpose, by means of MatLab programming language an unfolding algorithm was written. It was based on a sequential enumeration of matching data series of the dose values measured by the dosimeters and calculated with of FLUKA-simulations. The significant advantage of this method is the ability to obtain the spectrum of incident electrons in the low energy range from 1 keV, which is very difficult to measure reliably using traditional electron spectrometers.
The results of the evaluation of the effective temperature of super-ponderomotive electrons retrieved from the measured TLD-doses by means of the Monte-Carlo simulations demonstrated, that application of low density polymer foam layers irradiated by the relativistic sub-ps laser pulse provided a strong increase of the electron effective temperature from 1.5 - 2 MeV in the case of the relativistic laser interaction with a metallic foil up to 13 MeV for the laser shots onto the pre-ionized foam and more than 10 times higher charge carried by relativistic electrons.
The progressive simulation method of whole electron spectra described with two -temperatures Maxwellian distribution function has been developed and the results of dose simulations were compared with the acquired experimental data. The advanced feature of this method, which distinguishes it from the results of the simulation of the photon spectrum using the interaction with the target of mono-energetic electron beams (Nilgün Demir, 2013; Nilgün Demir, 2019) or the initial electron spectrum expressed as a function of one electron temperature (Fiorini, 2012), is the ability to simulate the initial electron spectrum described by the Maxwellian distribution function with two temperatures.
The important objective of this thesis was dedicated to the study and characterisation of laser-driven photon beams. In addition to this, the positron beams were evaluated. The investigation of bremsstrahlung photons and positrons spectra from high Z targets by varying the target thickness from 10 µm to 4 mm in simulated models of the interactions of electron spectra with Maxwellian distribution functions allowed to define an optimal thickness when the fluences of photons and positrons are maximal. Furthermore based on the results of FLUKA simulations the gold material was found to be the most suitable for the future experiments as e − γ target because of its highest bremsstrahlung yield.
Additionally Monte Carlo simulations were performed applying the obtained electron beam parameters from the electron acceleration process in laser-plasma interactions simulated with particle-in-cell (PIC) code for two laser energies of 20 J and 200 J. The corresponding electron spectra were imported into a Monte Carlo code FLUKA to simulate the production process of bremsstrahlung photons and positrons in Au converter. FLUKA simulations showed the record conversion of efficiency in MeV gammas can reach 10%, which reinforces the generation of positrons. The obtained results demonstrate the advantages of long-scale plasmas of near critical density (NCD) to increase the parameters of MeV particles and photon beams generated in relativistic laser-plasma interaction. The efficiency of the laser-driven generation of MeV electrons and photons by application of low-density polymer foams is essentially enhanced.
Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung des ALTRO Chips (ALICE TPC Readout), der ein integraler und wichtiger Bestandteil der Auslesekette des TPC (Time Projection Chamber) Detektors von ALICE (A Large Ion Collider Experiment) ist. ALICE ist ein Experiment am noch im Bau befindlichen LHC (Large Hadron Collider) am CERN mit der zentralen Ausrichtung, Schwerionenkollisionen zu untersuchen. Diese sind von besonderem Interesse, da durch sie ein experimenteller Zugriff zu dem QGP (Quark Gluon Plasma) existiert, dem einzigen vom Standardmodell vorhergesagten Phasenübergang, der unter Laborbedingungen erreichbar ist. Im Jahr 2004 wurden Messungen an einem Teststrahl am CERN PS (Proton Synchrotron) durchgeführt. Der Prototyp wurde voll mit FECs bestückt, was 5400 Kanälen entspricht und einer anderen Gasmixtur (Ne/N2/CO2 90%/5%/5%) befüllt. Für das optimale Leistungsverhalten der ALICE TPC muß der Digitalprozessor im ALTRO, bestehend aus vier Berechnungseinheiten, mit den passenden Werten konfiguriert werden. Der Datenfluss beginnt mit dem BCS1 (Baseline Correction and Subtraction 1) Modul, das systematische Störungen und die Grundlinie entfernt. Da der ALTRO kontinuierlich das anliegende Signal abtastet, entfernt es automatisch langsame Grundlinienveränderungen, die Beispielsweise durch Temperaturänderungen auftreten können. Gefolgt von dem TCF (Tail Cancellation Filter), der den Schweif des langsam fallenden, vom PASA generierten Signals entfernt. Um die nichtsystematischen Störungen der Grundlinie zu entfernen, folgt die BCS2 (Baseline Correction and Subtraction 2), die auf einer gleitenden Mittelwertsberechnung mit Ausschluß von Detektorsignalen über einen doppelten Schwellenwert basiert. Die finale Einheit für die Signalverarbeitung ist die ZSU (Zero Suppression Unit), die Meßpunkte unterhalb eines definierten Schwellwertes entfernt. Hier wird der weg beschrieben die TCF und BCS1 Parameter aus vorhandenen Detektordaten zu extrahieren. Während der Analyse der Daten von kosmischen Teilchen fiel bei Signalen mit hoher Amplitude (>700 ADC) eine zusätzliche Struktur in dem Schweif auf. Der Monitor wurde deswegen mit einem gleitenden Mittelwertfilter erweitert, worauf sich diese Struktur auch in kleineren Signalen (> 200 ADC) zeigte. Dieses Signal wird von Ionen erzeugt, die zur Kathode oder zu den Pads driften, bisher ist jedoch weder die Streuung der Elektronenlawine an der Anode, noch die Variationsbreite in den erzeugten Elektronlawinen verstanden oder gemessen worden. Eine erfolgreiche Messung, sowie Charakterisierung wird in dieser Arbeit beschrieben. Im Jahr 2005 im Sommer beginnt der Einbau der Gaskammern der TPC in ALICE, die Elektronik folgt am Ende dieses Jahres. Parallel hierzu wurde der Prototyp der TPC wieder in Betrieb genommen und im Frühling wird ein kompletter Sektor mit der Detektorelektronik ausgestattet. An diesen zwei Aufbauten wird die ALTRO Charakterisierung fortgeführt, verfeinert und komplettiert.
The Compressed Baryonic Matter (CBM) experiment will explore the phase diagram of strongly interacting matter in the region of high net baryonic densities. The matter at these extreme conditions will be produced and studied in heavy-ion collisions with a fixed target set-up.
The present work is dedicated to the main component of the CBM experiment - the Silicon Tracking System (STS). The STS comprises of 8 tracking stations with 1292 double sided silicon microstrip sensors. The STS has to enable the reconstruction of up to 1000 charged particle tracks per nucleus-nucleus interaction at the rate of up to 10 MHz, provide a momentum resolution of Δp/p =1%, and withstand the radiation load of up to 1 x 1014 neq/cm2 (neq — radiation dose of 1 MeV neutron equivalent). Self-triggering read-out electronics will be located on the periphery of the detecting planes, and connected to the sensors with low mass micro-cables.
During the R&D phase, as well as in the pre-series and series production phase, the characterization of the sensors, of the front-end electronics and of the complete detector modules has to be performed. It is evident that characterization of more than 1000 silicon microstrip sensors and later of complete detector modules is very time-consuming, and may even damage the objects if not performed carefully. One of the goals of this work was to develop a systematic procedure for the quality assurance for the double-sided silicon microstrip sensors. This includes static optical inspection and visual tests, passive electrical test (such as leakage current, bulk capacitance, inter-strip capacitance & resistances, bias resistance and coupling capacitance), radiation hardness and long-term stability. A strategy for the quality assurance of these sensors is presented, defining the various tests to be performed and the documentation of the results. The techniques and quality assurance criteria will be applied for the pre-series and series production.
With decreasing feature size and increase in functionality and structures, the classical mechanical probe approach for internal fault detection and functional testing faces increasing challenges. In the field of silicon based chips and sensors there is rarely any analysis on the topic of non-invasive or contact-less probing and characterization, despite the fact that the contact-less probing is becoming more and more important as the fabrication technologies become smaller and more susceptible to the parasitic impact of mechanical probes. The silicon micro-strip double sided sensors used in STS have a complex structure, such as 1024 metal electrodes, 2048 bias resistors, 2048 DC pads and 4098 AC pads for probing, several guard rings, and even more in the 6.2 cm x 6.2 cm prototype sensor. Photo-intrusive technique is the best solution for the characterization and investigation of crucial parameters related to the detector operation and its functionality. A photo-intrusive probing is a method in which a non-invasive pulsed laser of a desired wavelength is used to inject the photon into the bulk and resulting in electron-hole pairs (e-h). In a completely depleted silicon sensor the charge injected (or generated) by the pulsed laser beam could be detected as current and shall be used for characterization.
A non-invasive contact-less Laser Test System (LTS) was developed based on a pulsed laser to investigate properties of the silicon sensors. The set-up is able to inject charge locally and scan sensors(or detector modules) with a pulsed infra-red laser driven by a step motor. The LTS is designed to measure sensor response in an automatized procedure at several thousand positions across the sensor with focused infra-
red laser light (spot size = 12 μm , wavelength = 1060 nm). The duration (10 ns) and power (5 mW) of the laser pulses are selected such that the absorption of the laser light in the 300 μm thick silicon sensors produces a number of about 24000 electrons, which is similar to the charge created by the minimum ionizing particles (MIP) in these sensors. The set-up was used to developed characterization procedures to determine the charge sharing between strips, and to measure a qualitative uniformity of the sensor response over the whole active area. The prototype sensors which are tested with the set-up are small prototype sensors (256 strips, pitch = 50 μm on each side) and full-size detector modules (1024 strips/side and pitch = 58 μm). They are read-out using a self-triggering prototype read-out electronic ASIC called n-XYTER. Laser scans for amplitude response, charge sharing in the inter-strip region, and spot-size determination technique are reported. For the verification of the some design parameters, unique methods of determining coupling capacitance, and inter-strip capacitance have been developed. The modules were also tested with proton beams, and the charge sharing in the inter-strip region has been compared to the laser test results.
High-energetic heavy-ion collisions offer the unique opportunity to produce and to study dense nuclear matter in the laboratory. The future Facility for Antiproton and Ion Research (FAIR) in Darmstadt, Germany, will provide beams of heavy nuclei up to kinetic energies of 11 GeV/nucleon. At these energies, the nuclear matter in the collision zone of two nuclei will be compressed to densities of up to 5 − 10 times the saturation density of atomic nuclei, similar to matter densities existing in the core of massive neutron stars. Under those conditions, nucleons are expected to melt and form a new state of matter, which consists of quarks and gluons, the so called Quark-Gluon Plasma (QGP). The search for such a phase transition from hadronic to partonic matter, and the exploration of the nuclear matter equation-of-state at high densities are the major goals of heavy ion experiments worldwide.
The observables, which are proposed to probe the properties of dense nuclear matter and possible phase transitions, include multi-strange hyperons, antibaryons, lepton pairs, collective flow of identified particles, fluctuations and correlations of various particles, particles containing charm quarks, and hypernuclei. These observables have to be measured in multi-dimensions, i.e. as function of collision centrality, rapidity, transverse momentum, energy, emission angle, etc., which requires extremely high statistics. Moreover, some of these particles are produced very rarely.
Therefore, the Compressed Baryonic Matter (CBM) experiment at FAIR is designed to run at collision rates of up to 10 MHz, in order to perform measurements with unprecedented precision. Due to the complicated decay topology of many observables, no hardware trigger can be applied, and the data have to be analysed online in order to filter out the interesting events.
This strategy requires free-streaming read-out electronics, which provides time stamps to all detector signals, a high performance computer center, and high-speed reconstruction algorithms, which provide an online track and event reconstruction based on time and position information of the detector hits (”4-D“ reconstruction).
The core detector of the CBM experiment is the Silicon Tracking System (STS). The main task of the STS is to provide track reconstruction and momentum de- termination of charged particles originating from beam-target interactions. To fulfil the whole tasks the STS is located in the large gap of a superconducting dipole magnet with a bending power of 1 Tm providing momentum measurements for charged particles. The STS comprises 8 detector stations, which are positioned from 30 cm to 100 cm downstream the target. The corresponding active area of the stations grows up from 40×50 cm 2 up to 100×100 cm 2 with a totalarea of 4 m2. The silicon double-sided sensors exhibit 1024 strips on each side with a stereo angle at p-side of 7.5 ◦ and a strip pitch of 58 μm. The strip length ranges from 2 cm for sensors located in a close vicinity to the beam axis, up to 12 cm for other sensors where the flux of the reaction products drops down substantially. In total, the STS consist of 896 sensors mounted on 106 detector ladders. The detector readout electronics dissipates 40 kW and will be equipped with a CO 2 bi-phase cooling system. The detector including electronics will be mounted in a thermal enclosure to allow for sensor operation at below −5 ◦ C which minimizes radiation induced leakage currents.
The task of the STS is to measure the trajectories of up to 800 charged particles per collision with an efficiency of more than 95% and a momentum resolution of 1 − 2%. In order to guarantee the required performance over the full lifetime of the CBM experiment, the detector system has to have a low material budget, a high granularity, a high signal-to-noise (SNR) ratio, and a high radiation tolerance. As a result of optimisation studies, the STS consists of double-sided silicon microstrip sensors, about 300 μm thick, which have to provide a SNR ratio of more than 10, even after radiation with the expected equivalent lifetime fluence of 10 14 1 MeV n eq cm −2.
This thesis is devoted to the characterization of double-sided silicon microstrip sensors with an emphasis on investigation of their radiation hardness. Different prototypes of double sided silicon sensors produced by two vendors have been irradiated by 23 MeV protons up to the double life time fluence for the CBM experiment (2 × 10 14 1 MeV n eq cm −2 ).
The sensor properties have been characterised before and after irradiation. It was found, that after irradiation with a double lifetime fluence the leakage current increased 1000 times, which results in an increased shot noise. Moreover, the relative charge collection efficiency of irradiated with respect to non-irradiated sensors drops down to 85% for the lifetime equivalent fluence, and down to 73% for the double lifetime fluence, both for the p-side and n-side. For non-irradiated sensors the SNR was found to be in the range of 20 − 25, whereas for irradiated sensors it dropped down to 12 − 17.
In addition to the sensor characterization, a part of this thesis was devoted to the optimisation of the sensor readout scheme. In order to investigate the possible increase of SNR, and to reduce the number of readout channels in the outer aperture of STS, three versions of routing lines have been realized for the p-side readout of the sensor prototype, and have been tested in the laboratory and under beam conditions.
The tests have been performed with different inclination angles between beam direction and sensor surface, corresponding to the polar angle acceptance of the CBM experiment, which is from 2.5 ◦ to 25 ◦.
As a result of the studies carried out in this thesis work, the radiation hardness of the double-sided silicon microstrip sensors developed for the CBM STS detector was confirmed. Also the advantage of individual read-out of sensor channels in the lateral regions of the detector was verified. This allowed to start the tendering process for sensor series production in industry, an important step towards the construction of the detector in the coming years.
In dieser Arbeit wurden zwei Systeme der biologischen Energiewandlung mit verschiedenen spektroskopischen Methoden untersucht und es wurden neue Erkenntnisse über die Funktion und Aktivierung der Proteine Proteorhodopsin und RuBisCO gewonnen. Zusätzlich konnte eine neue methodische Herangehensweise zur Untersuchung von Carboxylierungsreaktionen etabliert werden. Dieser Ansatz bietet in Zukunft breite Anwendungsmöglichkeiten zur Studie dieser biologisch so bedeutenden Reaktionsklasse. Mit Hilfe der Infrarotspektroskopie und vor allem durch den Einsatz von Tieftemperaturmessungen konnte der bisher kontrovers diskutierte Photozyklus von Proteorhodopsin (PR) eingehend charakterisiert werden. Jenseits des gut verstandenen aktiven Transports bei pH 9,0 wurde vor allem der pH 5,1 Photozyklus untersucht. Erstmals konnte auch in Infrarotspektren das M-Intermediat bei pH 5,1 nachgewiesen werden. Dieses Intermediat ist von entscheidender Bedeutung für den aktiven Transport über die Zellmembran und seine Existenz wurde bisher vielfach angezweifelt. Zudem konnte Glu-108 als ein möglicher Protonenakzeptor des Photozyklus bei pH 5,1 identifiziert werden. Durch einen pH-Indikator ließ sich der Nachweis erbringen, dass auch im sauren pH-Bereich Protonen freigesetzt werden. Damit steht fest, dass ein aktiver Protonentransport bei pH 5,1 möglich ist. Zusammen mit Informationen zu protonierbaren Aminosäureseitenketten (vornehmlich Asp und Glu) lässt sich zudem mit Einschränkungen die These unterstützen, dass PR ober- und unterhalb des pKa-Werts von Asp-97 in verschiedene Richtungen Protonen pumpt. Damit ergibt sich ein differenziertes Bild für den pH-abhängigen Photozyklus von PR mit drei pH-Bereichen (pH 9,0, 8,5 bis 5,5 und 5,1) in denen PR unterschiedliche Protonentransportwege zeigt. Als weiteres biologischen System wurde RuBisCO genauer untersucht. Im Fokus der Arbeit war dabei die Aktivierung durch die Bildung eines Lysin-Carbamats im aktiven Zentrum. Obwohl RuBisCO das am häufigsten vorkommende Enzym unseres Planeten ist, in der Kohlenstofffixierung eine bedeutende Rolle spielt und obwohl mehrere Dutzend Kristallstrukturen existieren, gibt es noch immer genügend offene Fragen zur Aktivierung. Mit Hilfe eines Käfig-CO2 konnte die Carbamatbildung im Enzym direkt verfolgt und der Einfluss von Magnesiumionen auf die Aktivierung beobachtet werden. Damit ließ sich ganz klar ausschließen, dass Magnesium bereits für die Carbamatbildung erforderlich ist. Die Koordination von Mg2+ ist erst für die Endiol-Bildung im weiteren Reaktionszyklus essentiell. Zusätzlich wurde gezeigt, dass Azid eine Inhibierung des Enzyms durch die Konkurrenz mit CO2 um die Bindungsstelle auslöst, allerdings verdrängt CO2 das Azidion im Laufe der Zeit. Mit den Ergebnissen für RuBisCO konnte klar gezeigt werden, dass die Kombination aus Käfig-CO2 und Rapid-Scan IR-Spektroskopie ein völlig neues Feld für die Untersuchung von Carboxylierungsreaktionen eröffnet. Gerade die offenen Fragen zu Biotin bindenden Carboxylasen bieten ein breites Anwendungsgebiet für diese Methodik.
Motiviert durch aktuelle atomphysikalische Fragestellungen zur Struktur und Dynamik der Materie im Bereich hochgeladener Schwerionen entstand der Bedarf zur Weiterentwicklung bestehender und zur Entwicklung neuartiger ortsauflösender Detektorsysteme. Die Untersuchung der Struktur ist hauptsächlich durch die hochauflösende spektroskopische Vermessung einzelner Energieniveaus der atomaren Hülle bestimmt und liefert grundlegende Einblicke in den atomaren Aufbau. Dabei stellen diese Resultate gerade bei schweren hochgeladenen Ionen eine exzellente Testmöglichkeit der QED in extrem starken Feldern dar. Die Dynamik der Materie zeigt sich in der Teilchendynamik (hier der Atomhülle) in extrem starken und extrem kurzen elektromagnetischen Feldern, wie sie bei Ion-Atom-Stößen auftreten. Beobachtet werden können hier vor allem Teilchen und Photonen-Polarisationsphänomene. Solche Polarisationseffekte sind jedoch nicht auf das Gebiet der atomaren Hülle beschränkt. Als ein Beispiel sei die Untersuchung laserbeschleunigter Teilchen genannt. Hier kann die Polarimetrie von Röntgenstrahlung, die durch Thomson-Streuung optischer Photonen an den zuvor auf relativistische Geschwindigkeiten beschleunigten Teilchen erzeugt wird, Aufschluß über die Natur des Beschleunigungsprozesses geben. Einblick in die lineare Polarisation der Röntgenphotonen im für unsere Arbeit interessanten Energiebereich von einigen 10 keV bis einigen 100 keV können mit Compton-Polarimetern gewonnen werden. Kommerziell sind Detektorsysteme, die eine ausreichende Granularität in Kombination mit hinreichender Detektordicke besitzen, um hohe Nachweiseffizienzen zu erreichen, jedoch nicht verfügbar. Im Rahmen der vorgelegten Arbeit, die sich mit Techniken der hochaufgelösten Röntgenspektroskopie und der Röntgenpolarimetrie an hochgeladenen Schwerionen befasst, wurden vielfältige Arbeiten an und mit orts-, zeit- und energieauflösenden planaren Ge(i)-Detektorsystemen durchgeführt. Wesentliches Ziel der Arbeit war es, ein zweidimensional ortsauflösendes planares Halbleiterdetektorsystem, das für den Einsatz im Kristallspektrometer FOCAL und als Compton-Polarimeter angepasst ist, bereitzustellen. Hierzu wurde ein 2D-µ-Streifendetektorsystem aufgebaut, das eine Ortsauflösung von 250µm, bzw. 1167µm in orthogonaler Richtung, bei einer Detektordicke von 11mm und eine Energieauflösung von etwa 2 keV für jeden einzelnen Streifen bei 60 keV Photonenenergie gewährleistet. Durch Messungen an der Synchrotronquelle ESRF, Grenoble (Frankreich), wurde die Eignung des Systems als bildgebendes Element im FOCAL Kristallspektrometer bei einer Photonenenergie von 60 keV und als Compton-Polarimeter bei einer Photonenenergie von 210 keV untersucht. Der große Vorteil in FOCAL ein ortsauflösendes Detektorsystem einzusetzen, liegt darin, dass alle interessanten Beugungswinkel simultan beobachtet werden können. Im herkömmlichen Ansatz würde man mit einer einfachen Diode und einem Kollimator den Bereich abfahren. Wegen der geringen Ereignisrate und dem hohen Untergrund ist dies jedoch nicht praktikabel. Herkömmliche Systeme wie CCD oder Gasdetektoren haben nicht die nötige Effizienz oder eine zu hohe Dunkelrate. Zur Untersuchung der für FOCAL wichtigen Eigenschaften wurden mehrere Positionen auf dem Detektor bei niedriger Energie mit einem fein kollimierten Photonenstrahl (50 x 50 µm2) gescannt. Neben der guten Energieauflösung des Detektorsystems von durchschnittlich 2.2 keV bei 60 keV, zeigen die Ergebnisse das homogene Verhalten der Detektoreffizienz, welche essentiell für den spektographischen Einsatz in FOCAL ist. Es konnten keine Hinweise auf messbare Ladungsverluste im Bereich des aktiven Detektorvolumens festgestellt werden. Ebenso konnte die Multiplizität (Anzahl der Streifen einer Detektorseite, die auf ein Ereignis reagieren), mit der ein Photon nachgewiesen wird, eindeutig mit der Strukturierung der Kontakte auf der Kristalloberfläche in Verbindung gebracht werden. Es stellte sich heraus, dass die Ereignisse der Multiplizität zwei dazu verwendet werden können um Ortsauflösungen deutlich unterhalb einer Streifenbreite zu erreichen. Diese Methode kann jedoch nur auf eine größere Anzahl von Ereignissen angewendet werden, nicht jedoch auf einzelne Ereignisse. Um das 2D-Ge(i)-µ-Streifendetektorsystem auf seine Eignung als Compton-Polarimeter zu testen, wurden Daten mit einem nahezu vollständig linear polarisierten Photonenstrahl (98% linear polarisiert) bei einer Energie von 210 keV aufgenommen. Die Daten zeigen die erwartete Dipol-ähnliche Asymmetrie im Ortsbild und dienen als Kalibrationsgrundlage zur Interpretation zukünftiger Experimente zur Polarimetrie in diesem Energiebereich. Parallel hierzu wurde an Simulationsprogrammen auf Basis der etablierten Monte Carlo Software EGS4 gearbeitet. Hiermit wurden Vorhersagen bezüglich des Nachweisverhaltens des Detektors auf linear polarisierte Röntgenstahlung gemacht. Ferner wurde für ein 4x4-Pixel-Polarimeter, das bei der ersten Bestimmung der linearen Polarisation der K-REC Strahlung von U92+ am Speichering ESR der GSI eingesetzt wurde, im Rahmen der Datenanalyse mit den auf EGS4-basierenden Programmen die Detektoreffizienz für linear polarisierte Strahlung einer bestimmten Energie simuliert. Mit diesen Simulationsergebnissen konnten die selbstentwickelten Methoden zur Korrektur der Nachweiswahrscheinlichkeit eines Compton-Ereignisses als Funktion des Wechselwirkungspunkts innerhalb des Detektorkristalls und der Energie erfolgreich verifiziert werden. Die detektorbezogenen Resultate dieser Arbeit fanden ihre erste Anwendung in der FOCAL-Spektrometer Strahlzeit 2006, deren genaue Beschreibung jedoch über den Umfang dieser Arbeit hinausgeht. Ebenso flossen die Erfahrungen, die mit den Detektorsystemen, im speziellen dem 2D-Ge(i)-µ-Streifendetektor, gemacht wurden in die Realisierung eines Si(Li)-Detektors mit 32+32 Streifen zur Compton-Polarimetrie bei niedrigeren Energien (ab 60 keV) ein, der gegenwärtig in ersten Experimenten am ESR eingesetzt wird.
Charge states and energy loss of heavy ions after passing an inductively coupled plasma target
(2019)
In various kinds of fields such as accelerator physics, warm dense matter, high energy density physics, and inertial confinement fusion, heavy ions beam-plasma interaction plays an important role, and abundant investigations have been and are being carried out. Taking advantage of a good level of understanding on the interaction between a swift heavy ions beam and a hydrogen gas discharge plasma, an engineering application of a spherical theta-pinch device as a plasma stripper for FAIR (facility for antiproton and ion research) and a scientific application of a swift heavy ions beam as a novel plasma diagnostic tool are proposed and investigated.
The spherical theta-pinch device is manufactured, improved, and comprehensively tested for its application as a plasma stripper. The device is mainly composed of an evacuated glass vessel that can be filled with gas (for example: hydrogen) and a LRC circuit including a capacitors bank and a set of coils. Discharging the device at an initial hydrogen pressure in the glass vessel and an operation voltage for the capacitors bank, a circuit current oscillates in the LRC circuit. The oscillating circuit current in the set of coils induces a corresponding alternating magnetic field inside the glass vessel to ignite and maintain a hydrogen plasma.
Based on the built setup of circuit and plasma diagnostics, the measurements of circuit current, plasma light emission, plasma shape, and hydrogen Balmer series are carried out. The recorded signals of the circuit current and the plasma light emission of many consecutively repetitive discharges overlap perfectly, which indicate a very good reproducibility of the parameters of the LRC circuit during discharge and the generated plasma. From the measured circuit current, a real energy transfer efficiency is calculated by our proposed new model, which shows its overall tendency varying with the hydrogen pressure and the operation voltage, including the maximum value of 25% occurring at an initial hydrogen pressure of around 25 Pa and a maximum operation voltage of 14 kV. So, the discharge at an initial hydrogen pressure of 20 Pa and an operation voltage of 14 ...
In this thesis, the production of charged kaons and Φ mesons in Au+Au collisions at sqrt sAuAu = 2.4 GeV is studied. At this energy, all particles carrying open and hidden strangeness are produced below their respective free nucleon-nucleon threshold with the corresponding so-called excess energies: sqrt sK+ exc = -0.15 GeV, sqrt sK- exc = -0.46 GeV, sqrt sΦ exc = -0.49 GeVGeV. As a consequence, the production cross sections are very sensitive to medium effects like momentum distributions, two- or multistep collisions, and modification of the in-medium spectral distribution of the produced states [1]. K+ and K- mesons exhibit different properties in baryon dominated matter, since only K- can be resonantly absorbed by nucleons. Although strangeness exchange reactions have been proposed to be the dominant channel for K- production in the analyzed energy regime, the production yield and kinematic distributions could also be explained in smaller systems based on statistical hadronization model fits to the measured particle yields, including a canonical strangeness suppression radius RC, and taking the Φ feed-down to kaons into account [2, 3]. For the first time in central Au+Au collisions at such low energies, it is possible to reconstruct and do a multi differential analysis of K- and Φ mesons. In principle, this should be the ideal environment for strangeness exchange reactions to occur, as the particles are produced deeply sub-threshold in a large and long-living system. Therefore, it is the ultimate test to differentiate between the different sources for K- production in HIC.
In total 7.3x10exp9 of the 40% most central Au(1.23 GeV per nucleon)+Au collisions are analyzed. The data has been recorded with the High Acceptance DiElectron Spectrometer HADES located at Helmholtzzentrum für Schwerionenforschung GSI in April/May 2012. A substantially improved reconstruction method has been employed to reconstruct the hadrons with high purity in a wide phase space region.
The estimated particle multiplicities follow a clear hierarchy of the excess energy: 41.5 ± 2.1|sys protons at mid-rapidity per unit in rapidity, 11.1 ± 0.6|sys ± 0.4|extrapol π-, (3.01 ± 0.03|stat ± 0.15|sys ± 0.30|extrapól) x10 exp -2 K+, (1.94 ± 0.09|stat ± 0.10|sys ± 0.10|extrapol)x10 exp -4 K- and (0.99 ± 0.24|stat ± 0.10|sys ± 0.05|extrapol)x10 exp -4 Φ per event. The multiplicities of the strange hadrons increase more than linear with the mean number of participating nucleons hAparti, supporting the assumption that the necessary energy to overcome the elementary production threshold is accumulated in multi-particle interactions. Transport models predict such an increase, but are overestimating the measured particle yield and are not able to describe the kinematic distributions of K+ mesons perfectly. However, the best description is given by the IQMD model with a density dependent kaonnucleon potential of 40 MeV at nuclear ground state density.
The K-=K+ multiplicity ratio is constant as a function of centrality and follows with (6.45 ± 0.77)x10 exp -3 the trend of increasing with beam energy indicated from previous experiments [4]. The effective temperature of K- TK+eff = (84 ± 6) MeV is found to be systematically lower than the one of K+ TK+eff = (104 ± 1) MeV, which has also been observed by the other experiments.
The Φ=K- ratio is with a value of 0.52 ± 0.16 higher than the one obtained at higher center-of-mass energies and smaller systems. This behavior is predicted from a tuned version of the UrQMD transport model [5], when including higher mass baryonic resonances which can decay into Φ mesons and from statistical hadronization models when suppressing open strangeness canonically. The found ratio is constant as a function of centrality and results with a branching ratio of 48.9%, that ~ 25% of all measured K- originate from Φ feed-down decays. A two component PLUTO simulation, consisting of a pure thermal and a K- contribution originating from Φ decays, can fully explain the observed lower effective temperature in comparison to K+ and the shape of the measured rapidity distribution of K-. As a result, we find no indication for strangeness exchange reactions being the dominant mechanism for K- production in the SIS18 energy regime, if taking the contribution from Φ feed-down decays into account.
The hadron yields for the 20% most central collisions can be described by a statistical hadronization model fit with the chemical freeze-out temperature of Tchem = (68 ± 2) MeV and baryochemical potential of μB = (883 ± 25) MeV, which is higher than expected from previous parameterizations. The analysis of the transverse mass spectra of protons indicate a kinetic freeze-out temperature of Tkin = (70 ± 4) MeV and radial flow velocity of βr = 0.43 ± 0.01, which is in agreement with the parameters obtained from the linear dependence of the effective temperatures on the particle mass Tkin = (71.5 ± 4.2) MeV and βr = 0.28 ± 0.09.
Neutron stars are very dense objects. One teaspoon of their material would have a mass of five billion tons. Their gravitational force is so strong that if an object were to fall from just one meter high it would hit the surface of the respective neutron star at two thousand kilometers per second. In such dense bodies, different particles from the ones present in atomic nuclei, the nucleons, can exist. These particles can be hyperons, that contain non-zero strangeness, or broader resonances. There can also be different states of matter inside neutron stars, such as meson condensates and if the density is height enough to deconfine the nucleons, quark matter. As new degrees of freedom appear in the system, different aspects of matter have to be taken into account. The most important of them being the restoration of the chiral symmetry. This symmetry is spontaneously broken, which is a fact related to the presence of a condensate of scalar quark-antiquark pairs, that for this reason is called chiral condensate. This condensate is present at low densities and even in vacuum. It is important to remember at this point that the modern concept of vacuum is far away from emptiness. It is full of virtual particles that are constantly created and annihilated, being their existence allowed by the uncertainty principle. At very high temperature/density, when the composite particles are dissolved into constituents, the chiral consensate vanishes and the chiral symmetry is restored. To explain how and when chiral symmetry is restored in neutron stars we use a model called non-linear sigma model. This is an effective quantum relativistic model that was developed in order to describe systems of hadrons interacting via meson exchange. The model was constructed from symmetry relations, which allow it to be chiral invariant. The first consequence of this invariance is that there are no bare mass terms in the lagrangian density, causing all, or most of the particles masses to come from the interactions with the medium. There are still other interesting features in neutron stars that cannot be found anywhere else in nature. One of them is the high isospin asymmetry. In a normal nucleus, the amount of protons and neutrons is more or less the same. In a neutron star the amount of neutrons is much higher than the protons. The resulting extra energy (called Fermi energy) increases the energy of the system, allowing the star to support more mass against gravitational collapse. As a consequence of that in early stages of the neutron star evolution, when there are still many trapped neutrinos, the proton fraction is higher than in later stages and consequently the maximum mass that the star can support against gravity is smaller. This, between many other features, shows how the microscopic phenomena of the star can reflect into the macroscopic properties. Another important property of neutron stars is charge neutrality. It is a required assumption for stability in neutron stars, but there are others. One example is chemical equilibrium. It means that the number of particles from each kind is not conserved, but they are created and annihilated through specific reactions that happen at the same rate in both directions. Although to calculate microscopic physics of neutron stars the space-time of special relativity, the Minkowski space, can be used, this is not true for the global properties of the star. In this case general relativity has to be used. The solution of Einstein's equations simplified to static, spherical and isotropic stars correspond to the configurations in which the star is in hydrostatic equilibrium. That means that the internal pressure, coming mainly from the Fermi energy of the neutrons, balances the gravity avoiding the collapse. When rotation is included the star becomes more stable, and consequently, can be more massive. The movement also makes it non-spherical, what requires the metric of the star to also be a function of the polar coordinate. Another important feature that has to be taken into account is the dragging of the local inertial frame. It generates centrifugal forces that are not originated in interactions with other bodies, but from the non-rotation of the frame of reference within which observations are made. These modifications are introduced through the Hartle's approximation that solves the problem by applying perturbation theory. In the mean field approximation, the couplings as well as the parameters of the non-linear sigma model are calibrated to reproduce massive neutron stars. The introduction of new degrees of freedom decreases the maximum mass allowed for the neutron star, as they soften the equation of state. In practice, the only baryons present in the star besides the nucleons are the Lambda and Sigma-, in the case in which the baryon octet is included, and Lambda and Delta-,0,+,++, in the case in which the baryon decuplet is included. The leptons are included to ensure charge neutrality. We choose to proceed our calculations including the baryon octet but not the decuplet, in order to avoid uncertainties in the couplings. The couplings of the hyperons were fitted to the depth of their potentials in nuclei. In this case the chiral symmetry restoration can be observed through the behavior of the related order parameter. The symmetry begins to be restored inside neutron stars and the transition is a smooth crossover. Different stages of the neutron star cooling are reproduced taking into account trapped neutrinos, finite temperature and entropy. Finite-temperature calculations include the heat bath of hadronic quasiparticles within the grand canonical potential of the system. Different schemes are considered, with constant temperature, metric dependent temperature and constant entropy. The neutrino chemical potential is introduced by fixing the lepton number in the system, that also controls the amount of electrons and protons (for charge neutrality). The balance between these two features is delicate and influenced mainly by the baryon number conservation. Isolated stars have a fixed number of baryons, which creates a link between different stages of the cooling. The maximum masses allowed in each stage of the cooling process, the one with high entropy and trapped neutrinos, the deleptonized one with high entropy, and the cold one in beta equilibrium. The cooling process is also influenced by constraints related to the rotation of the star. When rotation is included the star becomes more stable, and consequently, can be more massive. The movement also deforms it, requiring the metric of the star to include modifications that are introduced through the use of perturbation theory. The analysis of the first stages of the neutron star, when it is called proto-neutron star, gives certain constraints on the possible rotation frequencies in the colder stages. Instability windows are calculated in which the star can be stable during certain stages but collapses into black holes during the cooling process. In the last part of the work the hadronic SU(3) model is extended to include quark degrees of freedom. A new effective potential to the order parameter for deconfinement, the Polyakov loop, makes the connection between the physics at low chemical potential and hight temperature of the QCD phase diagram with the height chemical potential and low temperature part. This is done through the introduction of a chemical potential dependency on the already temperature dependent potential. Analyzing the effect of both order parameters, the chiral condensate and the Polyakov loop, we can drawn a phase diagram for symmetric as well as for star matter. The diagram contains a crossover region as well as a first order phase transition line. The new couplings and parameters of the model are chosen mainly to fit lattice QCD, including the position of the critical point. Finally, this matter containing different degrees of freedom (depending on which phase of the diagram we are) is used to calculate hybrid star properties.
In this thesis, a novel 257 kHz chopper device was numerically developed, technically designed and experimentally commissioned; a 4-solenoid, low-energy ion beam transport line was numerically investigated, installed and experimentally commissioned; and a novel massless beam-separation system was numerically developed.
The chopper combines a pulsed electric field with a static magnetic field in an ExB or Wien-filter type field configuration. Chopped beam pulses with a 257 kHz repetition rate and rise times of 110 ns were experimentally achieved using a 14 keV helium beam.
Due to the achieved results, the complete LEBT line for the future Frankfurt Neutron Source FRANZ is ready to deliver a dc or a pulsed beam. At the same time, the LEBT section represents an attractive test stand for the study of low-energy ion beams. It combines magnetic lenses, which allow space-charge compensated beam transport, and a chopper system capable of producing short beam pulses in the hundred nanosecond range. Since these beam pulses are transported onwards, their longitudinal and transverse properties can be analyzed. The pulse duration and time of flight are well below the rise time for the space-charge compensation through residual gas ionization. This opens the possibility for dedicated investigations of the transport of short, low-energy beam pulses including longitudinal and transverse space-charge effects and of relevant issues like the dynamics of space-charge compensation and electron effects in short pulses.
The realization of a fast and robust closed orbit feedback (COFB) system for the on-ramp orbit correction at SIS18 synchrotron of FAIR project is reported in this thesis. SIS18 has some peculiar behaviors including on-ramp optics variation, very short lengths of the ramps (200 ms to 1 s) and a cycle-to-cycle variation of beam parameters. The realized fast COFB system being robust against above mentioned features of SIS18 is a first of its kind and the course to its realization led to some novel contributions in the field of closed orbit correction. A new method relying on the discrete Fourier transform (DFT)-based decomposition of the orbit response matrix (ORM) has been introduced, exploiting the symmetry in the arrangement of beam position monitors (BPMs) and the corrector magnets in the synchrotrons. A nearest-circulant approximation has also been introduced for synchrotrons having slight deviation from the symmetry, making the method applicable to a vast majority of synchrotrons. Moreover, the performance and the stability analysis of COFB systems in the presence of ORM mismatch between the synchrotron and the feedback controller is presented. The COFB systems are divided into slow and fast regimes and a new stability criterion consistent with measurements, is introduced. The practicality of the criterion is verified experimentally at COSY Jülich and is used for the analysis of various sources of ORM mismatch at SIS18. The commissioning of the SIS18 COFB system is also reported in detail which relies on Libera Hadron as the main hardware resource for the controller implementation. The on-ramp orbit correction is demonstrated for the horizontal plane of SIS18, for the disturbance rejection up to 600 Hz.
In this thesis, the flow coefficients vn of the orders n = 1 − 6 are studied for protons and light nuclei in Au+Au collisions at Ebeam = 1.23 AGeV, equivalent to a center-of-mass energy in the nucleon-nucleon system of √sNN = 2.4 GeV. The detailed multi-differential measurement is performed with the HADES experiment at SIS18/GSI. HADES, with its large acceptance, covering almost full azimuth angle, combined with its high mass-resolution and good particle-identification capability, is well equipped to study the azimuthal flow pattern not only for protons, deuterons, and tritons but also for charged pions, kaons, the φ-mesons, electrons/positrons, as well as light nuclei like helions and alphas. The high statistics of more than seven billion Au-Au collisions recorded in April/May 2012 with HADES enables for the first time the measurement of higher order flow coefficients up to the 6th harmonic. Since the Fourier coefficient of 7th and 8th order are beyond the statistical significance only an upper bound is given. The Au+Au collision system is the largest reaction system with the highest particle multiplicities, which was measured so far with HADES. A dedicated correction method for the flow measurement had to be developed to cope with the reconstruction in-efficiencies due to occupancies of the detector system. The systematical bias of the flow measurement is studied and several sources of uncertainties identified, which mainly arise from the quality selection criteria applied to the analyzed tracks, the correction procedure for reconstruction inefficiencies, the procedures for particle identification (PID) and the effects of an azimuthally non-uniform detector acceptance. The systematic point-to-point uncertainties are determined separately for each particle type (proton, deuteron and triton), the order of the flow harmonics vn, and the centrality class. Further, the validity of the results is inspected in the range of their evaluated systematic uncertainties with several consistency checks. In order to enable meaningful comparisons between experimental observations and predictions of theoretical models, the classification of events should be well defined and in sufficiently narrow intervals of impact parameter. Part of this work included the implementation of the procedure to determine the centrality and orientation of the reaction.
In the conclusion the experimental results are discussed, including various scaling properties of the flow harmonics. It is found that the ratio v4/v2 for protons and light nuclei (deuterons and tritons) at midrapidity for all centrality classes approaches values close to 0.5 at high transverse momenta, which was suggested to be indicative for an ideal hydrodynamic behaviour. A remarkable scaling is observed in the pt dependence of v2 (v4) at mid-rapidity of the three hydrogen isotopes, when dividing by their nuclear mass number A (A^2) and pt by A. This is consistent with naive expectations from nucleon coalescence, butraises the question whether this mass ordering can also be explained by a hydrodynamical-inspired approach, like the blast-wave model. The relation of v2 and v4 to the shape of the initial eccentricity of the collision system is studied. It is found that v2 is independent of centrality for all three particle species after dividing it by the averaged second order participant eccentricity v2/⟨ε2⟩. A similar scaling is shown for v4 after division by ⟨ε2⟩^2.
The strong force is one of the four fundamental interactions, and the theory of it is called Quantum Chromodynamics (QCD). A many-body system of strongly interacting particles (QCD matter) can exist in different phases depending on temperature (T) and baryonic chemical potential (µB). The phases and transitions between them can be visualized as µB−T phase diagram. Extraction of the properties of the QCD matter, such as compressibility, viscosity and various susceptibilities, and its Equation of State (EoS) is an important aspect of the QCD matter study. In the region of near-zero baryonic chemical potential and low temperatures the QCD matter degrees of freedom are hadrons, in which quarks and gluons are confined, while at higher temperatures partonic (quarks and gluons) degrees of freedom dominate. This partonic (deconfined) state is called quark-gluon plasma (QGP) and is intensively studied at CERN and BNL. According to lattice QCD calculations at µB=0 the transition to QGP is smooth (cross-over) and takes place at T≈156 MeV. The region of the QCD phase diagram, where matter is compressed to densities of a few times normal nuclear density (µB of several hundreds MeV), is not accessible for the current lattice QCD calculations, and is a subject of intensive research. Some phenomenological models predict a first order phase transition between hadronic and partonic phases in the region of T≲100 MeV and µB≳500 MeV. Search for signs of a possible phase transition and a critical point or clarifying whether the smooth cross-over is continuing in this region are the main goals of the near future explorations of the QCD phase diagram.
In the laboratory a scan of the QCD phase diagram can be performed via heavy-ion collisions. The region of the QCD phase diagram at T≳150 MeV and µB≈0 is accessible in collisions at LHC energies (√sNN of several TeV), while the region of T≲100 MeV and µB≳500 MeV can be studied with collisions at √sNN of a few GeV. The QCD matter created in the overlap region of colliding nuclei (fireball) is rapidly expanding during the collision evolution. In the fireball there are strong temperature and pressure gradients, extreme electromagnetic fields and an exchange of angular momentum and spin between the system constituents. These effects result in various collective phenomena. Pressure gradients and the scattering of particles, together with the initial spatial anisotropy of the density distribution in the fireball, form an anisotropic flow - a momentum (azimuthal) anisotropy in the emission of produced particles. The correlation of particle spin with the angular momentum of colliding nuclei leads to a global polarization of particles. A strong initial magnetic field in the fireball results in a charge dependence and particle-antiparticle difference of flow and polarization.
Anisotropic flow is quantified by the coefficients vₙ from a Fourier decomposition of the azimuthal angle distribution of emitted particles relative to the reaction plane spanned by beam axis and impact parameter direction. The first harmonic coefficient v₁ quantifies the directed flow - preferential particle emission either along or opposite to the impact parameter direction. The v₁ is driven by pressure gradients in the fireball and thus probes the compressibility of the QCD matter. The change of the sign of v₁ at √sNN of several GeV is attributed to a softening of the EoS during the expansion, and thus can be an evidence of the first order phase transition. The global polarization coefficient PH is an average value of the hyperon’s spin projection on the direction of the angular momentum of the colliding system. It probes the dynamics of the QCD matter, such as vorticity, and can shed light on the mechanism of orbital momentum transfer into the spin of produced particles.
In collisions at √sNN of several GeV, which probe the region of the QCD phase diagram at T≲100 MeV and µB≳500 MeV, hadron production is dominated by u and d quarks. Hadrons with strange quarks are produced near the threshold, what makes their yields and dynamics sensitive to the density of the fireball. Thus measurement of flow and polarization, in particular of (multi-)strange particles, provides experimental constraints on the EoS, that allows to extract transport coefficients of the QCD matter from comparison of data with theoretical model calculations of heavy-ion collisions.
For continuation of the annotation see the PDF of thesis
In this work we study the non-equilibrium dynamics of a quark-gluon plasma, as created in heavy-ion collisions. We investigate how big of a role plasma instabilities can play in the isotropization and equilibration of a quark-gluon plasma. In particular, we determine, among other things, how much collisions between the particles can reduce the growth rate of unstable modes. This is done both in a model calculation using the hard-loop approximation, as well as in a real-time lattice simulation combining both classical Yang-Mills-fields as well as inter-particle collisions. The new extended version of the simulation is also used to investigate jet transport in isotropic media, leading to a cutoff-independent result for the transport coefficient $hat{q}$. The precise determination of such transport coefficients is essential, since they can provide important information about the medium created in heavy-ion collisions. In anisotropic media, the effect of instabilities on jet transport is studied, leading to a possible explanation for the experimental observation that high-energy jets traversing the plasma perpendicular to the beam axis experience much stronger broadening in rapidity than in azimuth. The investigation of collective modes in the hard-loop limit is extended to fermionic modes, which are shown to be all stable. Finally, we study the possibility of using high energy photon production as a tool to experimentally determine the anisotropy of the created system. Knowledge of the degree of local momentum-space anisotropy reached in a heavy-ion collision is essential for the study of instabilities and their role for isotropization and thermalization, because their growth rate depends strongly on the anisotropy.
ALICE (A Large Ion Collider Experiment), is the dedicated heavy-ion experiment at the Large Hadron Collider (LHC) at CERN. It is optimised to reconstruct and identify the particles created in a lead-lead collision with a centre of mass energy of 5.5TeV. The main tracking detector is a large-volume time-projection chamber (TPC). With an active volume of about 88m^3 and a total readout area of 32.5m^2 it is the most challenging TPC ever build. A central electrode divides the 5m long detector into two drift regions. Each readout side is subdivided into 18 inner and 18 outer multi-wire proportional read-out chambers. The readout area is subdivide into 557568 pads, where each pad is read out by and electronics chanin. A complex calibration is needed in order to reach the design position-resolution of the reconstructed particle tracks of about 200um. One part of the calibration lies in understanding the electronic-response. The work at hand presents results of the pedestal and noise behaviour of the front-end electronics (FEE), measurements of the pulse-shaping properties of the FEE using results obtained with a calibration pulser and measurements performed with the laser-calibration system. The data concerned were taken during two phases of the TPC commissioning. First measurements were performed in the clean room where the TPC was built. After the TPC was moved underground and built into the experiment, a second round of commissioning took place. Noise measurements in the clean room revealed a very large fraction of pads with noise values larger than the design specifications. The unexpected high noise values could be explained by the 'ground bounce' effect. Two modifications helped to reduce this effect: A desynchronisation in the the start of the readout of groups of channels and a modification in the grounding scheme of the FEE. Further noise measurements were carried out after the TPC has been moved to the experimental area underground. Here even a larger fraction of channels showed too large noise values. This could be traced back to a common mode current injected by the electronics power supplies. To study the shaping properties of the FEE a calibration pulser was used. To generate signals in the FEE a pulse is injected to the cathode wires of the read-out chambers. Due to manufacturing tolerances slight channel-by-channel variations of the shaping properties are expected. This effects the determination of the arrival time as well as the measured integral signal of the induced charge and has to be corrected. The measured arrival time variations follow a Gaussian distribution with a width (sigma) of 6.2ns. This corresponds to an error of the cluster position of about 170um. The charge variations are on the level of 2.8%. In order to reach the intrinsic resolution on the measurement of the specific energy loss of the particles (6%) those variations have to be taken into account. The photons of the laser-calibration system are energetic enough to emit photo electrons off metallic surfaces. Most interesting for the detector calibration are photo electrons from the central electrode. The laser light is intense enough to get a signal in all readout channels of the TPC. Since the central electrode is a smooth surface, differences in the arrival time between sectors reveal mechanical displacements of the readout sectors and can be used to correct for this effect. In addition the measurements can be used to determine the electron drift velocity in the TPC gas. The drift velocity measurements have shown a vertical as well as a radial gradient. The first can be explained by the temperature gradient, which naturally builds up in the 5m high detector. The second gradient is most probably caused by a relative conical deformation of the readout plane and the central electrode.
A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma.
Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions.
The produced data volume can reach up to 26 GByte/s for central Pb–Pb
collisions at design luminosity of L = 1027 cm−2 s−1 , challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment.
The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers.
Different approaches are possible when it comes to modeling the brain. Given its biological nature, models can be constructed out of the chemical and biological building blocks known to be at play in the brain, formulating a given mechanism in terms of the basic interactions underlying it. On the other hand, the functions of the brain can be described in a more general or macroscopic way, in terms of desirable goals. This goals may include reducing metabolic costs, being stable or robust, or being efficient in computational terms. Synaptic plasticity, that is, the study of how the connections between neurons evolve in time, is no exception to this. In the following work we formulate (and study the properties of) synaptic plasticity models, employing two complementary approaches: a top-down approach, deriving a learning rule from a guiding principle for rate-encoding neurons, and a bottom-up approach, where a simple yet biophysical rule for time-dependent plasticity is constructed.
We begin this thesis with a general overview, in Chapter 1, of the properties of neurons and their connections, clarifying notations and the jargon of the field. These will be our building blocks and will also determine the constrains we need to respect when formulating our models. We will discuss the present challenges of computational neuroscience, as well as the role of physicists in this line of research.
In Chapters 2 and 3, we develop and study a local online Hebbian self-limiting synaptic plasticity rule, employing the mentioned top-down approach. Firstly, in Chapter 2 we formulate the stationarity principle of statistical learning, in terms of the Fisher information of the output probability distribution with respect to the synaptic weights. To ensure that the learning rules are formulated in terms of information locally available to a synapse, we employ the local synapse extension to the one dimensional Fisher information. Once the objective function has been defined, we derive an online synaptic plasticity rule via stochastic gradient descent.
In order to test the computational capabilities of a neuron evolving according to this rule (combined with a preexisting intrinsic plasticity rule), we perform a series of numerical experiments, training the neuron with different input distributions.
We observe that, for input distributions closely resembling a multivariate normal distribution, the neuron robustly selects the first principal component of the distribution, showing otherwise a strong preference for directions of large negative excess kurtosis.
In Chapter 3 we study the robustness of the learning rule derived in Chapter 2 with respect to variations in the neural model’s transfer function. In particular, we find an equivalent cubic form of the rule which, given its functional simplicity, permits to analytically compute the attractors (stationary solutions) of the learning procedure, as a function of the statistical moments of the input distribution. In this way, we manage to explain the numerical findings of Chapter 2 analytically, and formulate a prediction: if the neuron is selective to non-Gaussian input directions, it should be suitable for applications to independent component analysis. We close this section by showing how indeed, a neuron operating under these rules can learn the independent components in the non-linear bars problem.
A simple biophysical model for time-dependent plasticity (STDP) is developed in Chapter 4. The model is formulated in terms of two decaying traces present in the synapse, namely the fraction of activated NMDA receptors and the calcium concentration, which serve as clocks, measuring the time of pre- and postsynaptic spikes. While constructed in terms of the key biological elements thought to be involved in the process, we have kept the functional dependencies of the variables as simple as possible to allow for analytic tractability. Despite its simplicity, the model is able to reproduce several experimental results, including the typical pairwise STDP curve and triplet results, in both hippocampal culture and layer 2/3 cortical neurons. Thanks to the model’s functional simplicity, we are able to compute these results analytically, establishing a direct and transparent connection between the model’s internal parameters and the qualitative features of the results.
Finally, in order to make a connection to synaptic plasticity for rate encoding neural models, we train the synapse with Poisson uncorrelated pre- and postsynaptic spike trains and compute the expected synaptic weight change as a function of the frequencies of these spike trains. Interestingly, a Hebbian (in the rate encoding sense of the word) BCM-like behavior is recovered in this setup for hippocampal neurons, while dominating depression seems unavoidable for parameter configurations reproducing experimentally observed triplet nonlinearities in layer 2/3 cortical neurons. Potentiation can however be recovered in these neurons when correlations between pre- and postsynaptic spikes are present. We end this chapter by discussing the relation to existing experimental results, leaving open questions and predictions for future experiments.
A set of summary cards of the models employed, together with listings of the relevant variables and parameters, are presented at the end of the thesis, for easier access and permanent reference for the reader.
Zahlreiche physikalische Prozesse, wie Bremsstrahlung, Synchrotronstrahlung oder Radiative Rekombination verursachen die Emission linear hochpolarisierter Röntgenstrahlung. Dennoch wird technisch nutzbare hochpolarisierte Röntgenstrahlung derzeit fast ausschließlich von einigen wenigen hochspezialisierten Synchrotronlichtquellen oder Freie Elektronen Lasern zur Verfügung gestellt. In der vorliegenden Arbeit wurde der Radiative Einfang in die K-Schale von nacktem Xenon verwendet, um erstmals eine Quelle einstellbarer, monoenergetischer sowie hochpolarisierter Röntgenstrahlung (97%) in einer Speicherringumgebung zu realisieren. Zum Nachweis der Polarisation der Strahlung wurde erstmals auch ein neuartiger orts-, zeit- und energieauflösender Si(Li) Streifendetektor als Röntgenpolarimeter eingesetzt, mit dem die Beschränkungen traditioneller Compton - Polarimeter umgangen werden können. Der gemessene Grad hoher linearer Polarisation, der mit den Vorhersagen durch die Theorie übereinstimmt, ist durchaus bemerkenswert, da die hochpolarisierte Röntgensstrahlung in einem Stoßprozess zwischen einem unpolarisierten Ionenstrahl und einem unpolarisierten Gasjet zustande kam. Dies bedeutet, dass der Radiative Elektroneneinfang ein ideales Werkzeug darstellt, um hochpolarisierte, energetisch frei wählbare Röntgenstrahlung in einer Speicherringumgebung zu erzeugen. Die Entwicklung der neuen 2D Detektortechnologie eröffnet auch Möglichkeiten zur experimentellen Untersuchung der Details atomphysikalischer Vorgänge. So konnte im Rahmen dieser Arbeit durch die Kombination des verwendeten Detektors und der Beschleunigereinrichtung der GSI erstmals experimentell die lineare Polarisation der Strahlung des Radiativen Elektroneneinfangs in die energetisch partiell aufgelösten L-Unterschalen von nacktem Uran bestimmt werden. Zudem wurden neue und präzisere Werte für die Polarisation der Einfangstrahlung in die K-Schalen von nacktem und wasserstoffähnlichem Uran gemessen. Die theoretischen Vorhersagen zeigten eine starke Sensitivität von Messungen linearer Polarisation der bei dem Radiativen Elektroneneinfang emittierten Strahlung auf den Einfluss der insbesondere bei Schwerionen - Atom - Stößen zu berücksichtigenden höheren Ordnungen der Multipolentwicklung. Während die Effekte bei der Messung von Winkelverteilungen des Radiativen Elektroneneinfangs gerade bei den kleineren Winkeln im Bezug auf die Ionenstrahlachse im Laborsystem vergleichsweise gering ausfallen, ist hier ein sehr ausgeprägter Effekt der Depolarisation zu beobachten. Hier liegt der wesentliche Unterschied zwischen den in dieser Arbeit vorgestellten Messungen der linearen Polarisation der Strahlung des Radiativen Einfangs in Xenon sowie in Uran. Das Auftreten der starken Depolarisation veranschaulicht die starke Abhängigkeit der Polarisationscharakteristik des REC-Prozesses von der Kernladungszahl des Projektils. Abschließend sei der Schritt zu der erstmals für diese Arbeit verwendeten Messtechnik mit einem hochaufgelösten Streifendetektor hervorgehoben. Im Gegensatz zu früheren Polarisationsmessungen mit grob dimensionierten Pixeldetektoren waren zu der Gewinnung der hier vorgestellten Messungen praktisch keinerlei zusätzliche Annahmen oder Simulationen zu der Interpretation der gewonnenen Winkelverteilungen notwendig. So konnte mit dem System bereits während des Experimentes eine erste Abschätzung der linearen Polarisation der beobachteten Strahlung durchgeführt werden. Diese Tatsache wird es in naher Zukunft ermöglichen, das für die niederenergetische Röntgenstrahlung weitgehend neue ”Fenster” polarimetrischer Messungen für weitere atomphysikalische Prozesse zu öffnen.
Nanomaterials, i.e., materials that are manufactured at a very small spatial scale, can possess unique physical and chemical properties and exhibit novel characteristics as compared to the same material without nanoscale features. The reduction of size down to the nanometer scale leads to the abundance of potential applications in different fields of technology. For instance, tailoring the physicochemical properties of nanomaterials for modification of their interaction with a biological environment has been reflected in a number of biomedical applications.
Strategies to choose the size and the composition of nanoscale systems are often hindered by a limited understanding of interactions that are difficult to study experimentally. However, this goal can be achieved by means of advanced computer simulations. This thesis explores, from a theoretical and a computational viewpoints, stability, electronic and thermo-mechanical properties of nanoscale systems and materials which are related to biomedical applications.
We examine the ability of existing classical interatomic potentials to reproduce stability and thermo-mechanical properties of metal systems, assuming that these potentials have been fitted to describe ground-state properties of the perfect bulk materials.
It is found that existing classical interatomic potentials poorly describe highly-excited vibrational states when the system is far from the potential energy minimum. On the other hand, construction of a reliable computational model is essential for further development of nanomaterials for applications. A new interatomic potential that is able to correctly reproduce both the melting temperature and the ground-state properties of different metals, such as gold, platinum, titanium, and magnesium, by means of classical molecular dynamics simulations is proposed in this work. The suggested modification of a many-body potential has a general nature and can be utilized for similar numerical exploration of thermo-mechanical properties of a broad range of molecular and solid state systems experiencing phase transitions.
The applicability of the classical interatomic potentials to the description of nanoscale systems, consisting of several tens-hundreds of atoms, is also explored in this study. This issue is important, for instance, in the case of nanostructured materials, where grains or nanocrystals have a typical size of about a few nanometers. We validate classical potentials through the comparison with density-functional theory calculations of small
atomic clusters made of titanium and nickel. By this analysis, we demonstrate that the classical potentials fitted to describe ground-state properties of a bulk material can describe the energetics of nanoscale systems with a reasonable accuracy.
In this work, we also analyze electronic properties of nanometer-size nanoparticles made of gold, platinum, silver, and gadolinium; nanoparticles composed of these materials are of current interest for radiation therapy applications. We focus on the production of low-energy electrons, having the kinetic energy from a few electronvolts to several tens of electronvolts. It is currently established that the low-energy secondary electrons of such energies play an important role in the nanoscale mechanisms of biological damage resulting from ionizing radiation. We provide a methodology for analyzing the dynamic response of nanoparticles of the experimentally relevant sizes, namely of about several nanometers, exposed to ionizing radiation. Because of a large number of constituent atoms (about 1000 −10000 atoms) and consequently high computational costs, the electronic properties of such systems can hardly be described by means of ab initio methods based on a quantum-mechanical treatment of electrons, and this analysis should rely on model approaches. By comparing the response of smaller systems (of about 1 nm size) calculated within the ab initio- and the model framework, we validate this methodology and make predictions for the electron production in larger systems.
We have revealed that a significant increase in the number of the low-energy electrons emitted from nanometer-size noble metal nanoparticles arises from collective electron excitations formed in the systems. It is demonstrated that the dominating mechanisms of electron yield enhancement are related to the formation of plasmons excited in a whole system and of atomic giant resonances formed due to excitation of valence d electrons in individual atoms of a nanoparticle. Being embedded in a biological medium, the noble metal nanoparticles thus represent an important source of low-energy electrons, able to produce a significant irrepairable damage in biological systems.
A general methodology for studying electronic properties of nanosystems is used to make quantitative predictions for electron production by non-metal nanoparticles. The analysis illustrates that due to a prominent collective response to an external electric field, carbon nanoparticles embedded in a biological medium also enhance the production of low-energy electrons. The number of low-energy electrons emitted from carbon nanoparticles is demonstrated to be several times higher as compared to the case of liquid water.
The equation of state (EoS) of matter at extremely high temperatures and densities is currently not fully understood, and remains a major challenge in the field of nuclear physics. Neutron stars harbor such extreme conditions and therefore serve as celestial laboratories for constraining the dense matter EoS. In this thesis, we present a novel algorithm that utilizes the idea of Bayesian analysis and the computational efficiency of neural networks to reconstruct the dense matter equation of state from mass-radius observations of neutron stars. We show that the results are compatible with those from earlier works based on conventional methods, and are in agreement with the limits on tidal deformabilities obtained from the gravitational wave event, GW170817. We also observe that the resulting squared speed of sound from the reconstructed EoS features a peak, indicating a likely convergence to the conformal limit at asymptotic densities, as expected from quantum chromodynamics. The novel algorithm can also be applied across various fields faced with computational challenges in solving inverse problems. We further examine the efficiency of deep learning methods for analyzing gravitational waves from compact binary coalescences in this thesis. In particular, we develop a deep learning classifier to segregate simulated gravitational wave data into three classes: signals from binary black hole mergers, signals from binary neutron star mergers, or white noise without any signals. A second deep learning algorithm allows for the regression of chirp mass and combined tidal deformability from simulated binary neutron star mergers. An accurate estimation of these parameters is crucial to constrain the underlying EoS. Lastly, we explore the effects of finite temperatures on the binary neutron star merger remnant from GW170817. Isentropic EoSs are used to infer the frequencies of the rigidly rotating remnant and are noted to be significantly lower compared to previous estimates from zero temperature EoSs. Overall, this thesis presents novel deep learning methods to constrain the neutron star EoS, which will prove useful in future, as more observational data is expected in the upcoming years.
Construction and commissioning of a setup to study ageing phenomena in high rate gas detectors
(2014)
In high-rate heavy-ion experiments, gaseous detectors encounter big challenges in terms of degradation of their performance due to a phenomenon dubbed ageing. In this thesis, a setup for high precision ageing studies has been constructed and commissioned at the GSI detector laboratory. The main objective is the study of ageing phenomena evoked by materials used to build gaseous detectors for the Compressed Baryonic Matter (CBM) experiment at the future Facility for Antiproton and Ion Research (FAIR).
The precision of the measurement, e.g., of the gain of a gaseous detector, is a key element in ageing studies: it allows to perform the measurement at realistic rates in an acceptable time span. It is well known the accelerating ageing employing high intensity sources might produce misleading results. The primary objective is to build an apparatus which allows very accurate measurements and is thus sensitive to minute degradations in detector performance. The construction and commissioning of the
setup has been carried out in two steps. During the first step of this work, a simpler setup which already existed in the detector laboratory of GSI had been utilised to define all conditions related to ageing studies. The outcome of these studies defined the properties and characteristics that must be met to build and operate a new, sophisticated and precise setup. The already existing setup consisted of two identical Multi Wire Proportional Chambers (MWPCs), a gas mixing station, an 55Fe source, an x-ray generator, an outgassing box and stainless steel tubing. In a first step, the gain and electric field configuration of the MWPCs were simulated by a combination of a gas simulation (Magboltz) and electric field simulation program (Garfield). The performance and operating conditions of the chambers have been thoroughly characterised before utilising them in first preparatory ageing test. The main diagnostic parameter in ageing studies is the detector gain, thus it is mandatory for precise ageing studies to minimise the systematic and statistical variation of the pressure and temperature corrected gain. To achieve the required accuracy, several improvements of the chamber design and the gas system have been implemented. In addition, the temperature measurement has been optimised. During the preparatory tests, several ageing studies have been carried out. The ageing effect of seven materials and gases have been carried out during these tests: RTV-3145, Ar/CO2 gas, Durostone flushed with Ar/Isobutane gas, Vetronit G11, Vetronit G11 contaminated with Micro 3000 and Gerband 705. The results of these studies went into the design of the new sophisticated ageing setup. For example some tests revealed that there was, even after cleaning, a certain level of contamination with "ageing agents" in the existing setup, which made it imperative to ensure a very high level cleanness of all components during the construction of the setup. The curing period of some testing samples like glues or the gas flow rate were found to be very important factors that must be taken into account to obtain comparable results. Very important changes in the chamber design have been made, i.e., the aluminium-Kapton cathodes used in MWPCs have been replaced with multi-wire planes and the fibreglass housing of the chamber has been changed to metal. The second step started with building the new setup which was designed based on the findings from the first step. The new ageing setup consists of three MWPCs, two moving platforms, an 55Fe source, a copper-anode x-ray generator, two outgassing boxes, both flexible and rigid stainless steel tubes. Before fabrication of the chambers, simulations of their electric field and the gain have been done using Magboltz and Garfield programs. After that, the chambers were installed and tested. A 0.3% peak-to-peak residual variation of the corrected gain has been achieved. Finally, the complete setup has been operated with full functionality in no-ageing conditions during one week. This test revealed very stable gain in all three chambers. After that two materials (Gerban 705 and RTV-3145) have been inserted in the two outgassing boxes and tested. They revealed an ageing rate of about 0.3%/mC/cm and 3%/mC/cm respectively. The final test proves the stability and accuracy of the ageing measurements carried out with the ageing setup at the detector laboratory at GSI which is ready to conduct the envisaged systematic ageing studies.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
The subject of this thesis aimed at a better understanding of the spectacular X-ray burst. The most likely astrophysical site is a very dense neutron star, which accretes H/He-rich matter from a close companion. While falling towards the neutron star, the matter is heated up and a thermonuclear runaway is ignited. The exact description of this process is dominated by the properties of a few proton-rich radioactive isotopes, which have a low interaction probability, hence a high abundance.
The topic of this thesis was therefore an investigation of the short-lived, proton-rich isotopes 31Cl and 32Ar. The Coulomb dissociation method is the modern technique of choice. Excitations with energies up to 20 MeV can be induced by the Lorentz contracted Coulomb field of a lead target. At the GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt, Germany, a Ar beam was accelerated to an energy of 825 AMeV and fragmented in a beryllium target. The fragment separator was used to select the desired isotopes with a remaining energy of 650 AMeV. They were subsequently directed onto a 208 Pb target in the ALAND/LAND setup. The measurement was performed in inverse kinematics. All reaction products were detected and inclusive and exclusive measurements of the respective Coulomb dissociation cross sections were possible.
During the analysis of the experiment, it was possible to extract the energy-differential excitation spectrum of 31Cl, and to constrain astrophysically important parameters for the time-reversed 30S(p,γ)31Cl reaction. A single resonance at 0.443(37) MeV dominates the stellar reaction rate, which was also deduced and compared to previous calculations.
The integrated Coulomb dissociation cross section of this resonance was determined to 15(6) mb. The astrophysically important one- and two-proton emission channels were analyzed for 32Ar and energy-differential excitation spectra could be derived. The integrated Coulomb dissociation cross section for two proton emission were determined with two different techniques. The inclusive measurement yields a cross section of 214(29stat)(20sys) mb, whereas the exclusive reconstruction results in a cross section of 226(14stat)(23sys) mb. Both results are in very good agreement. The Coulomb dissociation cross section for the one-proton emission channel is extracted solely from the exclusive measurement and is 54(8stat)(6sys) mb.
Furthermore, the development of the Low Energy Neutron detector Array (LENA) for the upcoming R3B setup is described. The detector will be utilized in charge-exchange reactions to detect the low-energy recoil neutrons from (p,n)-type reactions. These reaction studies are of particular importance in the astrophysical context and can be used to constrain half lifes under stellar conditions. In the frame of this work, prototypes of the detector were built and successfully commissioned in several international laboratories.
The analysis was supported by detailed simulations of the detection characteristics.
Within the present work, photodissociation reactions on 100Mo, 93Mo and 92Mo isotopes were studied by means of the Coulomb dissociation method at the LAND setup at GSI. Experimental data on these isotopes are important to explain the problem of the underproduction of the lighter p-nuclei - 92; 94Mo - within the models of the p-process nucleosynthesis. The reaction rates used in the nucleosynthesis calculations are usually obtained within the framework of the statistical model. In order to verify the model predictions and reduce the uncertainties, experimental measurements of the reaction cross sections are required. In particular, the data on (γ,n) reactions are of interest, since these reactions were shown to dominate the p-process flow in the molybdenum mass region.
As a result of the analysis of the present experiment, integrated Coulomb excitation cross sections of the 100Mo(γ,n), 100Mo(γ,2n), 93Mo(γ,n) and 92Mo(γ,n) reactions were determined. The measurement of the 93Mo isotope is particularly important, since this nucleus is unstable, and the corresponding cross section has not been measured before.
It should be emphasized that Coulomb dissociation is a unique tool to study photoninduced reactions on unstable nuclei, which is especially relevant in the context of nucleosynthesis network calculations. However, because of to the complexity of the data analysis procedure and a number of model assumptions that are required in order to extract the Coulomb excitation cross section from the data, one of the main aspects of this thesis was to verify the method by comparing the results with the previously published data obtained with real photon beams. Integrated cross sections of the 100Mo(γ,n) and 100Mo(γ,2n) reactions were directly compared to the data by Beil et al., obtained at Saclay with photons from positron annihilation, while an indirect comparison could be performed with a recent photoactivation measurement by Erhard and co-workers. A reasonable agreement was observed for the 1n channel: a scaling factor of 0.8 ± 0.1 between our result and Beil et al. data is consistent with the scaling factor of 0.89±0.09 reported by Erhard et al. between their data and Beil et al. data. Both results are in agreement with the scaling factor of 0.85 ± 0.03 recommended by Berman et al. for the data measured at Saclay on nuclei in the respective mass region. A somewhat lower factor of 0.61 ± 0.09 between the present data and Beil et al. data was obtained for the 2n channel. The discrepancy might be explained by both the substantial efficiency correction that has to be applied to the LAND data in the two-neutron case, as well as by an insufficiently accurate assumption that the Saclay neutron detector efficiency is energy- and multiplicity- independent.
A second important topic of the present thesis is the investigation of the efficiency of the CsI gamma detector. The calorimetric information that it delivers is essential to reconstruct the energy-differential cross section from the present measurement. The data taken with the gamma calibration sources shortly after the experiment were used for the investigation. In addition, a test experiment in refined conditions was conducted within the framework of this thesis. Numerous GEANT3 simulations of the detector were performed in order to understand various aspects of its performance. As a result, the efficiency of the detector was determined to be approximately a factor of 2 lower than the efficiency expected from the simulation. This result is consistent with several independent investigations, which were performed using different methods. At the same time, a remarkable agreement between the simulated and experimental data was achieved under assumption that the inefficiency of the detector is explained by the loss of data from a number of crystals, which are randomly chosen in each event according to their averaged performance ratio (the ”on-off” effect). The reasons for the observed malfunction are yet not fully clear. Regardless of the exact reason, in the present conditions a deconvolution of the measured data from the CsI response is not possible. Consequently, within the framework of this thesis, the results are presented in terms of integrated cross sections. A search for alternative methods of data interpretation, allowing to extract energy-differential information out of the available data, in currently ongoing.
In the more recent experiments at the LAND setup, where the Crystal Ball gamma detector was used as a calorimeter, the reconstruction of the energy-differential cross section with a reasonable resolution was already shown to be feasible. It means that, even considering the uncertainties of the present experiment of the order of 10%, the uncertainties of the statistical model predictions, which are on average estimated to be within a factor of 1.5-2, can already be constrained.
The analysis of the present experiment is still in progress. As a next step, Coulomb excitation cross section for 94Mo will be obtained. The 94Mo(γ,n) reaction cannot be studied by photoactivation, since the life time of the daughter nucleus is too long (4000 y). At the same time, this reaction plays a key role in the p-process nucleosynthesis.
The future of the LAND setup - the R3B setup1 at FAIR2 - will take advantage of a three orders of magnitude higher intensity of the radioactive beams [85], as well as of a completely new detector system. High-resolution measurements of the energy-differential cross sections will be possible for exotic nuclei, which were never accessible in the laboratory before. Such measurements will open great opportunities for nuclear astrophysics, allowing to obtain high-quality experimental data even for regions of the nuclear chart where the statistical model calculations are not applicable.
The planned Facility for Antiproton and Ion Research (FAIR) at GSI has to cope with a wide range of beam intensities in its high-energy beam transport systems and in the storage rings. To meet the requirements of a non-intercepting intensity measurement down to nA range, it is planned to install a number of Cryogenic Current Comparator (CCC) units at different locations in the FAIR beamlines. In this work, the first CCC system for intensity measurement of heavy ion beams, which was developed at GSI, was re-commissioned and upgraded to be used as a 'GSI - CCC prototype' for extensive optimization and development of an improved CCC for FAIR. After installation of a new SQUID sensor and related electronics, as well as implementation of improved data acquisition components, successful beam current measurements were performed at a SIS18 extraction line. The measured intensity values were compared with those of a Secondary Electron Monitor (SEM). Furthermore, the spill-structure of a slowly extracted beam was measured and analyzed, investigating its improvement due to bunching during the slow-extraction process. Due to the extreme sensitivity of the superconducting sensor, the determined intensity values as well as the adjustment of the system for optimal performance are strongly influenced by the numerous noise sources of the accelerators environment. For this reason, detailed studies of different effects caused by noise have been carried out, which are presented together with proposals to reduce them. Similarly, studies were performed to increase the dynamic range and overcome slew rate limitations, the results of which are illustrated and discussed as well. By combining the various optimizations and characterizations of the GSI CCC prototype with the experiences made during beam operation, criteria for a more efficient CCC System could be worked out, which are presented in this work. The details of this new design are worked out with respect to the corresponding boundary conditions at FAIR. Larger beam tube diameters, higher radiation resistivity and UHV requirements are of particular importance for the cryostat. At the same time these parameters affect the CCC superconducting magnetic shielding, which again has significant influence on the current resolution of the system. In order to investigate the influence of the geometry of the superconducting magnetic shield on different magnetic field components and to optimize the attenuation, FEM simulations have been performed. Based on the results of these calculations, modifications of the shield geometry for optimum damping behavior are proposed and discussed in the thesis.
Crystal growth and characterization of cerium- and ytterbium-based quantum critical materials
(2018)
In der Festkörperphysik werden heutzutage Themen wie Supraleitung, Magnetismus und Quantenkritikalität sowohl von experimenteller als auch von theoretischer Seite stark untersucht. Quantenkritikalität und Quantenphasenübergänge können in Systemen erforscht werden, für welche ein Kontroll Parameter existiert, durch den z.B. eine magnetische Ordnung soweit unterdrückt wird, bis der Phasenübergang bei Null Kelvin, bei einem quantenkritischen Punkt (QCP), stattfindet. Vorzugsweise wird quantenkritisches Verhalten an Einkristallen untersucht, da diese in sehr reiner Qualität gezüchtet werden können und da deren gemessenen physikalischen Eigenschaften ausschließlich intrinsisch sind und nicht durch Verunreinigungseffekte überlagert werden. Der Schwerpunkt dieser Arbeit lag auf der Züchtung von Einkristallen und der Charakterisierung von Materialien, die quantenkritische Phänomene aufweisen. Als Ausgangsstoffe dienten dabei Elemente höchstmöglicher Reinheit. Es wurden die Serie YbNi4(P1-xAsx)2 mit einem ferromagnetischen QCP bei x=0,1, die Verbindung YbRh2Si2 mit einem feldinduzierten QCP bei Bcrit = 60mT und die Serie Ce(Ru1-xFex)PO mit einem QCP bei x = 0,86 untersucht. Für alle Verbindungen wurde das Züchtungsverfahren entwickelt, dann wurden Einkristalle gezüchtet und charakterisiert. Die Züchtung wurde zum einen mittels der Bridgman-Methode, zum anderen mit der Czochralski Methode durchgeführt. Neben struktureller und chemischer Charakterisierung der Einkristalle mittels Röntgen-Pulverdiffraktometrie, Laue-Methode und Energie-dispersiver Röntgen-Spektroskopie, wurden auch deren spezifische Wärme, elektrischer Widerstand und Magnetisierung im Temperaturbereich 1,8 – 300 K untersucht. Im weiteren Verlauf wurden die Kristalle in verschiedenen Kooperationen untersucht und bis in den Tieftemperatur- Bereich (20 mK), bei YbRh2Si2 bis in den Submillikelvin-Bereich, charakterisiert. Ausserdem wurden im Rahmen dieser Dissertation Einkristalle weiterer antiferromagnetischer Verbindungen SmRh2Si2, GdRh2Si2, GdIr2Si2, HoRh2Si2 und HoIr2Si2 gezüchtet. Bei diesen Verbindungen stand die Untersuchung elektronischer Oberflächenzustände mittels winkelaufgelöster Photoemissionsspektroskopie im Vordergrund.
Ziel der vorliegenden Arbeit war die Untersuchung der elektrochemischen und spektroskopischen Eigenschaften der bc1-Komplexe aus dem Bodenbakterium Paracoccus denitrificans und der Hefe Saccharomyces cerevisiae im sichtbaren und infraroten Spektralbereich. Das redoxaktive Protein ist Bestandteil der Atmungskette und trägt entscheidend zum Aufbau eines Protonengradienten bei, der zur Bildung des universellen Energieträgers ATP genutzt wird. Der bakterielle P. denitrificans-Komplex besteht aus den drei katalytischen Untereinheiten Cytochrom b, Cytochrom c1 und Rieske-Protein. Der mitochondriale Hefe-bc1-Komplex besitzt neben diesen drei noch acht weitere Untereinheiten, die anscheinend für die Stabilität des Enzyms bedeutsam sind. Um Konformationsänderungen des Proteins infolge von Elektronen- und daran gekoppelten Protonentransferreaktionen zu dokumentieren, wurde der Komplex elektrochemisch in definierte Redoxzustände versetzt. Aus den in diesen Zuständen aufgenommenen Absorptionsspektren berechnen sich Differenzspektren, deren Banden auf die Redoxreaktion zurückzuführende Veränderungen im Protein widerspiegeln. Durch Vergleiche mit Modellspektren isolierter Proteinbestandteile, Spektren ähnlicher Proteine und Informationen aus Kristallstrukturen konnten Beiträge der verschiedenen Kofaktoren, des Proteinrückgrates und einzelner Aminosäuren zu diesen Banden zugeordnet werden. Die elektrochemisch induzierten FTIR-Differenzspektren des P. denitrificans-bc1-Komplexes zeigten vor allem Beiträge der im Komplex gebundenen Chinone, die durch den Vergleich mit Differenzspektren isolierter Chinone identifiziert werden konnten. Ein wichtiges Ergebnis war die Abschätzung der Chinonkonzentration im Protein anhand einer charakteristische Bande bei 1262 cm-1 resultierend aus Schwingungen der Chinon-Methoxygruppen. Das Ergebnis von durchschnittlich 3 Molekülen Chinon pro Protein-Monomer unterstützt das zur Zeit für die Qo-Bindestelle diskutierte double-occupancy-Modell. Interessanterweise konnte die Protonierung einer Glu/Asp-Aminosäureseitenkette in Abhängigkeit vom Chinongehalt beobachtet und daraus abgeleitet Signale eines an der Qo-Bindestelle gebundenen Chinons differenziert werden. Die Beiträge der Cytochrom b und c-Untereinheiten relativ zum Gesamtspektrum des P. denitrificans-bc1-Komplexes wurden mittels Differenzspektren der einzelnen Kofaktoren unterschieden. Anhand ihrer Mittelpunktpotentiale, die zuvor durch Potentialtitrationen im sichtbaren Spektralbereich bestimmt wurden (Häm bL: Em7=-292 mV vs. Ag/AgCl, Häm bH: -144 mV, Häm c1: 89 mV), konnten die Differenzsignale des jeweiligen Kofaktors und seiner durch die Redoxreaktion beeinflußten Umgebung durch Wahl geeigneter Potentialschritte separiert werden. Die Zuordnungen der Signale des Cytochrom c1 und des Rieske-Proteins, die spektroskopisch nicht getrennt werden können, wurden durch Messungen an wasserlöslichen Fragmenten dieser Untereinheiten abgesichert. In allen Spektren konnten typische Beiträge des Proteingrundgerüstes, Schwingungen der Häme und ihrer Substituenten sowie einzelner Aminosäuren vorläufig zugeordnet werden. Die Bindung von Inhibitoren führte zu deutlichen Veränderungen im FTIR-Differenzspektrum. Der Qi-Inhibitor Antimycin A zeigt eigene Differenzsignale im Bereich oberhalb 1734 cm-1, an denen die Bindung des Inhibitors im Protein nachvollzogen werden konnte. Sie führte zur Abnahme der Signalintensität einer Bande, die die Beeinflussung eines protonierten Hämpropionates oder Arginin-bzw. Asparaginseitenketten vermuten lassen. Die Bindung des Qo-Inhibitors Stigmatellin, der selbst redoxaktiv ist, äußerte sich in Veränderungen im Amid I-Bereich des Differenzspektrums. Die Deprotonierung einer Glu/Asp-Seitenkette infolge der Stigmatellinbindung wurde diskutiert. Die FTIR-Differenzspektren des S. cervisiae-bc1-Komplexes gleichen denen des bakteriellen Komplexes in Bezug auf die Bandenpositionen weitestgehend. Die Signalintensitäten sowie die Größenverhältnisse der Banden zueinander unterscheiden sich jedoch. Dies wird durch den geringeren Chinongehalt des Hefeproteins nach der Präparation bedingt. Der Einfluß fünf verschiedener Inhibitoren der Qi- und Qo-Bindestelle auf die Differenzspektren wurde untersucht. Dabei standen von zwei Substanzen isotopenmarkierte Varianten zur Verfügung, die tieferen Einblick in die genaue Wechselwirkung bei der Inhibitorbindung bringen sollte. Die Bindung der Inhibitoren führte zu Veränderungen in den Spektren. Sie wurden vor dem Hintergrund der Kristallstruktur betrachtet, die aufgrund ihrer Auflösung keine exakten Aussagen über den Protonierungszustand einzelner Proteinbestandteile liefern kann. Der Schwerpunkt der Studien lag auf den Vergleich der Qo- Inhibitoren Stigmatellin und HHDBT. Die Bindung von Stigmatellin führte wie im P. denitrificans-Komplex zur Deprotonierung einer Glu/Asp-Seitenkette. Die Inhibierung mit HHDBT resultierte in der Protonierung vermutlich der gleichen Glu/Asp-Seitenkette. Die Auswirkungen des unterschiedlichen Protonierungszustandes der Aminosäure in Anwesenheit dieser beiden Inhibitoren wurde im Kontext eines vermuteten Chinoloxidations-Mechanismus beleuchtet.
Die Theorie der Quantenelektrodynamik (QED) starker Felder sagt vorher, dass sich unter dem Einfluss sehr starker elektromagnetischer Felder der Vakuumzustand verändert. Überschreitet das äußere (im einfachsten Fall elektrostatische) Feld eine gewisse kritische Stärke, dann kommt es zur spontanen Erzeugung von Elektron-Positron-Paaren und im Gefolge zur Ausbildung eines geladenen Vakuums. Charakteristisch dafür sind gebundene Elektronenzustände mit einer Bindungsenergie von mehr als der doppelten Ruhenergie. Dieser Effekt wurde bisher meist für sphärisch symmetrische Systeme untersucht, insbesondere für das Coulombpotential eines schweren Kerns. In der vorliegenden Arbeit wird erkundet, wie sich das überkritische Phänomen beim Übergang von sphärischer zu zylindrischer Geometrie verhält. Dazu werden die Lösungen der Dirac-Gleichung für Elektronen im elektrostatischen Potential eines langen dünnen geladenen Zylinders ("geladener String") berechnen und darauf aufbauend das überkritische Phänomen untersucht. Da das logarithmische Potential eines unendlich langen Strings unbegrenzt anwächst, sollten alle Elektronzustände überkritisch sein (Möglichkeit des Tunnelns durch den Teilchen-Antiteilchen-Gap). Die Zentralladung sollte sich dann mit einer entgegengesetzt geladenen Hülle aus Vakuumelektronen umgeben und damit neutralisieren. Um diese Phänomene quantitativ zu beschreiben untersuchen wir die Lösungen der Poisson-Gleichung und der der Dirac-Gleichung in Zylindersymmetrie. Zunächst wird eine Reihenentwicklung für das elektrostatische Potential in der Mittelebene eines homogen geladenen Zylinders von endlicher Länge und endlichem Radius hergeleitet. Anschließend benutzen wir den Tetraden- (Vierbein-) Formalismus zur Separation der Dirac-Gleichung in Zylinderkoordinaten. Die resultierende entkoppelte radiale Dirac-Gleichung wird in eine Schrödinger-artige Form transformiert. Die gebundenen Zustände werden mit der Methode der uniformen Approximation, einer Variante der WKB-Näherung, berechnet und ihre Abhängigkeit von den Parametern Stringlänge, Stringradius und Potentialstärke wird studiert. Die Näherungsmethode wird auch benutzt, um den überkritischen Fall zu untersuchen, bei dem sich die gebundenen Zustände in Resonanzen im Antiteilchen-Kontinuum verwandeln. Der zugehörige Tunnelprozess wird studiert und die Resonanz-Lebensdauer abgeschätzt. Schließlich wird das Problem der Vakuumladung und Selbstabschirmung angegangen. Die Vakuumladung wird durch Aufsummation der Ladungsdichten aller überkritischen (quasi-)gebundenen Zustände berechnet. Die Vakuumladung tritt als Quellterm in der Poisson-Gleichung für das elektrostatische Potential auf, welches wiederum die Wellenfunktionen bestimmt. Auf die volle selbstkonsistente Lösung dieses Problems wird verzichtet. Wir zeigen jedoch dass die Vakuumladung wie erwartet gross genug ist, um eine Totalabschirmung des geladenen Strings zu bewirken.
Das hemmende Umfeld von Ganglienzellen in der Netzhaut des Auges Der Bereich auf der Netzhaut, aus dem Ganglienzellen Lichtsignale erhalten, wird rezeptives Feld genannt. Er umfaßt einen erregenden, zentralen Teil, das rezeptive Feldzentrum, und einen hemmenden, peripheren Teil, das Umfeld. Die antagonistische Organisation (erregendes Zentrum/hemmendes Umfeld) des rezeptiven Feldes verbessert die Signalverarbeitung, indem Kontraste verstärkt werden. Ziel der vorliegenden Arbeit war es, die Mechanismen der Umfeldhemmung an der isolierten, intakten Kaninchennetzhaut zu untersuchen. Das rezeptive Feldzentrum wird durch den erregenden Kontakt zwischen Photorezeptor Þ Bipolarzelle Þ Ganglienzelle erzeugt. Visuelle Stimulation des rezeptiven Feldzentrums erhöht die Entladungsrate (Anzahl der Aktionspotentiale pro Zeiteinheit) der Ganglienzelle. Die Erhöhung der Entladungsrate wird durch die Freisetzung des erregenden Transmitters Glutamat aus präsynaptischen Bipolarzellen bewirkt. Eine Belichtung des Umfeldes hat den entgegengesetzten Effekt: die Entladungsrate der Ganglienzelle wird verringert. Die Umfeldantwort der Ganglienzelle wird durch die laterale Hemmung in der OPL (äußere Synpsenschicht) und der IPL (innere Synapsenschicht) erzeugt. In der OPL wird die Signalübertragung von GABAergen Horizontalzellen moduliert, indem sie Photorezeptoren und/oder Bipolarzellen hemmen. In der IPL modulieren Amakrinzellen, die entweder GABAerg oder glyzinerg sein können, die Signalübertragung, indem sie Bipolarzellen und/oder Ganglienzellen hemmen. Die Entladungsrate von retinalen Ganglienzellen wird bei Belichtung des Umfeldes somit auf zwei Arten verringert: entweder werden präsynaptische Zellen (Photorezeptoren, Bipolarzellen) gehemmt oder die Ganglienzelle wird direkt durch Amakrinzellen gehemmt. Im ersten Fall schütten Bipolarzellen weniger Glutamat aus (indirekte laterale Hemmung), im zweiten Fall wird durch hemmende Neurotransmitter (GABA oder Glyzin) ein Einstrom von Chloridionen in die Dendriten der Ganglienzellen hervorgerufen (direkte laterale Hemmung). Es ist bisher noch unklar, zu welchem Anteil direkte und indirekte laterale Hemmung an der Umfeldantwort beteiligt sind. Weiterhin ist nicht bekannt, welche Neurotransmitterrezeptoren bei der Erzeugung des hemmenden Umfeldes eine Rolle spielen. Um dies zu untersuchen, wurden in der vorliegenden Arbeit lichtinduzierte, synaptische Ströme von retinalen Ganglienzellen an der isolierten, intakten Kaninchenetzhaut gemessen. Dabei wurde die Netzhaut von vorher eingeschläferten Kaninchen freipräpariert und anschließend in einer mit Sauerstoff angereicherten Extrazellulärlösung aufbewahrt. An diesem isolierten, intakten NetzhautPräparat (in vitro Retina) konnten bis zu acht Stunden Lichtantworten gemessen werden. Die lichtinduzierten Ströme wurden in der Ganzzellkonfiguration der PatchClampTechnik in der Spannungsklemme gemessen. Die Meßkammer mit der flach ausgebreiteten Netzhaut befand sich auf einem Mikroskoptisch. Das Mikroskop war mit einer InfrarotDifferentialinterferenzOptik (NomarskiOptik) ausgestattet und die Mikroelektroden konnten unter Sichtkontrolle mit Hilfe eines Mikromanipulators an die Zellkörper herangefahren werden. Kreisförmige und ringförmige Lichtmuster mit verschiedenen Durchmessern, wurden auf einem Computerbildschirm erzeugt und durch den Mikrsokopkondenser auf den Boden der Meßkammer projiziert. Erregende Ströme retinaler Ganglienzellen konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für Chloridionen eingestellt wurde. Die erregenden Ströme wurden durch Belichtung des Umfeldes stark verringert. Dies wird durch die verminderte Freisetzung von Glutamat durch Bipolarzellen verursacht und ist ein Hinweise auf eine indirekte, laterale Hemmung der Ganglienzelle. Durch die Zugabe des GABARezeptorblockers Picrotoxinin in die Nährlösung (Badapplikation) konnte die Umfeldhemmung der meisten Ganglienzellen nahezu vollständig aufgehoben werden. Dieses Ergebnis zeigt, daß präsynaptische GABA A und GABA C Rezeptoren eine wichtige Rolle bei der Umfeldhemmung spielen. Direkte hemmende Chloridionenströme konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für erregende Ströme eingestellt wurde. Durch Beleuchtung des Umfeldes wurden Chloridionenströme in Ganglienzellen ausgelöst. Dies ist ein Hinweis auf eine direkte, laterale Hemmung der Ganglienzelle durch Amakrinzellen, die zusätzlich zur indirekten Hemmung erfolgt. Bei Anwendung der Stromklemme der PatchClampTechnik konnte nachgewiesen werden, daß Chloridionenströme die Entladungsrate der Zelle beeinflussen. Durch die Badapplikation von Picrotoxinin und durch die Überströmung mit dem GABA A Rezeptorhemmer Bicucullin wurden die Chloridionenströme deutlich verringert. Durch den Glyzinrezeptorblocker Strychnin konnten die hemmenden Ströme nur bei wenigen Zellen verringert werden. Dies ist ein Hinweis auf eine direkte Hemmung der Ganglienzelle über GABA A Rezeptoren. In den meisten Ganglienzellen konnten direkte und indirekte Hemmung durch die Badapplikation von Tetrodotoxin verringert werden. Tetrodotoxin hemmt das Entstehen von Aktionspotentialen und das Ergebnis zeigt, daß 'widefield Amakrinzellen, die über Aktionspotentiale kommunizieren zur Umfeldhemmung beitragen. Bisherige Modelle gingen davon aus, daß Interaktionen zwischen Horizontalzellen, Photorezeptoren und Bipolarzellen in der OPL die Hauptursache für die Umfeldhemmung sind. Die vorliegende Arbeit hat gezeigt, daß Interaktionen zwischen Amakrinzellen, Bipolarzellen und Ganglienzellen wesentlich zur Umfeldhemmung beitragen. In der Netzhaut gibt es zwischen 12 und 15 Ganglienzelltypen, die auf unterschiedliche Mustermerkmale wie z. B. Farbe, Kontrast oder Bewegung reagieren. Alle bisher untersuchten Ganglienzelltypen verringern bei einer Reizung des Umfeldes ihre Entladungsrate. Ist bei allen Ganglienzelltypen der Beitrag von Horizontal und Amakrinzellen zur Umfeldhemmung sowie der Anteil von direkter und indirekter lateralen Hemmung gleich? Oder gibt es für jeden Ganglienzelltyp aufgrund seiner physiologischen und morphologischen Ausprägung verschiedene Mechanismen der lateralen Hemmung? Diese Fragen könnten durch die Entwicklung von Pharmaka, welche selektiv Horizontalzellen bzw. Amakrinzellen hemmen, untersucht werden. Die Anwendung dieser Substanzen könnte den Beitrag dieser Zellen zur Umfeldhemmung eines bestimmten Ganglienzelltyps nachweisen. Gleichzeitig könnte die indirekte Hemmung von retinalen Ganglienzellen durch intrazelluläre Applikation von Chloridionenkanalblockern viel genauer als bisher gemessen werden, da auf diese Weise erregende synaptische Ströme besser isoliert werden können. Durch die Kombination dieser beiden Methoden könnte für jeden Ganglienzelltyp der Netzhaut die zellulären und synaptischen Mechanismen der Umfeldhemmung detailliert beschrieben werden.
Kernpunkt dieser Arbeit ist die Untersuchung der Eigenschaften des Vakuums und des Grundzustandes von Kernmaterie anhand eines effektiven Modells. Das Lineare Sigma-Modell mit globaler chiraler U(2)R ×U(2)L-Symmetrie wurde mit (Axial-)Vektormesonen sowie dem chiralen Partner des Nukleons, der mit der Resonanz N(1535) identifiziert wird, erweitert. Die Einführung des chiralen Partners in der Spiegel-Zuordnung ermöglicht die Untersuchung zweier verschiedener Erzeugungsprozesse der Baryonenmasse: durch spontane Symmetriebrechung sowie durch einen chiral invarianten Massenterm, parametrisiert durch m0. Die Parameter des Modells werden durch experimentelle Werte der Zerfallsbreiten von N∗ → Nπ und a1 → πγ und der axialen Kopplungskonstante des Nukleons gN A , sowie durch Lattice-Berechnungen von gN∗ A fixiert. Im Rahmen dieses Modells ergibt sich für den Massenparameter m0 ∼ 500 MeV, was darauf hin deutet, dass ein beträchtlicher Anteil der Baryonenmasse nicht durch das chirale Kondensat erzeugt wird. Das Modell wird anhand des Zerfalls N∗ → Nη sowie s-Wellen-πN-Streulängen a(±) 0 validiert und zeigt gute Übereinstimmung mit dem Experiment. In Kernmaterie wird m0 durch Kondensate anderer skalarer Felder ausgedrückt, z. B. dem Tetraquark-Kondensat. Der Einfluß dieses Kondensates auf dichte Materie wird untersucht. Die Nukleonenmassen hängen stark von den Kondensaten ab und verschwinden, so wie auch die Kondensate selbst, wenn die chirale Symmetrie wieder hergestellt ist.
The study of systems whose properties are governed by electronic correlations is a corner stone of modern solid-state physics. Often, such systems feature unique and distinct properties like Mott metal-insulator transitions, rich phase diagrams, and high sensitivity to subtle changes in the applied conditions. Whereas the standard approach to electronic structure calculations, density functional theory (DFT), is able to address the complexity of real-world materials but is known to have serious limitations in the description of correlations, the dynamical mean-field theory (DMFT) has become an established method for the treatment of correlated fermions, first on the level of minimal models and later in combination with DFT, termed LDA+DMFT.
This thesis presents theoretical calculations on different materials exhibiting correlated physics, where we aim at covering a range in terms of systems --from rather weakly correlated to strongy correlated-- as well as in terms of methods, from DFT calculations to combined LDA+DMFT calculations. We begin with a study on a selection of iron pnictides, a recently discovered family of high-temperature superconductors with varying degree of correlation strength, and show that their magnetic and optical properties can be assessed to some degree within DFT, despite the correlated nature of these systems. Next, extending our analysis to the inclusion of correlations in the framework of LDA+DMFT, we discuss the electronic structure of the iron pnictide LiFeAs which we find to be well described by Fermi liquid theory with regard to many of its properties, yet we see distinct changes in its Fermi surface upon inclusion of correlations. We continue the study of low-energy properties and specifically Fermi surfaces on two more iron pnictides, LaFePO and LiFeP, and predict a topology change of their Fermi surfaces due to the effect of correlations, with possible implications for their superconducting properties. In our last study, we close the circle by presenting LDA+DMFT calculations on an organic molecular crystal on the verge of a Mott metal-insulator transition; there, we find the spectral and optical properties to display signatures of strong electronic correlations beyond Fermi liquid theory.
In this thesis we study strongly correlated electron systems within the Density Functional Theory (DFT) in combination with the Dynamical Mean-Field Theory (DMFT).
First, we give an introduction into the theoretical methods and then apply them to study realistic materials. We present results on the hole-doped 122-family of the iron-based superconductors and the transition-metal oxide SrVO3. Our investigations show that a proper treatment of strong electronic correlations is necessary to describe the experimental observations.
Für die vorliegende Arbeit wurden zur Analyse des Auger-Zerfalls kleiner Moleküle nach Photoionisation die aus der Zerfallsreaktion resultierenden Impuls- und Energiespektren von Photo- und Auger-Elektronen in Koinzidenz mit denen der ionischen Fragmente aufgenommen. Dies ermöglichte eine getrennte Betrachtung der während des Ionisationsschrittes und des Zerfallsschrittes dieses Prozesses besetzten Molekülzustände. Um weitere Einsicht in die Dynamik des Zerfalls zu erhalten, wurden vorhandene theoretische Modelle, welche insbesondere die Interaktion der durch die Reaktion produzierten geladenen Teilchen (Post Collision Interaction) einbeziehen, an die gemessenen Energiespektren angepasst. Dies ermöglichte die separate Betrachtung der im Ionisationsschritt besetzten Molekülzustände. So konnten die Emissionswinkelverteilungen der Photoelektronen im molekülfesten Koordinatensystem für jeden besetzten Anfangszustand einzeln betrachtet werden. Die Trennung der Endzustände des Zerfalls erfolgte über die Analyse des Spektrums der Ionen-Aufbruchsenergie (Kinetic Energy Release) und den Vergleich mit berechneten Potentialkurven der beitragenden Endzustände.
Durch die nach den Anfangszuständen separierte Betrachtung des Auger-Zerfalls wurde es auch möglich, die Auswirkungen dieser Zustände auf die Zerfallsdynamik zu analysieren. Dafür lieferte die Anpassung der Modellprofile die Lebensdauer des jeweiligen 1s-Lochzustandes in dem entsprechenden Zerfallskanal. Diese jeweiligen Lebensdauern eines jeden Zustandes wurden abhängig von verschiedenen Parametern mit einer Genauigkeit im Attosekunden-Bereich aus den Energiespektren der Photoelektronen ermittelt.
Der Einfluss von turbulenten Strömungen auf die Photodissoziation von CO in interstellaren Wolken
(2001)
Seit 1988 ist bekannt, dass die Photodissoziation von COMolekülen durch Linienabsorption von UVPhotonen stattfindet. Wie jede Linienabsorption ist damit auch die Photodissoziation von CO abhängig von Geschwindigkeitsfeldern innerhalb des absorbierenden Mediums. DopplerVerschiebung kann die Absorption in einen Frequenzbereich verschieben, in dem sich die lokale Intensität von der Intensität in der Linienmitte wesentlich unterscheidet. Jede Untersuchung, die sich mit der Bildung und Vernichtung von COMolekülen am Rand interstellarer Wolken beschäftigt, muss diese turbulenten Geschwindigkeitsfelder berücksichtigen. Da die Existenz von turbulenten Strömungen in interstellaren Molekülwolken unbestritten ist, wird in Untersuchungen üblicherweise der Dopplerparameter der Gaußschen Profilfunktion um eine Turbulenzgeschwindigkeit erweitert. Diese mikroturbulente Näherung ist die simpelste Möglichkeit zur Berücksichtigung von Turbulenz. In vorangegangenen Arbeiten (Albrecht, M.A., Kegel, W.H. (1987)), (Kegel, W.H., Piehler, G., Albrecht, M.A. (1993)), (Piehler, G., Kegel, W.H. (1995)) ist gezeigt worden, dass die Berücksichtigung eines turbulenten Geschwindigkeitsfeldes mit endlicher Korrelationslänge (Mesoturbulenz) jedoch wesentlich dazu beitragen kann, realistischere Linienprofile zu erhalten. Während in den letzten Jahren einiger Aufwand betrieben wurde, die Berechnung der chemischen und thermischen Struktur einer Molekülwolke zu verfeinern, ist der Modellierung des zugrundegelegten Strahlungstransports weniger Aufmerksamkeit gewidmet worden. Die Ergebnisse unserer Rechnungen zeigen, dass die Berück sichtigung eines mesoturbulenten Strahlungstransports den Verlauf der COHäufigkeit entlang des Sehstrahls wesentlich beeinflussen kann. Zusammengefasst haben wir folgende Ergebnisse erhalten: - Rechnungen mit einem EinzellinienModell zeigen den großen Einfluss von Korrelationslänge und Turbulenzgeschwindigkeit auf den Verlauf der Photodissoziationsrate und damit auch auf die resultierende COHäufigkeit. - Bei Mesoturbulenz werden die absorptionsrelevanten Linien schneller optisch dick als bei reiner Mikroturbulenz. Dadurch kann sich eine stabile Zone großer CODichte in Tiefen bilden, von denen bisher angenommen wurde, sie würden eine zu große UVIntensität aufweisen. - Rechnungen, die das volle UVSpektrum berücksichtigen, zeigen eine geringere Sensitivität der COHäufigkeit gegenüber Variationen der Turbulenzparameter als solche mit nur einer Linie. Trotzdem haben Korrelationslänge und Turbulenzgeschwindigkeit starken Einfluss auf die Tiefe, ab der eine stabile COHäufigkeit erreicht wird. - Im Vergleich zu Rechnungen mit einer parametrisierten Photodissoziationswahrscheinlichkeit fällt im mesoturbulenten Fall z CO wesentlich schneller ab. Das bedeutet, dass in größeren Tiefen der Wolke die Werte für z CO um einige Größenordnungen voneinander abweichen können. Für Größe und Isotopenverhältnis des Wolkenmodells kann das zu einer signifikanten Überschätzung der wahren Werte führen. - Das zugrundegelegte Modell der chemischen Reaktionen weist eine hohe Stabilität gegenüber Veränderungen der Turbulenzparameter auf. Auch wenn die COHäufigkeit davon relativ stark betroffen ist, wirken sich diese Veränderungen nur sehr langsam auf die chemische Gesamtstruktur der Wolke aus. - Die Anwendung unserer Ergebnisse auf Beobachtungen von NGC 2024 zeigen, dass sich die Werte, die man für Dichte und Größe der Region aus den Modellen ermittelt, stark von dem zugrundegelegten Strahlungstransportmodell abhängen. Folgerungen, die aufgrund einer zu einfachen Modellierung gemacht werden, sind somit mit einiger Vorsicht zu betrachten. Es zeigt sich, dass der numerische Aufwand, stochastische Strahlungstransportmodelle zu rechnen, durchaus gerechtfertigt ist. Möchte man die Bildung von CO Molekülen am Rand einer interstellaren Molekülwolke genauer verstehen, muss eine endliche Korrelationslänge berücksichtigt werden. Es macht wenig Sinn, immer detailliertere chemische Modelle zu entwickeln und die wichtigen Effekte mesoturbulenten Strahlungstransports zu vernachlässigen.
In dieser Arbeit wurde versucht, das Phänomen des Metamagnetismus, wie es in den elektronisch hochkorrelierten Systemen auftritt und im Besonderen in CeRu2Si2, eingehender zu untersuchen. Hauptanliegen war die Rolle der Elektron-Gitter-Wechselwirkung zu analysieren. Hierzu wurde eine Messzelle konstruiert, die es ermöglichen sollte das Volumen während der Magnetfeldläufe durch das Ausüben von "passivem" uniaxialen Druck konstant zu halten. Die Experimente konnten an verschiedenen CeRu2Si2-Proben durchgeführt werden, mit stark unterschiedlichen Länge-zu-Breite-Verhältnissen. Die Messergebnisse an den zur Verfügung stehenden Chargen, den Lejay-Proben und der Onuki-Probe, sind in sich nicht schlüssig, führten doch die Magnetostriktions- und die Suszeptibilitätsmessungen unter Druck an den Lejay-Proben vermittels einer Beschreibung über die Skalierungsthese zu unterschiedlichen -Parametern. So ist über die Magnetostriktion ein Wert von =280Mbar-1 gewonnen worden und über die Suszeptibilität unter Druck resultierte letzten Endes unter Grundlage einer Kompressibilität von =0.64Mbar-1 ein Wert von =160Mbar-1. Die Onuki-Probe zeigte unterdessen eine stärkere Feldverschiebung unter Druck in den Suszeptibilitäts- sowie den realisierten Ultraschallmessungen einer longitudinalen Mode, die entlang der [110]-Richtung propagierte. Beide Messmethoden wiesen zwar ein eindeutiges Verhalten unter Druck auf, doch ist auch hier ebenfalls eine Abweichung des -Parameters gegenüber den aus der Literatur bekannten Werten von171-200Mbar-1, als auch gegenüber den ,,Lejay-Werten" festgestellt worden. So zeigte die Onuki-Probe im Rahmen einer Auswertung mit einer Kompressibilität von =0.64Mbar-1 kein schlüssiges Verhalten bei einer Zusammenschau der Suszeptibilitätsmessungen unter Druck sowie der Transformation der Magnetostriktions- auf die Magnetisierungsdaten, basierend auf Messungen der Lejay-Proben. Der erhaltene - Parameter von 250Mbar-1 steht hierbei dem Wert von 280Mbar-1 gegenüber. Diese Differenz entspricht einer Feldverschiebung von 0.7T. Kalkuliert man aus der Striktionsmessung entlang der [110]-Richtung die relative Volumenänderung, findet sich hingegen ein - Parameter von 170Mbar-1, der sich seinerseits wieder mit den Resultaten von Mignot deckt. Festzuhalten ist jedoch, dass für beide Proben ein erhöhter Grüneisenparameter aus den Experimenten mit ,,passivem Druck" gefunden wurde. Kann man das über die unterschiedlichen -Parameter deduzierte Verhalten beider Proben unter Druck noch auf eine eventuelle Probenqualität zurückführen, so bleibt immer noch die Tatsache kritisch, dass die experimentell bestimmten -Werte hier größer als die in der Literatur veröffentlichten und nicht alleine aus einem abweichenden Kompressibilitätswert zu erklären sind. Trotzdem ist ein wichtiges Ergebnis erzielt worden. An der Probe mit dem für uniaxialen Druck günstigen geometrischen Abmessungen wurde die Zwangsbedingung des konstanten Volumens verifiziert. Dies geschah durch ein von G.Bruls neu entwickeltes Dilatationsmessverfahren auf Ultraschallbasis. Es wurde durch eine Unterdrückung des Gitterfreiheitsgrades gezeigt, dass der Metamagnetismus intrinsischer Natur ist, wie es theoretische Überlegungen mit Hilfe des Skalierungsansatzes prognostizierten. Das kritische Feld ist jedoch im Gegensatz zum frei expandierenden System zu höheren Feldern verschoben und der Metamagnetismus wesentlich schwächer ausgebildet. Wodurch sich in der Diskussion um die Rolle des Gitters bei der Prägnanz des metamagnetischen Überganges deutlich dessen Relevanz abzeichnet. Ist aus der Skalierungsthese eine Beschreibung der physikalischen Vorgänge mit einem Parameter hinreichend, so bedingte, wie zuvor erwähnt, eine Adaption der Skalierungsthese auf die durchgeführten ,,passiven Druckexperimente" die Einführung eines gegenüber dem thermischen Grüneisenparameter erhöhten, renormalisierten Grüneisenparameters. Diese eventuelle druckbedingte Renormierung kann aber auch ursächlich als Erhöhung des magnetischen Grüneisenparameters gewertet werden, die als Indiz eines im Magnetfeld anwachsenden Sommerfeld-Wilson-Verhältnisses gedeuted wird. Abschließend wurde ein theoretisches Modell vorgestellt, das den metamagnetischen Übergang auf das Feldverhalten der hybridisierten Quasiteilchenbänder mit erhöhter Zustandsdichte zurückführt. Das Maximum in der Suszeptibilität ist dabei die Folge eines levelcrossings des spinup-Bandes mit der Fermikante, das von einem Abwandern der itineranten Elektronen in das obere spinup-Band begleitet wird. Als wichtig für die naturgemäße Beschreibung des Metamagnetismus in CeRu2Si2 hat sich hierbei die Berücksichtigung der Anisotropie der Hybridisierungswechselwirkung, sowie die durch das Kristallfeld bedingte korrekte Grundzustandswellenfunktion erwiesen. Mit diesem Modell gelingt auch eine Reproduktion des phänomenologisch gefundenen Skalierungsverhaltens mit dem die Magnetostriktionsdaten auf die Magnetisierungsdaten transformiert werden.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
Der STAR Level-3 Trigger
(2002)
Schwerionen-Collider-Experimente, wie das STAR-Experiment am RHIC (BNL) oder das geplante ALICE-Experiment am LHC (CERN) untersuchen Schwerionenkollisionen bei Schwerpunktsenergien von Wurzel aus SNN = 200 GeV (RHIC), bzw. Wurzel aus sNN = 5, 5 TeV (ALICE). In diesen Kollisionen werden mehrere tausend geladene Teilchen produziert, die in STAR und ALICE in großvolumigen TPCs gemessen werden. Das Datenvolumen erreicht dabei bis zu 10 MB (STAR) und 60 MB (ALICE) pro Ereignis. Aufgrund der hohen Luminosität der Collider könnten die Experimente zentrale Schwerionenkollisionen mit einer Rate bis zu 100 Hz bzw. 200 Hz (ALICE) untersuchen. Die dabei entstehenden Datenraten im Bereich mehrerer GB/s sind mit heutiger Technologie jedoch nicht mehr einfach zu speichern. Deshalb kann nur ein Bruchteil der zur Verfügung stehenden Ereignisse aufgezeichnet werden. Aufgrund der exponentiellen Entwicklung der CPU-Leistung wird es jedoch möglich, die Rekonstruktion von Ereignissen während der Datennahme in Echtzeit durchzuführen. Basierend auf den rekonstruierten Spuren in den Detektoren kann die Entscheidung getroffen werden, ob ein Ereignis gespeichert werden soll. Dies bedeutet, dass die begrenzte Speicherbandbreite gezielt mit Ereignissen, die eine interessierende physikalische Observable beinhalten, angereichert werden kann. Ein solches System zur Ereignisselektion wird als Level-3-Trigger oder allgemeiner als High Level Trigger bezeichnet. Am STAR-Experiment wurde erstmals in einem Schwerionenexperiment solch ein Level-3-Triggersystem aufgebaut. Es besteht aus 432 i960-CPUs, auf speziell gefertigten Receiver Boards für die paralelle Clusterrekonstruktion in der STARTPC. 52 Standard-Computer mit ALPHA- bzw. Pentium-CPUs rekonstruieren die Spuren geladener Teilchen und tre.en eine Triggerentscheidung. Dieses System ermöglicht die Echtzeit-Rekonstruktion zentraler Au-plus-Au-Kollisionen mit anschliessender Analyse durch einen Trigger-Algorithmus mit einer Rate von 40-50 Hz. Die Qualität, die mit dieser schnellen Analyse erreicht wird, kann mit der Qualität der STAR-Offline-Rekonstruktion verglichen werden. Der Level-3-Clusterfinder erreicht in Bezug auf Ortsauflösung und Rekonstruktionseffizienz dieselbe Qualität wie der Offline-Clusterfinder. Der Level-3-Trackfinder erreicht bei Rekonstruktionseffizienz und Impulsauflösung 10-20% schlechtere Werte als der Offline- Trackfinder. Die Anwendung eines Level-3-Triggers besteht in der Messung von seltenen Observablen ("rare Probes"), die ohne eine Anreicherung nicht, oder nur schwer, meßbar wären. In den Jahren 2000 und 2001 wurden erste Triggeranwendungen für das STARLevel- 3-System erprobt. In ultraperipheren Au-plus-Au-Kollisionen wurden po-Kandidaten schon im Jahr 2000 selektiert. Während der Strahlzeit des Jahres 2001 wurde das Level-3-System erstmals zum Triggern in zentralen Au-plus-Au-Kollisionen eingesetzt. Die Triggeralgorithmen beinhalteten einen Õ-Trigger, einen 3He-Trigger und einen Algorithmus zur Anreicherung von Spuren hohen Impulses in der Akzeptanz des RICH-Detektors. Das STAR Level-3-System ist in der Lage zehnmal mehr Ereignisse zu analysieren, als gespeichert werden können. Aufgrund der begrenzten Luminosität des RHIC-Beschleunigers, konnten die Level-3 Trigger erst zum Ende der Strahlzeit eingesetzt werden. Den genannten Algorithmen standen zusätzlich zu den 3 · 10 hoch 6 gespeicherten zentralen Ereignissen, 6 · 10 hoch 5 zentrale Ereignisse zur Analyse zur Verfügung. Mit diesem begrenzten Anreicherungsfaktor von 20% blieb das System hinter seinen Möglichkeiten zurück. Es konnte jedoch gezeigt werden, dass das STAR Level-3-System in der erwarteten Qualität und Stabilität funktioniert.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Zur effizienten Beschleunigung von Ionen wird meist nach deren Erzeugung in einer Ionenquelle ein Radio Frequenz Quadrupol verwendet. Die vorliegende Dissertation befasst sich mit Entwicklung, Bau und Messung des Prototyps eines neuartigen Leiter-RFQs, der bei 325 MHz betrieben wird. Der Leiter-RFQ verfügt über ein neuartiges mechanisches Design und versucht die Vorteile der beiden vorrangig im Betrieb befindlichen RFQ Typen, des 4-Rod und 4-Vane RFQs, zu verbinden. Die physikalischen Parameter sind der Spezifikation des RFQs für den geplanten Protonenlinac (p-Linac) am FAIR-Projekt an der GSI Darmstadt entnommen. Darüber hinaus wird der aktuelle Planungs- und Simulationsstand eines modulierten Prototyps mit der vollen Länge von ca. 3,5 m zur Durchführung von Strahltests dargestellt.
Design and optimization of the lattice of the superconducting synchrotron SIS300 for slow extraction
(2011)
The superconducting synchrotron SIS300 is planned to be built at the new Facility for Antiproton and Ion Research (FAIR), at GSI-Darmstadt [1]. SIS300 will be a versatile machine, which by means of a low-energy stretcher-mode or a high-energy ramped-mode will provide slowly extracted heavy ion beams towards the experimental areas. To reach the required maximum field of 4.5 T, cos(θ) magnets are necessary. Thus, SIS300 will become the first superconducting synchrotron worldwide with cos(θ) magnets providing resonant slow extraction.
Since SIS300 will be installed in the same tunnel as the SIS100 synchrotron, the dipole layout of SIS300 cannot be freely chosen. Thus, a standard lattice cannot be applied. A redesign of the SIS300 lattice accepting compromises concerning the positions and phase advances between the optical elements has been proposed. Using the analytical model of the slow extraction, firstly proposed by Kobayashi, and the analytical description of the resonance driving modes, a multiobjective optimization algorithm has been developed for the optimization of the lattice under the given boundary conditions. The final goal of the lattice optimization is a higher efficiency of the slow extraction. The results are evaluated by means of tracking simulations performed with the code Elegant.
The field quality in superconducting cos(θ) magnets is determined by the positions of the superconducting cable and the static and time-dependent effects of the current in the cable. Furthermore, the fast ramp rates of 1 T/s in the dipoles, which are fifty times faster than in any other superconducting cos(θ) magnet, together with the fact that the aperture is smaller than in conventional accelerator magnets, makes it extremely difficult to obtain a high-quality magnetic field. The unavoidable field errors affect the beam dynamics and worsen the slow extraction efficiency. Therefore, the field errors in the SIS300 dipoles have been estimated, and their effects have been taken into account in the optimization algorithm. As a result a compensation scheme has been proposed, in which time-dependent gradients in the sextupoles counteract the decay of the sextupole field errors in the dipole magnets during the slow extraction. For the limits where the compensation was no longer possible, tolerances to the magnet field errors have been determined.
Im Rahmen des FAIR Projektes wurde ein neuartiger Prototyp eines nicht strahlzerstörenden Bunch Struktur Monitors (BSM) am GSI UNILAC entwickelt. Ziel ist es, ein zuverlässiges Diagnosegerät zu entwickeln, welches die longitudinale Struktur der Ionenbunche innerhalb des LINACs untersuchen kann. Notwendig ist hierbei eine effektive Zeitauflösung deutlich unter 100 ps, bei möglichst wenigen Makropuls Mittelungen. Nach der erfolgreichen Inbetriebnahme soll der BSM Prototyp dazu dienen, die Umsetzbarkeit eines weiteren nichtinvasiven Geräts für den geplanten Proton-LINAC bei FAIR mit einer notwendigen Zeitauflösung von 10 ps zu beurteilen.
Die numerische Simulation von Materialien, welche dem Hochstrom-Ionenstrahl ausgesetzt sind, zeigten einen sehr hohen thermischen Stress. Daher wurde der Ansatz eines nicht strahlzerstörenden Diagnosegerätes verfolgt. Das Design beruht auf der Erzeugung von Sekundärelektronen durch Strahl-Restgas Kollisionen im Strahlrohr. Durch das Anlegen eines homogenen Hochspannungspotentials von bis zu -31 kV, wird ein Elektronenstrahl erzeugt, welcher die zeitliche Struktur des Ionenbunches trägt. Die zeitliche Information des Elektronenstrahles wird beim Durchfliegen eines HF-Ablenkers, welcher resonant an die 36 MHz des Beschleunigers gekoppelt ist, in eine räumliche Intensitätsverteilung umgewandelt. Anschließend wird die Elektronenverteilung auf einem bildgebenden MCP-Phosphor-Detektor durch eine CCD-Kamera detektiert und in die Bunch Struktur überführt.
Intensive Untersuchungen der BSM Eigenschaften ergaben eine höchste Auflösung von 37 ±6.3 ps bei gleichzeitig akzeptabler Intensität auf dem MCP-Detektor. Unter anderem wurden auch stabile Einzelschussmessungen durchgeführt, welche für die Profilmessung nur einen einzelnen Makropuls benötigten, statt über typischerweise 8-32 Pulse zu mitteln.
Durch die systematische Manipulation der Bunchlänge durch einen Rebuncher sind nicht gaußförmige Profile von 280 ps bis 650 ps detektiert worden, welche als Studie für eine Emittanzbestimmung genutzt worden sind. In Abhängigkeit des Analyseverfahrens sind Werte von εGauss = 1.42 ±0.14 keV/u ns bis εSD = 3.03 ±0.33 keV/u ns für die Emittanz bestimmt worden.
Des Weiteren ist ein Finite-Elemente Modell erstellt worden, um die Zeitstruktur der Sekundärelektronen innerhalb des elektronenoptischen Systems zu bestimmen. Für das Setup mit der höchsten Auflösung von 37 ps ergab sich eine zusätzliche Zeitverbreiterung von 5.6 ps, welche nur geringfügig die experimentell bestimmte Auflösung verschlechtert.
Der nicht strahlzerstörende BSM liefert eine ausreichend hohe zeitliche Auflösung für detailreiche Untersuchung der longitudinalen Bunchstruktur, ohne negative Einflüsse auf den Ionenstrahl auszuüben. Fortgeschrittene Messungen, wie longitudinale Emittanzbestimmung und Makropulsanalysen, sind möglich und werden dazu beitragen, die LINAC Strukturen besser zu verstehen und weiter zu optimieren.
Obwohl bei der Umsetzung des Arbeitsprinzips für den geplanten Proton-LINAC die veränderten Strahlparameter berücksichtigt werden müssen, zeigen die Ergebnisse, wie die Zeitstrukturuntersuchung und die erreichte Phasenauflösung von 0.5° bei 36 MHz, dass zeitliche Auflösungen bei Aufrechterhaltung der Phasenauflösung von bis zu 10 ps für einen neuen BSM Prototypen möglich sind.